Звук, с которым нужно дружить

Много писать о том, насколько важен звук в кино, особого смысла нет, поэтому давайте сразу по существу.

Если кратко описывать этапы работы над звуком в наших фильмах, то получится вот такой небольшой список: организация и синхронизация звуковых файлов, нормализация по уровню всех используемых дорожек, звуковой монтаж, удаление шума и других посторонних звуков, эквализация/компрессия и общий мастеринг.

Каждый этап я выполняю на разных стадиях монтажа, т.к. в процессе работы мне важно слышать уже более-менее итоговый звук. Это позволяет более детально прочувствовать сцену и выполнить необходимые работы над монтажом.

Для мониторинга я использую профессиональные мониторы фирмы Makie, закрытые наушники Axelvox и внешнюю звуковую карту E-mu 0404. Также в полевых условиях работаю со штатной звуковой картой на ноутбуке и могу утверждать, что для работы со звуком для наших целей вполне хватает стандартных средств. В этом случае к выбору наушников нужно подойти более ответственно.

Теперь рассмотрим более подробно каждый из приведенных ранее пунктов. Как и положено, в самом начале синхронизируем все аудио материалы по таймингу. В среднем, в проекте используются 2-3 дорожки видеофайлов с записанным интершумом (по количеству камер) и отдельные аудиофайлы с внешнего рекордера. Мы используем внешние микрофоны типа Rode Stereo VideoMic Pro и рекордеры фирмы Zoom. Также в проект подгружаются аудиофайлы музыкального сопровождения и прочих дополнительных звуковых эффектов. Для синхронизации всех аудио по таймингу создается отдельная секвенция внутри проекта, и все работы проводятся там и только потом частями переносятся в основную секвенцию проекта. Для самой синхронизации используется либо программа Pluraleyes, которая анализирует пики аудиозаписей, либо Syncopa, работающая с метаданными файлов и синхронизирующая по времени их создания. Это удобно, когда время на всех устройствах записи выставлено одинаково, и/или звуковые картины с разных камер существенно отличаются друг от друга. Хочется отметить, что Syncopa, кстати, разработанная нашим соотечественником, всегда работает безотказно с файлами зеркальных камер Canon 6d, 5dm3 и подобных. Дорожка с рекордера подставляется и выравнивается вручную. Если в проекте много дорожек с рекордера или много материала с камер, файлы которых Syncopa не поддерживает (например, Sony a7s), то мы пользуемся Pluraleyes. Иногда синхронизация выполняется вручную, когда фронт работ не велик.

После синхронизации и монтажа (или в процессе его) первая манипуляция со звуком – это нормализация по уровню. Один из самых важных моментов в работе со звуком, и на который очень многие не обращают внимания, – это уровень выходного сигнала общего микса. Об этом я расскажу в самом конце статьи, а на этом этапе необходимо следить, чтобы звук не клиповал, т.е. не выходил за 0 дБ. Также важно следить за панорамой и, в общем, за стерео базой, чтобы речь лежала в центре или была грамотно разведена по каналам.

Для удаления лишнего шума при записи я использую DeNoiser, а также DeCracker и DeClicer для удаления специфических паразитных звуков.

Далее идут динамическая и частотная обработки звука. Их необходимо делать всегда. Очень редко звук хорош изначально, без пост-обработки. Как яркий пример, профессиональные дикторы высылают уже подготовленный звук, который прекрасно “дружит” с основным миксом без особых настроек, потому что всю работу над динамической и частотной обработкой они взяли на себя. Тем не менее, уметь пользоваться эквалайзером и компрессором, считаю, необходимым.

Допустим, что мы имеем дело с интервью, записанным на петличный микрофон. На записи имеем монотонную мужскую или женскую речь. Если устройство записи не имеет фильтра высоких частот (high-pass filter), то первым делом необходимо отрезать все, что ниже ниже 60–80 Гц для мужского голоса и 80-100 Гц для женского. Это делается для того, чтобы удалить ненужные низкочастотные компоненты, которые впоследствии могут дать нежелательную «мутность». Хотя эту процедуру следует выполнять даже при наличии фильтра на устройстве записи, потому как идеально вычистить нижнюю часть спектра он не сможет. Далее производим коррекцию по всему частотному спектру. Тут у каждого есть свои хитрости и свои привычки того, как удобно производить частотную коррекцию. Приведу некоторые закономерности и рекомендации. «Гнусавость» голоса, чаще всего, появляется из-за акустических особенностей помещения, в котором проходила запись. Проблема лежит в диапазоне низкой середины (120–350 Гц), которую необходимо немного ослабить с выбранным соответственно проблеме значением крутизны Q. Резонирующие частоты можно найти по всему спектральному диапазону, а особенно в диапазоне 5-10 кГц. Они пагубно влияют на свистящие и шипящие звуки. Обнаружить их можно, задрав уровень узкого bell-фильтра с большим значением крутизны Q до высокого значения. После обнаружения необходимо ослабить уровень до 15-20 дБ – этого обычно хватает. Можно применить готовый инструмент DeEsser, но качество ручной работы это не заменит. «Разборчивость» голоса находится в средних частотах — начиная с 2 кГц для мужских голосов и с 3 кГц для женских. Эффект «открытости» голоса даёт небольшое увеличение shelf-фильтром частот от 10 кГц. Также рекомендую срезать все, что выше 18-20 кГц фильтром высоких частот. В том диапазоне могут находиться паразитные частоты, которые могут проявиться при дальнейшей обработке.

При работе с эквалайзером, да и, впрочем, с компрессором, о котором пойдет речь далее, главное помнить, что при не правильном использовании этого инструмента, конечный результат может звучать хуже, чем до его использования. В качестве наглядного примера приведу картинку, на которой можно увидеть окно эквалайзера FabFilter. Производилась коррекция звука интервью из одного нашего фильма. В процессе коррекции были устранены резонирующие частоты, отрезан низ и откорректирован общий частотный баланс.

Инструментов эквализации много, и даже в самом Premiere Pro есть вполне достойные нативные эквалайзеры. Я же предпочитаю пользоваться FabFilter, который совмещен со спектральным анализатором, что очень удобно для наглядной оперативной работы.

Также для более детальной работы со звуком можно работать параллельно с Adobe Audition. Но на нашей практике мы таким пользуемся редко или даже почти не пользуемся.

Динамическая обработка – работа с динамическим диапазоном звука. Чаще всего звук между словами очень разбросан по уровню - то очень громко, то очень тихо. Применяя компрессор, мы сглаживаем все эти неудобства и делаем голос более насыщенным и «плотным». Углубляться в настройки компрессора я здесь не стану, потому как лучше пусть это делают специалисты, статьи которых можно легко найти в сети. Остановлюсь на четырех основных параметрах: атака (attack), релиз (realese), степень сжатия (ratio) и порог (threshold). Устанавливая значение порога, мы ограничиваем область работы компрессора по уровню. Степень сжатия отвечает во сколько раз будет сжиматься диапазон. Атака – время до начала работы компрессора, а релиз – время восстановления, которое определят, как быстро компрессор прекратит сжатие после того, как уровень громкости упадёт ниже порога.

Использовать компрессор стоит очень внимательно. Для справки, приведу общие настройки компрессора для коррекции звука монотонного голоса. Атака 20-50 мс, релиз 5-20 мс, сжатие = 3-5. Для более взрывного и активного голоса время атаки следует уменьшить, а сжатие наоборот увеличить.

Дополнительные звуковые эффекты, такие как ревер, дилэй, я рассматривать не буду, ибо пользуемся мы ими редко и только для придания соответствующего эффекта.

Закончить редактирование голоса можно, применив ультрамаксимайзер. Этот инструмент всегда используют на радио для получения того самого “рекламного” эффекта. Т.е. громкий, очень плотный голос. Использую я его не часто.

Используемые музыкальные композиции редко проходят дополнительную коррекцию. Чаще всего это простая частотная коррекция.

В конце работы над звуком необходимо провести общий мастеринг. По сути, мастерингом можно назвать работу трех устройств: эквалайзера, компрессора и лиммитера на мастер шине. Можно работать как отдельными инструментами, так и готовыми плагинами для мастеринга, такими как iZotope, T-Rackx и другие. В специальных программах предустановленны готовые пресеты для общего мастеринга, поэтому, зачастую, этого хватает. Я привык пользоваться отдельными инструментами, входящими в пает Nomad Factory. Т.к. основная работа должна быть выполнена на этапе сведения, масетринг делает последние штрихи и придает общий характер всему звуковому сигналу. Глубина обработки на финальном этапе зависит от контента и вполне возможно, что работа каких то инструментов может и вовсе не понадобится. В наших фильмах чаще всего на оконечнике висит только лиммитер, который ограничивает выходной сигнал.

И последнее - уровень выходного сигнала. Вообще, на эту, казалось бы, невзрачную тему написано много статей и проведено немало дискуссий. Я хочу привести несколько умозаключений, которые помогут решить, какое значение уровня устанавливать на выход.

Первым делом давайте разберемся с максимально возможным значением уровня звука, который в цифровой шкале принимает значение 0 dBFs (clipping level). При 0 dBFs все биты сигнала принимают значение "1", и на выходе мы получаем нелинейные искажения звука с характерным клиппингом. Становится понятно, что сигнал не должен превышать это значение, и звукорежиссеры работают на каком-то безопасном удалении от него. В цифровом телевидении следуют рекомендациям EBU и SMPTE, согласно которым номинальный уровень выходного сигнал должен лежать в пределе от -18 до -9dBFs и от -20 до -9dBFs, соответственно. ВГТРК установили свой диапазон от -15dBFs и до -9dBFs. Рекомендуется полагать, что этот промежуток и есть практический запас по перегрузке (хэдрум), хотя теоретически хэдрум может быть и от -20 dBFs до 0 dBFs. Иными словами, значение номинального уровня выбирается в рамках компромисса между эффективным динамическим диапазоном и практическим запасом по перегрузке. А вот если отдавать материал на вещание, то нужно строго следовать спецификациям и не превышать максимально допустимый уровень звукового сигнала -9 dBFs. Кинотеатры же требуют, чтобы уровень звука не превышал -20 dBFs, а для интернет-публикаций спецификаций никаких и вовсе не существуют. Поэтому, специалисты в сфере рекламного и вирусного видео рекомендуют ограничивать максмальный уровень в пределах от -5 dBFs до -1 dBFs. Мы тоже следуем этим рекомендациям.

Вот и все, что касается звуковых работ. Надеемся, было интересно.