REC

Consejos sobre filmación, producción, edición de video y mantenimiento de equipos.

 WTVID >> Video >  >> video >> Música y audio

Edición de sonido frente a mezcla de sonido:¿cuál es la diferencia?

La edición de sonido es el vehículo que mueve el audio de un proyecto de la etapa de producción a la de posproducción. La principal diferencia entre la edición de sonido y la mezcla de sonido es que la edición se centra en la producción, mientras que la mezcla toma el producto editado y lo perfecciona durante la posproducción.

La mayor parte de la edición de sonido tiene lugar durante la producción. Esto cubre todas las etapas de producción, desde el rodaje y la grabación en el set hasta los efectos de sonido, foley y ADR. Cualquier proceso que genere nuevo contenido de audio requiere edición antes de que esté listo para su uso en la posproducción, por lo tanto, todo se trata como edición. Comparar este proceso con la producción de alimentos hace que la edición de sonido sea la cosecha de una nueva cosecha de audio. Las grabaciones se cortan a medida, se limpian y se envían para su posterior montaje y embalaje.

La mezcla de sonido toma esos elementos en bruto y los combina para producir un mundo cohesivo y autónomo formado por diálogos, pisadas, efectos y música. En el ámbito de la analogía anterior, este es el arte de cocinar, enlatar y envasar.


Edición de sonido

De un vistazo, la edición y la mezcla parecen bastante similares porque se utilizan las mismas herramientas generales para ambos procesos. Dicho esto, producen resultados significativamente diferentes. La segregación de funciones entre la edición y la mezcla es un poco más matizada que las opciones claras de cuándo usar Adobe Premiere en lugar de After Effects.

Herramientas:menos es más

Es fácil percibir la fase de producción como centrada en los planos, cuando en realidad la producción abarca toda la generación de contenidos. Para el departamento de sonido, la edición equivale a grabación de escenario sonoro, ADR, foley, efectos y música. Este contenido se edita y se agrega al grupo de archivos del proyecto.

La edición de sonido aún utiliza el mismo conjunto de herramientas tradicional de un momento en que la cinta aún era el medio elegido. En aquel entonces, la edición implicaba cortar, pegar y unir tomas y escenas. Crear un desvanecimiento entre dos partes solía significar cortar dos trozos de cinta en ángulo y pegarlos. Este es el origen de las herramientas de corte, pegado y atenuación con forma de navaja que se ven en las estaciones de trabajo de audio digital (DAW) de hoy.

El propósito administrativo de la edición actual es reunir todas las tomas aprobadas en un nuevo proyecto y alinearlas con el archivo proxy de video. Las primeras etapas de la edición de sonido implican muchos cortes y borrados para limpiar el proyecto.

La digitalización ha hecho de la edición un proceso más visual, principalmente mediante la introducción de formas de onda. No hay absolutamente nada de malo en usar señales visuales. Sin embargo, una dependencia excesiva de las formas de onda y la falta de escucha darán como resultado cortes abruptos, medición incómoda y respiraciones interrumpidas entre palabras. Por ejemplo, no confíes únicamente en el uso de la función de silencio de banda de Pro Tools en una configuración agresiva. Afortunadamente, la edición de la mayoría del software no es destructiva y las regiones cortadas se pueden extender.

Tiempo

La edición es más que la eliminación del ruido de fondo. Un buen sentido del ritmo, la sincronización y la estética juegan un papel importante en la creación de cortes, fundidos y ediciones convincentes. Con la edición de cintas, la mecánica física del proceso significa que no hay mucho espacio para posponer un desvanecimiento para un momento posterior. Empalmar dos tramos de cinta solo deja dos opciones:cortar y desvanecer. El ángulo y la dirección del desvanecimiento se pueden cambiar para que se desvanezca o se desvanezca a diferentes velocidades, pero en última instancia, todos estos son desvanecimientos.

Lo que ha cambiado es que el trabajo de edición ya no necesita cargarse al principio. Esta progresión del flujo de trabajo libera al ingeniero para tomar algunas decisiones de edición y mezcla en el futuro.

Ensuciarse las manos

El mundo de la edición es una caja de arena y debe tratarse como tal. Cuando se presenta la oportunidad de probar algo nuevo, se anima a hacer el esfuerzo de probarlo. John Roesch, un artista de foley profesional que trabajó en "Indiana Jones and the Raiders of the Lost Ark" ha sostenido que no se puede distinguir el buen foley del real. Casi todos los efectos de audio en "Raiders" eran foley, y gran parte del sonido grabado en el set estaba lleno de ruido de secuencias y máquinas de efectos.

Vale la pena involucrarse con Foley, y construir una colección de accesorios solo ayuda a mejorar tus habilidades de foley. Lo mismo se aplica al sonido encontrado y la captura de nuevos sonidos a medida que llegan; tener una grabadora portátil a mano nunca está de más.

Mezcla de sonido

La mezcla de sonido se enfoca en refinar esas pistas recién editadas y trabajar hacia un punto final. La dirección puede provenir de usted mismo o de otros si trabaja con un equipo. Esta etapa se beneficia mucho de un plan de producción y un destino. La mezcla de sonido a los efectos de este artículo consolida el trabajo del diseñador de sonido y el ingeniero de mezcla, antes conocidos como "hombres de sonido".

Herramientas del oficio

La etapa de edición utiliza un conjunto de herramientas más modesto en comparación con el enfoque considerablemente más lujoso que ofrece la mezcla de sonido. La digitalización de herramientas no se detiene en la etapa de edición. Todos los equipos externos utilizados en la producción de audio hoy en día tienen equivalentes digitales. Lo mismo puede decirse de los instrumentos muestreados. Hoy en día, hay tantos casos en los que las personas no se inmutan al escuchar una sección de cuerda en una caja, muy posiblemente porque la brecha se ha reducido lo suficiente.

Las herramientas comunes en la cadena de procesamiento de señales son:EQ, compresores, limitadores, puertas de ruido, reverb, delay, chorus, flanger y phaser. La automatización es la pieza final que une todo y establece todos los cambios en piedra.

En la práctica

Mezclar es más que un ejercicio de equilibrar niveles, recortar ecualizadores y agregar efectos. Requiere imaginación, intención, paciencia y buen oído. Las decisiones tienen un propósito y, si entrecierras los ojos lo suficiente, utiliza una buena teoría.

Los ecualizadores se utilizan para esculpir sonidos y resaltar la claridad. Es por eso que recortamos la resonancia en el extremo inferior de las interpretaciones vocales y le damos un impulso al rango medio. Los retrasos y las reverberaciones son igualmente capaces de crear ambiente, atmósfera o secuencias completamente hipnóticas. Los compresores pueden dar un golpe de sonido o dar consistencia al diálogo.

El trabajo se completa en partes y secciones, incluso cuando se trabaja solo. No intente levantar todo a la vez. Las secciones completas son mucho más fáciles de administrar como troncos o grupos exportados; hablaremos de eso más adelante. Dado que los límites de pistas han aumentado hoy en día, Pro Tools admite un máximo de 768 pistas y Logic Pro ofrece más de 1000. Los grupos facilitan la vida y mantienen tu proyecto ordenado, lo que facilita mucho la automatización. La automatización es similar a las secuencias de comandos en el sentido de que es típico automatizar cualquier tarea manual realizada más de un puñado de veces.

Momentos de la historia

Llega un momento en el que te das cuenta de que ciertos diseñadores de sonido y editores jugaron un papel muy especial en algunos de tus programas y películas favoritos. Sus producciones elevaron el listón a nuevas alturas y dieron nuevos recuerdos a innumerables audiencias.

Estas películas tienen décadas de antigüedad y aún comparten un hilo común con las producciones más taquilleras de la actualidad. Es como retroceder en el tiempo y ver los primeros usos de herramientas y métodos considerados práctica estándar en la actualidad. Sí, las películas de hoy son más ruidosas y audaces, pero las raíces siguen siendo las mismas.

Los chicos de San Francisco

Ben Burtt y Richard L. Anderson se graduaron de la escuela de cine de la USC en 1975 y trabajaron juntos en las primeras películas de "Star Wars" e Indiana Jones. Ambos tienen carreras increíblemente exitosas en la industria y compartieron un Oscar por su trabajo en “Raiders of the Lost Ark”.

Los dos formaban parte de un grupo de dos docenas de jóvenes editores de sonido, doblados por Frank Warner, conocidos como los San Francisco Boys. La combinación de nuevos talentos y directores visionarios como Francis Ford Coppola y George Lucas ayudó a impulsar el medio a nuevas alturas. Fue la atención de los directores al sonido lo que permitió e impulsó a esta nueva generación de diseñadores y editores de sonido.

El diseño de sonido de “Apocalypse Now” es obra del diseñador de sonido Walter Murch, otro alumno de la USC que estudió con George Lucas. Los efectos incluían grabaciones de armas disparando munición real, helicópteros y explosiones.

“Raiders of the Lost Ark” todavía se siente más moderno que su edad, y no está solo. Los años que rodearon 1981 vieron una serie de películas que traspasaron los límites del sonido y el video. “Star Wars”, “Apocalypse Now” y “Raiders of the Lost Ark” aparecieron en el lapso de cuatro años. Desafiaron el pretexto de lo que era posible y continuaron inspirando a generaciones de cineastas y editores por igual.

Aprender de los mejores

El uso de la grabación multipista con una melodía de 24 pistas o más, a veces esclavizando varias máquinas de cinta, se convirtió en una necesidad. Las primeras etapas utilizan un mayor número de pistas, aunque estos números se reducen a medida que se mezclan y dividen más secciones en grupos. Burtt ha discutido la necesidad de controlar los niveles de los instrumentos de viento de metal y madera por separado, haciéndolo con grupos de pistas, para no perder los elementos musicales dentro de los efectos de sonido. Hoy en día, esto es normal y necesario, ya que las pistas deben mezclarse y combinarse en su lugar como tallos. Las pistas también se pueden enviar a los autobuses y administrar de esa manera.

La pasión y la atención que esto trajo fue increíblemente positiva. El audio impactante que se encuentra en esas películas fue posible gracias a la artesanía que personas como Burtt ayudaron a lograr, una que todavía está viva y bien hoy.

Referencias

  • Las orejas doradas de las películas
    • https://www.washingtonpost.com/archive/lifestyle/1984/07/03/the-movies-golden-ears/fd0a2636-86e6-498c-810b-52e3657c92d9/
  • Entrevistas sonoras de En busca del arca perdida con Ben Burtt y Joe Roesch
    • https://youtu.be/WYuxYkL_AHM
  • Indiana Jones Sound Design Featurette parte 1
    • https://www.youtube.com/watch?v=YWDSFihqyH8


  1. Edición de sonido versus mezcla de sonido:la batalla en curso

  2. ¿Edición en el futuro?

  3. La guía del cineasta independiente sobre Foley y mezcla de audio

  4. Edición de sonido frente a mezcla de sonido:¿cuál es la diferencia?

  5. Una mirada a la edición de sonido Masterclass de “A Quiet Place”

  6. Luz dura vs luz suave:¿cuál es la diferencia?

  7. ¿Cuál es la diferencia entre Spektrum DX6 y DX6e?

  8. Edición de audio con el panel de sonido esencial en Adobe Premiere Pro

  9. Los mejores auriculares para la edición de video

  1. ¿Cuál es la diferencia entre el video marketing B2B y B2C?

  2. Efectos de sonido en tiempo real:The Foley Way

  3. Edit Suite:edición de imagen a sonido

  4. Consejos de sonido:edición de audio para video

  5. Consejos de sonido:edición de la narración

  6. Rodear a bajo precio – Parte 1

  7. El enfoque natural

  8. La historia de los micrófonos

  9. El micrófono de elección

Música y audio