Sonido en El Cine

El sonido es un campo creativo que, desde la aparición del cine sonoro, va de la mano con la imagen. Abarca todos los el

Views 107 Downloads 0 File size 676KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

El sonido es un campo creativo que, desde la aparición del cine sonoro, va de la mano con la imagen. Abarca todos los elementos que no sean estrictamente música compuesta en un filme: diálogos y efectos sonoros. La creación de una banda sonora tiene las mismas posibilidades creativas que el montaje. Se deben seleccionar sonidos con una función concreta para guiar la percepción de la imagen y la acción, en el caso de no tener aun hecha esa banda sonora se usa otra ya existente para ir montando la imagen, a esto se le llama temp track. Normalmente se tiene la sensación de que los actores u objetos que aparecen en las películas producen el ruido adecuado en el momento adecuado, considerando el sonido como un simple acompañamiento a las imágenes. En cambio, la banda sonora de una película se construye separada de la banda de imagen y de manera independiente. Parte de la fuerza de muchas escenas y secuencias se consigue gracias a efectos de sonido que suelen pasar desapercibidos. El sonido es capaz de crear un modo distinto de percibir la imagen y puede condicionar su interpretación, por ejemplo, centrando la atención del espectador en un punto específico y guiándolo a través de la imagen. El sonido se propaga por presión mecánica de unas moléculas de aire sobre las moléculas contiguas dando lugar a un movimiento que se transmite, en una o múltiples direcciones, de unas moléculas a otras en forma de onda de presión (piensa en lo que sucede en un vagón de metro lleno de gente cuando frena de golpe y alguien pierde el equilibrio; este pasajero empujará a alguien, que a su vez empujará a otro y así sucesivamente y a continuación se producirá el mismo movimiento en sentido contrario. Esto provocará un vaivén en los pasajeros hasta que la energía quede absorbida y todos recuperen la posición inicial de equilibrio. Esto es un movimiento ondulatorio de transmisión mecánica) Cuando en el aire se producen ese tipo de oscilaciones entre 20 y 20000 veces por segundo, nuestro cerebro puede interpretarlas como sonido por medio del oído. Las ondas pueden verse modificadas por reflexión, chocan contra una superficie y rebotan cambiando su dirección inicial (eco o reverberación); refracción, cambiar de dirección al pasar de un medio a otro de distinta densidad (Ej: agua-aire) o difracción, dividirse en múltiples direcciones cuando encuentran un punto de paso muy estrecho o un obstáculo en su camino. Las características de las ondas se establecen a partir de un modelo de onda sinusoidal que sería la correspondiente a un tono puro, perfecto: Longitud de onda: distancia entre dos puntos que oscilan en la misma fase (Ej: distancia entre dos crestas o entre dos valles de una onda). Depende de la frecuencia y del medio de propagación. Frecuencia: número de ciclos que una onda completa en un segundo y se mide en Herzios. Una onda de 1 Hz completa un solo ciclo en cada segundo. De la frecuencia depende el tono, de modo que a mayor frecuencia (más ciclos por segundo) el sonido nos parecerá más agudo y a menor frecuencia (menos ciclos por segundo) sonará más grave. El sonido de una voz femenina presenta frecuencias más altas que el de una voz masculina. 1

Amplitud: Máximo desplazamiento respecto del punto de equilibrio que alcanza una partícula en su oscilación. Depende de la cantidad de energía que genera la onda y está relacionada con la intensidad —volumen- del sonido. Cuando gritamos estamos aplicando más energía sobre nuestras cuerdas vocales, con ello aumentamos la amplitud de la onda sonora que estamos generando. La amplitud decrece desde el foco según la ley del cuadrado inverso, siendo uniforme la atenuación. Fase: la posición que alcanza una partícula que responde a un tono puro con respecto a su posición media. Las partículas en el mismo punto de su ciclo de movimiento se dice que están en fase. Señales en fase se refuerzan. En desfase se restan o anulan. Las medidas del sonido son: la potencia; densidad de energía por m3 en una unidad de tiempo que se mide en W: Watio. La sensación: medida de comparación de intensidad entre dos sonidos que se mide en dB: decibelio. El sonido llega a la banda sonora mediante el uso del micrófono, medio a través del que las vibraciones de aire se convierten en corriente eléctrica. Esta señal se puede registrar de forma magnética u óptica. Sonido magnético. Tras ser amplificada, la señal pasa a una cabeza magnética de grabación ante la cual circula una película o cinta recubierta con partículas de óxido que se magnetizan y que posteriormente pueden reproducirse ante otra cabeza lectora. Sonido óptico. Basado en la modulación de un haz luminoso que varía según las fluctuaciones de intensidad enviadas por el micro y que tras ser revelada podrá reproducir esas variaciones eléctricas El sistema analógico de grabación por excelencia en cine era un magnetófono de bobina abierta popularmente conocido como Nagra. Usa cinta magnética de 6mm de ancho, de gran flexibilidad, permite elegir la velocidad de la cinta, lo que repercute directamente en la calidad de la grabación en un límite tan amplio como entre 15 pulgadas por segundo y 1 pulgada por segundo. La toma debe repicarse en película perforada para posteriormente sincronizarla con la imagen y, tras el montaje, incorporarse a la banda magnética de la película. Cada etapa reduce el nivel de calidad, por ello la grabación original debe ser de óptima calidad. La velocidad de grabación condiciona la fidelidad del sonido. A mayor velocidad mejor respuesta de las frecuencias. La música se suele grabar a 15 i.p.s. (pulgadas por segundo), la voz humana entre 7 1/2 y 3 3/4 i.p.s. pero lo que no podemos alterar para tener sonido sincrónico con la imagen es grabarlo a 24 o 25 f.p.s. (fotogramas por segundo) siempre basándonos en el chasquido y la imagen de la claqueta. La grabación analógica está en desuso con la aparición del DAT (Digital Audio Tape). También se registra en una cinta magnética, pero de tamaño cassette, convirtiendo las señales de sonido en datos digitales a través de un procesador. En primer lugar se toman una serie de muestras del perfil de la onda sonora que se quiere digitalizar. A este proceso se le conoce con el nombre de "muestreo". Cuantas más muestras se tomen, más se parecerá la onda digital a la original, pero también

2

será mayor la cantidad de información que tendrá que manejar el sistema. Para que te hagas una idea, un muestreo a 44 Khz toma 40.000 muestras de cada segundo de la onda de un sonido. Las muestras se trasladan a una escala de niveles de intensidad, asignándosele un valor numérico a cada una. El proceso en el que diferentes niveles de intensidad son convertidos en sus correspondientes numéricos (dígitos) dentro de una escala, es lo que conoces como "digitalización". Para que las máquinas puedan entender esta información, es preciso codificar estos números en forma de ceros y unos. Esta forma de codificación es lo que conoces como codificación "binaria" donde cada valor (0 o 1) constituye un "bit" de información. Una vez que has convertido un sonido en una secuencia de ceros y unos, puedes replicar esa secuencia tantas veces como quieras sin que los números cambien, razón por la cual podemos copiar muchas veces el mismo sonido sin perder la calidad del original. Los bits se agrupan de ocho en ocho formando "bytes". Cuanto mayor es el número de bits que puede manejar un sistema, mayor es, por así decirlo, su capacidad o su "potencia" (8, 16, 32, 64, 128 bits) y, por lo tanto, mayores niveles de sonido va a poder manejar, mayor número de colores o de niveles de brillo, etc. Operativamente, la tecnología digital ha reducido el tamaño de los medios de grabación y la inmediatez en la búsqueda de lo grabado facilitando ostensiblemente la labor de los operadores de sonido. De hecho digital no es sinónimo necesariamente de mayor calidad, aunque en sonido generalmente lo sea, sino de mayor capacidad de manipulación y gestión de la información en la que son convertidos tanto imágenes como sonidos y otros datos. Otro carácter asociado a lo "digital" es el "multimedia", ya que una vez que toda la información (imagen, sonido o datos) ha sido reducida a los mismo números (ceros y unos) pueden compartir el mismo soporte (CD, DVD, DAT) y ser transmitida por un mismo medio (cable, satélite, fibra óptica) hacia un mismo terminal (ordenador, receptor de TV) en un proceso muy complejo que se conoce como "convergencia tecnológica". El sonido puede ser sonido directo, tomado sincrónicamente en rodaje para ser utilizado como tal lo que genera en una serie de problemas logísticos pues cualquier sonido extraño obliga a repetir la toma; sin embargo es el modo más natural de recrear el ambiente y la calidad interpretativa. Sonido de referencia, se graban los sonidos y los diálogos pero posteriormente no serán utilizados en la copia sino que servirán como referencia a los actores para doblar y a los técnicos de efectos de sonido para recrear ambientes y sonidos. El más popular y habitualmente combinado con el sonido directo recibe el nombre de wildtrack, pista de sonido que sirve como base para un ambiente dado o como off. Sonido añadido o mezclas, el conjunto de la banda sonora se compone de sonido directo, wildtracks, doblaje, efectos de sonido y música. El micrófono es el instrumento esencial para convertir el movimiento físico de las moléculas del aire en impulsos eléctricos. Se dividen en cinco tipos en función de su diseño; de carbón, cristal, resorte o bobina móvil, condensador y cinta. Los dos primeros dan muy mala calidad, pero los otros son de calidad profesional. La

3

característica definitoria realmente importante es su direccionalidad y según como sea se dividen en: Omnidireccional, cubre un ángulo de 360º y son útiles para sonidos de ambiente, pero no sirven para grabar sonidos aislados, tampoco se pueden usar en situaciones de bajo nivel sonoro o espacios cerrados porque registran el sonido de la cámara. Cardiode, reciben este nombre por que su respuesta direccional tiene forma de corazón. Muy sensibles a fuentes sonoras situadas frente a él y nula respuesta a las situadas detrás. Direccional, poseen un área de sensibilidad de 40º y se les denomina también supercardioides. Al utilizarse cerca de la fuente dan calidad inferior a los cardioides pero son perfectos para grabar de lejos, cuando hay problemas de cuadro para el microfonista (no puede utilizar un micrófono sin que se vea al rodar) al utilizarse un objetivo angular. Otro tipo de micrófonos específicos son los de de corbata, son micros personales que se enganchan a la ropa pinzados, hábilmente disfrazados entre perneras y mangas del vestuario. Idóneos para grabar los diálogos en planos amplios. De radio frecuencia, eliminan los cables permitiendo captar los diálogos sin restringir movilidad a los actores. Cuando el cine era todavía mudo, se hacía uso de música y efectos de sonido en directo para añadir realismo a las imágenes proyectadas y, además, cubrir el fuerte ruido ocasionado por el proyector. Sin embargo, la utilización del sonido en producciones audiovisuales inicia en 1926, año en el que Warner lanza Don Juan, la primera película con un acompañamiento sonoro sincrónico (con sincronía entre la imagen y el sonido). El proceso llevado a cabo para hacer el montaje de sonido en la imagen, fue el llamado Vitaphone, que consistía, básicamente, en grabar la música en discos aparte y reproducir tales discos de forma sincrónica con el proyector de imagen. Esto, por tratarse de sólo un acompañamiento musical, no causó gran impacto en los espectadores, pues no era muy diferente a lo que habían visto hasta entonces. Un año más tarde, en 1927, se lanza la película El cantante de Jazz, la cual sí genera un cambio importante en cuando a la concepción y utilización del sonido en el cine, pues, por primera vez, había sincronía entre el movimiento de los labios de un actor y lo que sonaba. "Hey, Mum, listen to this...!"; estas fueron las palabras que pronunció Al Jolson y que enseguida emocionaron al público y dieron un giro a lo que es el sonido. Desde ese momento, el cine empezó a hacer un uso exagerado (y limitado, por la tecnología) del sonido, y, sobre todo, tuvo que acceder a las exigencias de los espectadores, quienes, después de escuchar hablar a Al Jolson, pedían con furor que las voces de los actores sonarán. Esta introducción del cine sonoro se convirtió en un reto y cambio radical en la forma en la que se hacía cine. De los estudios ruidosos y rodajes en medio de carcajadas, pasaron a estudios insonorizados y rodajes en los que el protagonista era el silencio. Errores técnicos debieron sortearse y soportarse, como, por ejemplo, que un actor olvidase hablar en dirección al micrófono. Además, la iluminación debía ser más

4

fuerte, pues la sincronía entre audio e imagen exigía que las cámaras rodaran a velocidades mayores. Esto repercutió en la comodidad de los actores. De esta forma se podrían enumerar muchos ejemplos de las complicaciones que generó la entrada del sonido al cine. Sin embargo, a la gente le gustaba. Otra preocupación que empezó a gestarse en los directores fue la relacionada con la forma de realizar versiones múltiples de las películas. Como primera medida, Hollywood contrató equipos técnicos completos de otros países (Francia, España, Alemania, entre otros), para realizar las grabaciones simultáneas. Rodaban una plano en uno de los idiomas, cambiaban los actores, y rodaban el mismo plano en otro idioma. Claramente, cuando el doblaje de voces hace su aparición, este tedioso trabajo deja de ser funcional y es dejado a un lado por completo. De ese momento hasta nuestros días, han sido muchas las películas que se destacan por su extraordinario uso del sonido, entre las que se encuentran Ciudadano Kane (1941), El hombre elefante (1980), Ereaserhead (1977), Toro Salvaje (1980), Érase una vez en el Oeste (1968), Star Wars (1977), y Apocalypse Now (1979). Además, este avance representó la necesidad de crear un nuevo cargo para personas especializadas en el diseño sonoro. Esta fue la labor de Walter Murch y Ben Burtt, quienes se han destacado históricamente por su calidad, profesionalismo y creatividad a la hora de realizar el diseño sonoro de una película. Desde del inicio de la historia del cine se ha intentado grabar sonido e imagen. Uno de los primeros en intentar fue Edison, que intentó sincronizar dos de sus inventos, el Kinetoscopio y el Fonógrafo. Lo consiguió, y hasta llegó a hacer una presentación pública en 1913. Léon Gaumont y James Williamson también lo intentaron, pero sin éxito. Las principales dificultades con la que se encontraban eran la imposibilidad de amplificación del sonido y la sincronización entre éste y la imagen. La primera solución a estos problemas llegó gracias a Lee De Forest y la invención del Audion, la primera válvula tríode. A partir de ella, la compañía americana Western Electric empezó a investigar, y pudo así desarrollar amplificadores. A su vez, otra empresa llamada General Electric estaba trabajando en un sistema fotográfico que permitía juntar sonido e imágenes. Al principio, la acogida del sonido por parte de las grandes productoras cinematográficas no fue buena. La primera en introducir este avance fue la Warner Brothers, que se unió con la empresa Western Electric para empezar a trabajar con un sistema de cine sonoro: el Vitaphone (o Vitáfono). La primera película rodada en este formato y, por lo tanto, considerada la primera película sonora fue El cantor de jazz (1927). El sistema Vitaphone se siguió usando hasta que, en el año 1930, se introdujo el uso del Movietone, creado por Theodore Case y E.I. Sopnable. Inspirado en el sistema Phonofilm de Lee De Forest, este sistema permitía grabar directamente el sonido junto a la imagen, en una sola película. Cualidades del sonido:

5

• Nivel: la amplitud de las vibraciones a través del aire produce la sensación de mayor o menor nivel (volumen). En el cine se manipula constantemente el nivel del sonido para dar mayor protagonismo a unas acciones o personajes, para diferenciar las distancias físicas y para crear tensión y asustar al espectador. • Timbre: describe la textura del sonido dando una cualidad tonal. Fundamentalmente, se hacen variaciones tonales en cuanto a la música y la banda sonora del film. • Tono: hace referencia a la frecuencia de las vibraciones. Juega un papel fundamental a la hora de diferenciar objetos entre sí por sus características, música y diálogos. Nivel, timbre y tono interactúan para definir la textura de sonido de una película y permiten diferenciar los sonidos de la misma. Así mismo, se puede diferenciar, por ejemplo, las voces de los distintos personajes. Dimensiones del sonido. Puede diferenciarse entre ritmo, fidelidad, espacio y tiempo. El sonido ocupa una duración determinada dentro del filme, se puede relacionar con la fuente de una manera más o menos fiel, transmite las cualidades del espacio en el cual se desarrolla la acción y está relacionado con los elementos visuales del lugar que se muestra. • Ritmo: ha de existir una concordancia entre el ritmo del montaje, los movimientos y acciones en cada una de las imágenes y el sonido, compaginando ritmos visuales y auditivos. También se puede jugar con el contraste del ritmo entre la imagen y el sonido para crear efectos inesperados, utilizando la voz en off, combinando diferentes músicas para crear efectos misteriosos... El ritmo a lo largo de una película puede cambiar constantemente. • Fidelidad: hace referencia al grado en el que el sonido es fiel a la imagen que se muestra en pantalla. Tal vez el sonido que se percibe no pertenezca realmente a la fuente que estamos visionando, pero se acepta como verosímil por su credibilidad. Podemos alterar esta fidelidad fundamentalmente para crear efectos cómicos. • Espacio: el sonido procede de una determinada fuente, por tanto, tiene una dimensión espacial. Si el sonido procede de la fuente que aparece en pantalla hablamos de un sonido diegético. Si por el contrario procede de una fuente totalmente externa a lo que se nos muestra, estaremos hablando de un sonido no diegético. • Tiempo: se puede representar el tiempo de diferentes formas, ya que el tiempo de la banda sonora puede concordar o no con la imagen. Hablamos de un sonido sincrónico cuando este está sincronizado con la imagen y lo oímos a la vez que aparece la fuente sonora que lo produce. Para obtener efectos mas imaginativos, se puede utilizar un sonido asincrónico que no case con la imagen. El equipo de sonido. El profesional que realiza el arte del diseño del sonido es denominada diseñador de sonido. El responsable de la toma de sonidos en rodaje es el sonidista que trabaja con uno o varios microfonistas a su cargo. En la postproducción se suman el editor de sonido, Compositor de la música incidental, y

6

los artistas de efectos sonoros (foley) y de doblaje, para generar la banda sonora original. Tipos de Sonido en rodaje de Cine Sonido Directo: Sonido grabado durante el rodaje que va ha ser utilizado para el producto final. Por ejemplo los diálogos. Sonido Referencia: Sonido grabado durante el rodaje que no va ha ser utilizado para el producto final. Por ejemplo los diálogos de una escena con mucho ruido de fondo que servirán de referencia para el doblaje. Se suele gravar siempre en todas las escenas. Room Tones: Grabación del sonido de fondo con todo el equipo de rodaje en silencio y todos los aparatos (focos, etc.) encendidos. Suele grabarse unos 30’’ en todos los sets de rodaje o cuando cambia la situación de sonido de fondo. Se utiliza en posproducción como “colchón” para unir los diálogos o para sacar modelos de ruido para utilizar en un reductor de ruido. Wild Track: Sonido grabado durante el rodaje sin que se grabe la imagen correspondiente. Se suele usar para gravar pasos, puertas, … que pueden ser de interés para el montaje. También se pueden repetir diálogos que por el tipo de plano o por el ruido de las maquinas no haya quedado bien. Después estos diálogos se pueden sincronizar con la imagen. No hay que confundir con los efectos sala o Foley que se graban aparte del rodaje. Ambientes: Sonido grabado fuera del rodaje que va ha ser utilizado cómo ambiente para el producto final. Se suele utilizar técnicas estéreo o de sonido envolvente. Por ejemplo el ambiente de una playa. Foley: Sonido grabado fuera del rodaje que va ha ser utilizado cómo elemento sonoro (efecto) para el producto final. Se pueden grabar en estudio o en exteriores. Por ejemplo: pasos, disparos, motor de un coche, etc. El sonido, al igual que una imagen, también puede tener cualidades estéticas (texturas o frecuencias que se utilizan por ejemplo en películas de superhéroes o del espacio) o psicológicas (efectos y sonidos sugerentes, agradables, inquietantes, molestos…). Es decir, el sonido no sólo aporta realismo a las imágenes; también puede crear una ambientación. Además, podemos enfatizar el SILENCIO, y utilizarlo de una manera simbólica y metafórica para representar la ausencia, o el peligro. O simplemente, por el mero placer de jugar con el lenguaje cinematográfico, como hizo Godard cortando el sonido en el famoso “minuto de silencio” de Bande a Part. Para el que no conozca esta película, su título da nombre a la productora de Quentin Tarantino, que es un gran fan de esta obra maestra de Godard. El sonido en el cine: diegético y extradiegético Sonido diegético. Es todo aquel sonido que forma parte de lo narrado. Por ejemplo, si un personaje está tocando un instrumento o escuchando la radio, esa música es diegética. Un ejemplo claro serían la mayoría de las escenas musicales de Whiplash, de Damien Chazelle, ya que el protagonista toca la batería. 7

Otro ejemplo algo surrealista que a mí me encanta lo tenemos en esta escena de Gato negro, gato blanco de Emir Kusturica. Sonido extradiegético. Extradiegético es aquel sonido que no pertenece a la acción de la escena, como suele suceder con la música de la mayoría de las películas. Tipos de sonido en el cine: IN, OFF y Fuera de campo El sonido in (proviene del interior de la Pantalla). Todo lo que acontece: diálogos de los personajes, sonidos, o música, si vemos al músico tocar en directo. El fuera de campo corresponde al sonido diegético, pero la fuente del sonido no se ve en pantalla. Por ejemplo, imaginad que tenemos un plano detalle de una persona durmiendo, y se empieza a escuchar el despertador sin que lo veamos, despertando a nuestro protagonista. Sabemos que el despertador está ahí, aunque no lo veamos. El sonido off (exterior al mundo narrado), como por ejemplo una voz en off de un narrador, música o sonidos que añadimos a posteriori. Sonido directo VERSUS efectos de sonido – SONIDO DIRECTO. Es el sonido que se registra durante la filmación, incluyendo los WILDTRACKS, que son ambientes o repeticiones de diálogo que se graban al margen de la imagen, para tener más recursos. – EFECTOS DE SONIDO. Son sonidos que, aunque parecen reales y remarcan la acción, están previamente creados, o son creados por un Foley Artist o artista de Efectos Sala. Qué aporta el sonido en el cine En definitiva, aquí tenemos algunas de las funciones del sonido en el cine. 1 – Complementa a la imagen para comprender la historia. 2 – Amplia los límites de la pantalla (FUERA DE CAMPO). 3 – Soluciona problemas narrativos y da cohesión al montaje. Generalmente el sonido cambia mucho de una toma a otra, y es fundamental unir todo eso con un wildtrack, por ejemplo. 4 – Influye en el espectador de forma inconsciente. Clasificación de los sonidos 1. El ruido Ruidos naturales. Ruidos humanos.8

Ruidos mecánicos. Palabras-ruido. 2. La música. 3. La palabra y los diálogos. El sonido siempre existió en el cine. Lo que sucede es que en la primera etapa del cine los espectadores no podían oírlo físicamente. Tenían que leerlo, decodificarlo, interpretarlo a partir de los mecanismos que los cineastas utilizaban... • Intertítulos. • Primeros planos de objetos que sugieren un determinado sonido. • Gesticulación de los actores. • Lectura de labios... Funciones de la música en el cine 1. Función rítmica. La música se emplea como contrapunto de la imagen. La duración de la imagen y de la frase musical son exactas. a) Reemplazar un ruido real. b) Resaltar un movimiento de un elemento de la acción. 2. Función dramática. La música se emplea como un elemento que puede ser útil para que el espectador comprenda el significado de la acción

Debido a la gran cantidad de tareas que requiere un trabajo de sonido óptimo, son varias las personas que intervienen en el proceso de planeación, creación y ensamble de los distintos componentes de sonido de un producto audiovisual. A continuación se mencionan los cargos más relevantes y su función. Supervisor de Sonido: Es el equivalente a lo que se conoce como director en áreas como la Fotografía o el Arte de una película (director de fotografía, director de arte). El supervisor de sonido es quien representa al equipo frente a las demás áreas y, en especial, frente al director. Su responsabilidad es dirigir el trabajo del equipo para conseguir los resultados que el director del producto audiovisual espera. Además, por sus amplios conocimientos, es quien toma las decisiones de sonido, y responde por la calidad del mismo. Es posible encontrar distintos "supervisores de sonido" dentro de una misma producción audiovisual, pues, en muchas ocasiones, se contrata a un supervisor para el trabajo de sonido directo (sonido en locación) y otro para el trabajo de post producción del producto. 2. Microfonista: En el trabajo de sonido directo, el microfonista, también conocido como operador de boom, es quién se encarga de manipular el micrófono 1.

9

buscando siempre obtener el sonido más claro y limpio posible, según las necesidades del director y del supervisor de sonido. En ocasiones, y especialmente en producciones de bajo presupuesto, este trabajo lo realiza el mismo supervisor de sonido, quien se encarga de monitorear el sonido, manipular la grabadora y manipular el micrófono. Sin embargo, en condiciones ideales, es una persona aparte que está bajo las órdenes del supervisor de sonido. 3. Editor de diálogos: Ya en la etapa de post producción, el editor de diálogos es quien se encarga de sincronizar el audio de los diálogos (capturado en locación) con la imagen. Además, debe limpiar, pulir y arreglar los diálogos, haciendo que lo que se escucha coincida con lo que se ve. Por último, debe suavizar los silencios digitales que resultan entre un diálogo y el otro. Esto lo hace usando un Room Tone (tono de cuarto), o ambiente leve, que dé unidad y uniformidad al audio resultante. 4. Editor de ADR: En ocasiones, en el momento de grabar el sonido directo de un producto audiovisual, y por razones que se salen de las manos del supervisor de sonido y del microfonista, los diálogos capturados en locación no son lo suficientemente claros, o tienen un gran componente de ruido que no permite que se entienda por completo lo que el actor está diciendo. Para solucionarlo, en post producción se reemplazan estos diálogos dañados. A este trabajo se le conoce como ADR (por sus siglas en inglés Automated Dialoge Replacement), y consiste, básicamente, en grabar los diálogos de los actores en un estudio de sonido, una vez ha terminado el rodaje del producto audiovisual. Esto se hace para mejorar la calidad del audio, corregir errores de continuidad y perspectiva, o disminuir los cambios en los diálogos de un mismo actor. Para llevar a cabo este proceso, al actor se le muestra el segmento de diálogo que debe reemplazar (con la imagen) repetidas veces. El actor pronuncia el diálogo sobre la imagen tantas veces como sea necesario para que el audio y la imagen queden sincronizados. 5. Diseñador de sonido y efectos sonoros: El diseñador de sonido, como su nombre lo indica, es quién se encarga de diseñar o crear los efectos de sonido necesarios para aumentar el realismo, hacer parecer real lo irreal, o potenciar las emociones. Los efectos de sonido suelen salir de la imaginación y creatividad del diseñador, quien experimenta con sonidos cotidianos para convertirlos en lo que la imagen necesita. Sin embargo, en ocasiones se hace uso de librerías de efectos (pagas o gratuitas) que hay en la red. En dichas librerías se encuentran efectos de sonido por categorías, lo que, en ocasiones, facilita el trabajo del diseñador de sonido. Claramente, esto repercute en la calidad y, sobre todo, originalidad del producto final. 6. Diseñador de Foley: Por Foley se entiende todo movimiento que sea producido por una acción humana. El diseñador de Foley, junto con un equipo de actores de foley, ingenieros de sonido y demás, es quien se encarga de recrear en un estudio todos estos movimientos para grabarlos y sincronizarlos con la imagen. Este trabajo se realiza, principalmente, para aumentar el realismo del producto audiovisual, y que los espectadores sientan lo que ven como un hecho cotidianamente posible. 7. Música: Dentro del trabajo musical de un producto audiovisual se encuentran varios cargos: El supervisor musical que, al igual que el supervisor de sonido, es el responsable y encargado directo de que las cosas salgan como se han hablado y acordado previamente con el director. El compositor, quien es el encargado de 10

escribir la música para el producto. El ingeniero de sonido, quien es el encargado de grabar a los músicos; y el editor musical, quien se encarga de montar los sonidos, sincronizar los que no fueron grabados sincrónicamente, y realizar una mezcla de la música apropiada para aportar al producto. 8. Mezcla Final: El trabajo de mezcla final lo realizan, normalmente, varios ingenieros de sonido, todos dirigidos por el supervisor de sonido. En esta etapa, todo el componente sonoro ha sido entregado en stems. Los stems contienen las mezclas finales de cada una de los componentes sonoros. Por lo tanto, hay un stem de voces (que contiene sólo los diálogos del producto audiovisual), un stem de música (en el que ya se encuentra una mezcla general de toda la música de la película), un stem de ambientes, y un stem de efectos (FX). El sonido, tal como cualquier proceso audiovisual, cuenta con tres etapas básicas e igualmente importantes para su buen desarrollo. Tales etapas son: Preproducción. La etapa de preproducción se desarrolla a la par con la preproducción de todo el producto audiovisual. En esta etapa, el supervisor de sonido se reúne con el director y, en condiciones ideales, planea con él el guión del producto audiovisual. El objetivo no es únicamente hacer un desglose de sonido que evidencie todo lo que habrá de sonar en el producto final. Los aportes que debe hacer el sonido en la etapa de preproducción deben ir ligados más que todo a la forma en la que se van a distribuir los tiempos y, sobre todo, a determinar el punto de vista desde el cual se va a contar la historia, que será el mismo punto de vista desde el cual el espectador percibirá el mundo, y, por ende, los sonidos. La participación del supervisor de sonido dentro de esta etapa es primordial, pues, aunque los directores suelen tener un conocimiento acerca del sonido, una persona que trabaje en el medio (sonido) puede aportar más y mejores ideas, que, como última consecuencia, permitirá obtener mejores resultados. Además de esto, el equipo encargado de realizar el trabajo de sonido directo (sonido en locación) del audiovisual, planea en esta etapa su trabajo durante los días de rodaje. Realizando un desglose de sonido para rodaje, pueden prever lo que van a necesitar en rodaje y encontrar la mejor solución a los requerimientos particulares de sonido de cada uno de los planos. Producción. La etapa de producción está enmarcada, básicamente, por el momento del rodaje. En esta etapa, el equipo de sonido directo captura los diálogos, wildtracks, wildlines, y, en ocasiones, algunos sonidos producidos por los movimientos de los actores, que sirven de referencia para los ingenieros de foley en post producción. Es una etapa crucial, que depende en gran parte de la capacidad de reacción y solución de problemas del supervisor de sonido y del microfonista, pues es el sonido puede verse afectado por cualquier tipo de inconveniente imprevisto, sea natural o humano (lluvia, viento, aviones, automóviles, gritos a lo lejos, etc.)

11

Post producción. La post producción es el proceso final del producto audiovisual. En este se corrigen, ubican, sincronizan, crean y relacionan todos los componentes de la banda sonora del producto final. La mayor carga laboral en cuanto al sonido en una producción audiovisual se encuentra en esta última etapa, pues gran parte de los trabajos a realizar se llevan a cabo en ella, a saber: Edición de diálogos, ADR, musicalización, diseño de sonido, foley, y, por último, la mezcla final.

FUERA DE CAMPO Cualquier personaje, objeto o acción que no se ven en la pantalla, pero de los que se sabe que forman parte de la escena o que están cerca del lugar que se está filmando, o cualquier sonido que tiene su origen en un área de ese tipo. Podemos escuchar una voz que procede del fuera de campo o ver a un personaje observando una acción que se desarrolla fuera de campo. Una diferencia del ojo humano con la cámara, es que esta última limita el espacio con el enfoque y al seleccionar el espacio encuadrado deja fuera parte de la realidad. Es decir, lo que se ve en la pantalla se dice que está en campo, porque queda dentro de la visión de la cámara, mientras que lo que queda fuera se le ha llamado fuera de campo o espacio “off”. Se puede decir que el fuera de campo es aquello que el espectador cree que existe fuera del encuadre basándose en la información de lo que ve dentro del cuadro. Es un espacio invisible que rodea a lo visible. En ese espacio invisible continua la vida de los personajes ausentes del cuadro. Este fuera de campo casi nunca es neutro, siempre tiene una función, una significación. Puede ser silenciado por la censura, o paradójicamente puede ser puesto en relieve por omisión –para ocultar algo al espectador y se muestre más interesado por conocerlo. Casi siempre tiene un valor narrativo-expresivo. Podemos identificar tres categorías en el fuera de campo: 1. Los cuatro segmentos espaciales delimitados por los bordes del encuadre. 2. El espacio situado detrás de la cámara. 3. El espacio situado detrás del decorado o escenografía. Al observar los desplazamientos de los personajes (espacial, las salidas de campo) estos constituyen espacios potenciales que se integran en la dinámica de la narración. Estos espacios no vistos por el espectador permiten a los realizadores emplear un potencial narrativo de extraordinario valor. Mediante el empleo del fuera de campo se logra que el espectador participe activamente en la recreación del mundo irreal audiovisual. En ocasiones, lo que se sugiere puede ser más expresivo que lo que se demuestra. Puede presentar indicios de una realidad inexistente según la intención del emisor, que pueden ser tomadas como pruebas o indicios de la existencia de una realidad sugerida. Recurso, en definitiva, manipulador y también creativo, puesto que en la aplicación del lenguaje audiovisual, se pueden crear 12

situaciones en la mente del espectador. El fuera de campo se puede mostrar mediante sombras, espejos, voz en “off”, miradas de los personajes, etc. La mejor manera de entender el fuera de campo es saber que aquello que está en campo es lo que ocurre delante de la cámara, y de esta manera se sabe que el fuera de campo es toda acción que se realiza en el momento en el que la cámara no presta atención a dicha acción. Ésto se puede traducir de distintas maneras, sea ya con una voz en off, con la ausencia de personajes en frente de la cámara o incluso una acción secundaria eclipsada por la principal, siendo ésto último lo que se ve en cintas de humor absurdo tales como Agárralo como puedas. Otra manera en la que podemos encontrarnos el fuera de campo es cuando todas las acciones se producen en tres lugares distintos en cuanto al enfoque de la cámara, siendo éstas las que acontecen detrás del escenario o decorado, detrás de la cámara o a los diferentes lados situados al exterior del encuadre. Muchos son los directores que utilizan este recurso, muy conocidos en la industria. Uno de ellos es Martin Scorsese, que durante las décadas de los 70, 80 y 90 hizo de la voz en off su firma de identidad en películas como Casino o Uno de los nuestros, algo que utilizó también de forma muy significativa el propio Robert De Niro en su ópera prima Una Historia del Bronx. Otro director muy reconocido por usar el fuera de campo es Quentin Tarantino, quien lo hace de una manera muy peculiar en algunas ocasiones, usándolo mediante el plano detalle y, de esta manera, hacer intuir al espectador lo que va a ocurrir.

13

Es importante destacar el concepto de escenario en el que transcurre la escena (aunque sea un escenario de exteriores naturales) y que delimita la acción y lo que los personajes pueden ver. Dentro de ese escenario tenemos: ■ El sonido en pantalla (que Chion denomina sonido in): es el sonido cuya fuente está visualizada en pantalla: voz del personaje hablando, puerta que se cierra y que la cámara está grabando. Todos los otros sonidos están fuera de pantalla , ya que no vemos la fuente en pantalla (acusmáticos). ■ El sonido fuera de campo es el que no está visualizado, porque la cámara no apunta hacia su fuente. Distinguimos varios tipos: ■ Encabalgado o fuera de campo de montaje: este tipo de fuera de campo es muy frecuente en el montaje. Por ejemplo, en un diálogo con planos/contraplanos, el personaje que queda momentáneamente fuera del plano y sigue hablando está fuera de campo. ■ Fuera de campo narrativo: cuando no se nos muestra de manera insistente la fuente sonora que tiene relevancia en la narración. Solamente en este caso el espectador es consciente del fuera de campo, lo que suscita intriga y anticipación. ■ Chion además distingue entre fuera de campo activo y pasivo ■ fuera de campo activo: en general corresponde al sonido acción o a la voz y llama la atención del espectador que quiere ver la fuente del sonido (un grito, unos sonidos de pasos que se acercan …). Este tipo de sonidos generalmente forman parte del guión y es importante que sean elementos que aparezcan en fuera de campo. ■ fuera de campo pasivo: en general corresponde al sonido ambiente y no crea una expectativa en el espectador. Es el decorado sonoro. ■ El punto de sincronización evitado (impactos como puñetazos o caídas que se inician visualmente pero cuyo impacto es únicamente sonoro) es un ejemplo de fuera de campo activo. ■ El sonido visualizado inaudible, que corresponde a los raros casos donde vemos a una fuente emitiendo sonido que no oímos (persona tras un cristal, distancia grande ….) Podríamos distinguir dos utilizaciones del sonido inaudible: ■ Protagonista: Este recurso es muy “llamativo” y se da cuando la fuente de sonido aparece en primer plano y deberíamos oír nítidamente el sonido. Es un efecto expresivo y narrativo que debe en general aparecer en el guión y estar concebido como tal en el rodaje. ■ Secundario: cuando las fuentes pasan a segundo plano en la imagen y la narración, como personas hablando al fondo de un restaurante o que andan en la calle sin tener influencia en la narración. El proceso de mezcla sonora decide los sonidos que pasan a ser secundarios (volumen atenuado) y los que desaparecen completamente (sonido visualizado inaudible secundario). ■ El sonido interno, como la voz-pensamiento, corresponde a los sonidos que imagina un personaje y que podemos oír. Es un sonido no visualizado, pero en general, el personaje del que emana la voz-pensamiento o los sonidos imaginados aparece en pantalla y nos indica visualmente que está pensando. 14

■ El sonido ambiente, que no está propiamente ni fuera ni dentro de campo, ya que en general tiene una fuente difusa o a veces no visible. El sonido ambiente no está generalmente localizado (murmullo de pájaros, de personas en un mercado …) y más aún los sonidos específicamente ambientales como el sonido del viento, o el sonido de fondo de una habitación (room tone). Este sonido está en el ambiente sin estar realmente fuera de campo por no ser particularmente visible. Chion (1998: 78) los llama sonidos-territorio o sonidos ambientales. ■ El sonido en las ondas («on the air») corresponde a los sonidos transmitidos por radios y otros aparatos electrónicos, cuya fuente a veces no es necesario visualizar, pero que pueden estar flotando en la escena, y pueden sonar en varios escenarios distantes unos de otros. Entre los sonidos que están fuera del escenario podemos distinguir: ■ El sonido exterior, generalmente pasivo, que corresponde a sonidos de fuera: los pájaros que se oyen a través de la ventana, el tráfico urbano que se oye en un bar. Forman generalmente parte de un sonido ambiente extendido a fuentes de fuera del escenario (extensión amplia) ■ El sonido contiguo (o de escena contigua): este sonido acusmático se da generalmente cuando hay que crear una intriga para el espectador, y se representa una acción en un lugar contiguo al escenario pero en el que los personajes no pueden ver: pasos del asesino que se acercan detrás de la puerta, disparos en una habitación contigua … En este caso más que un fuera de campo es un fuera de escenario, pero que suele representar una acción que tiene una influencia directa en la acción dentro del escenario (extensión amplia). ■ El sonido distante se refiere a sonidos exteriores que se oyen a lo lejos pero que no se funden en el sonido ambiente exterior: sirenas de ambulancia a lo lejos cuando la escena representa un accidente, cañonazos a lo lejos en una escena en las trincheras…. (corresponde a la extensión muy amplia). La extensión (Chion 2013:§33) delimita lo que oye el espectador en las fuentes de la topología del sonido audiovisual : ■ extensión nula: solamente se oye el sonido interior ■ extensión limitada: solamente se oye lo que aparece en el escenario ■ extensión amplia: se oye los sonidos que vienen de espacios externos al escenario ■ extensión muy amplia: se oyen sonidos de fuentes distantes El sonido extradiegético es el que no oyen los personajes porque no existe en la escena, generalmente la música y las locuciones extradiegéticas. Chion utiliza el término de off, que se utiliza tanto en francés como en castellano, pero que es un término peligroso porque tiene un significado diferente en inglés. Para la voz, en 15

inglés se llama voice over lo que llamamos voz en off , y el inglés llamaría voice off lo que llamamos voz fuera de campo(ver Doane, 1985: 165-169 para una discusión entre voice over y voice off). Además, en inglés se hace la oposición entre sonido onscreen/off-screen (en pantalla, fuera de pantalla), con lo que una voz en pantalla debería llamarse voz on más que voz in según la dudosa traslación al francés y castellano, con lo que preferiremos la terminología en pantalla/fuera de pantalla/extradiegético para utilizar términos inequívocos. Carmona (2006: 108) introduce una nueva denominación distinguiendo entre la voz in (que Chion llama también voz in y aquí llamamos voz en pantalla), la voz out se da, “por ejemplo, cuando una voz cuya fuente no se visualiza en el encuadre interroga a un sujeto en campo” y que aquí llamamos fuera de campo narrativo, la voz off es la que se da en “un monólogo interior o del personaje-narrador en un flashback no presente en el encuadre.” Aquí llamaremos voz pensamiento (sonido interno) al monólogo interior y diégesis superpuesta al personaje narrando sobre el flashback. Finalmente, Carmona denomina voz through a la emitida por “un personaje que habla de espaldas a la cámara (Serge Daney, 1977)”. El mismo Daney (2013) añade una reiteración de ese concepto, que al no estar referenciado en la literatura, nos permitiremos de no llamar de ningún modo para no crear más confusión. VOZ EN OFF La voz en off o voz superpuesta es una técnica de producción donde se retransmite la voz de un individuo que no está visualmente delante de la cámara durante una producción de televisión. Además se utiliza en radio, cine, teatro, u otras presentaciones. Muchas veces es pregrabada y también es de uso común en documentales o reportajes para explicar la información o los acontecimientos. También puede ser interpretada por un especialista en actuación de voz. Tipos y usos de voz off. Como un recurso del personaje. Los directores pueden añadir una voz en off en la fase de producción porque el argumento o la motivación del personaje no es inmediatamente clara; por ejemplo Francis Ford Coppola añadió la voz en off al personaje del Capitán Willard en Apocalypse Now para clarificar los pensamientos e intenciones de Willard. En la versión de la película Moby Dick de 1956 de Herman Melville, Richard Basehart, como Ishmael, narra la historia y a veces comenta la acción en voz en off, igual que hace William Holden en las películas El crepúsculo de los dioses y Espía por mandato. La técnica de voz en off también se usa para dar voces y personalidades a personajes de dibujos animados. Entre los actores de voz más sobresalientes y versátiles se encuentran Mel Blanc, Don Messick y Daws Butler.

16

Como un recurso creativo. En las películas, el director de cine pone el sonido de una voz humana (o varias voces) sobre imágenes mostradas en la pantalla que pueden estar o no relacionadas con las imágenes mostradas. Por consiguiente, las voces en off se usan a veces para crear un contrapunto irónico. También, de vez en cuando pueden ser voces aleatorias no directamente relacionadas con la gente que se ve en la pantalla. En obras de ficción, la voz en off es usada a menudo por un personaje para reflexionar sobre su pasado, o por una persona externa a la historia que normalmente tiene un conocimiento más completo de los acontecimientos de la película que los otros personajes. El género del cine negro está especialmente asociado con la técnica de voz en off. Como un recurso pedagógico o descriptivo. La voz en off tiene muchas aplicaciones en la no ficción también. Los telediarios están a menudo presentados como una serie de clips de vídeo de acontecimientos de interés periodístico (piezas informativas), con la voz en off de los periodistas describiendo el significado de las imágenes presentadas; estos se intercalan con videos de los presentadores de noticias describiendo las historias mientras no se muestra el video de los acontecimientos. Las retransmisiones deportivas en directo se muestran a menudo como voces en off de larga duración por locutores expertos sobre el video del evento deportivo. Los concursos de televisión antiguamente hacían un amplio uso de la voz en off para presentar concursantes y describir los premios disponibles o concedidos, pero esta técnica ha disminuido a medida que los concursos se han movido hacia premios predominantemente de dinero en efectivo. Los comentarios en voz en off por un destacado crítico, historiador, o por el propio personal de producción son a menudo una importante característica de la publicación de películas de cine o documentales en DVD. En este tipo de ejemplos en la que existe un narrador mal llamado "voz en off" es más exacto y correcto aplicar el término "voz over" o "voice over". Como un recurso publicitario. El uso de la voz en off en la publicidad ha sido popular desde el inicio de la radiodifusión. En los primeros años, antes de que existiera una eficaz grabación y mezcla de sonido, los anuncios se producían "en directo" y en una única sesión en un estudio con el reparto completo, el equipo de sonido y, normalmente, una orquesta. Un patrocinador corporativo contrataba un productor, que contrataba escritores y actores de voz para interpretar comedia o drama. Aunque la mayor parte de las primeras películas las acompañaban lectores en directo [conocidos como benshi en Japón], la actitud popular ante la voz en off puede resumirse en el comentario de Brian Cox en su papel del guionista gurú Robert McKee en Adaptation de Spike Jonze en 2002:

17

«Y que Dios os ayude si utilizáis la voz en off en vuestro trabajo. Que Dios os ayude. Es una forma de escribir floja y chapucera».

En parte por la preferencia de Hollywood por una artesanía modesta y parte por el miedo de que las películas habladas redujeran el cine a teatro enlatado, lo cierto es que se evitó esta técnica fuera de documentales y noticiarios hasta mediados de la década de 1930.

Un personaje complejo: la voz en off de Fred MacMurray en Perdición [1944] contiene momentos de vivo contraste entre un optimismo ingenuo y una sabia melancolía. El dinamismo de la narración radiofónica, sin embargo, propició un cambio radical de opinión y, desde entonces, se han empleado con resultados magistrales voces en off en los melodramas [El cuarto mandamiento, 1942], westerns [Red River 1948], musicales [Cantando bajo la lluvia 1952], películas épicas [King of Kings, 1961 ] bélicas como Apocalipsis Now en 1979, películas de adolescentes como Stand by me en 1986 y comedias como The Tenenbaums: Una familia de genios [The Royal Tenenbaums, 2001]. Independientemente del tiempo o de la localización, las historias en la pantalla pueden relatarse desde el punto de vista de una primera persona [El Club de la Lucha – Fight Club, 1999], una tercera persona [Cadena Perpetua – The Shawshank Redemption, 1994] o un narrador omnisciente como en Amélie de 2001. Además de aportar una exposición básica, tales voces en off también aclaran la acción, ofrecen información sobre la psicología del personaje, aumentan el tono íntimo e introducen una sabia ironía. También pueden reproducir el tono de las fuentes literarias, como en Tom Jones [1963] o Barry Lyndon de 1975, y contribuyen a veces a suavizar las transiciones abruptas en dramas extensos como Doctor Zhivago de 1965, o simplemente parchar películas que han sufrido fuertes recortes en el proceso de edición, como Blade Runner [1982].

18

Pero en manos de maestros como Orson Welles, Billy Wilder, Stanley Kubrick, Martin Scorsese o Woody Allen, las voces en off complementan los elementos visuales en lugar de simplemente compensar sus defectos. Sin duda alguna, fueron básicas en el éxito del cine negro. En «Historia de un detective» [Murder, My Sweet, 1944], la voz en off resuena por toda la película, y en La ciudad desnuda [The Naked City, 1948], retumba el estilo «objetivo» de la «voz de Dios». Al igual que en las novelas baratas, hombres inocentes confiesan cómo han sido engañados por femmes fatales en Perdición [1944] y La dama de Shanghai [The Lady from Shanghai, 1947], y en El desvío[Detour, 1945] y Retorno al pasado [1947] narradores poco fiables disimulan la verdad. El cine negro también dio voz a las mujeres en Alma en suplicio [Mildred Pierce, 1945] y Raw Deal [1948], así como en los aclamados melodramas Carta a tres esposas [A letter to three wives, 1949] y Eva al desnudo en 1950. Desde entonces, las narraciones en boca de mujeres se han confinado a las películas realizadas por directoras, como en Jane Campion o Sally Potter. Pocos cineastas europeos han emulado la preferencia de Sacha Guitry de la narración por el diálogo en Le roman d’un tricheur [1936], pero algunos han hecho un uso ejemplar de la voz en off, entre ellos Robert Bresson, Ingmar Bergman, Alain Resnais, Jean Luc-Godard, Francois Truffaut o Eric Rohmer. En ficción cinematográfica, la voz en off puede ser de tres tipos: directa: describe lo que estamos viendo y escuchando indirecta: describe aquello que no podemos ver, como los pensamientos de un personaje ● contrapunto: marca un constraste evidente entre aquello que vemos y aquello que se nos explica, se recurre a la ironía ● unión entre diferentes escenas ● ●

Un ejemplo donde la voz en off juega constantemente con estas cuatro posibilidades es en El lobo de Wall Street(2013) Marti Scorsese. En la siguiente escena, la voz en off de Jordan Belfort (Leonardo DiCaprio) sirve para unir diferentes escenas dentro de la misma secuencia que es “la historia de los Belfort”, o mejor dicho, “la decadencia de los Belfort”; también vemos una función directa e indirecta de lo que sucede en la cotidianeidad de la pareja.

19

El uso de la voz en off resulta interesante como técnica para transmitir datos imprescindibles para la historia y que son difíciles de contar de otra manera. Para gurús del guión como Robert McKee es un recurso al que sólo que hay que recurrir cuando el resto de soluciones creativas te hayan abandonado. Bien aprovechada, es una herramienta muy interesante para presentar personajes, introducir atmósferas o atrapar al espectador desde el primer minuto de la narración. Las primeras escenas de ‘American Beauty’ o ‘El crepúsculo de los dioses’ son buena muestra de ello. La voz en off también puede ser utilizada para aclarar el sentido de la obra. Es particularmente interesante el ejemplo de ‘Apocalypse Now’, una obra mayúscula que resultó confusa en su primer montaje. La decisión que tomó entonces Francis Ford Coppola fue acompañar el film con un off del personaje del Capitán Willard en Apocalypse Now para clarificar las intenciones y motivaciones del personaje. También es curioso el caso de Blade Runner y sus múltiples montajes: la inclusión o supresión de la voz en off de Deckard modifica por completo el significado de la película de Ridley Scott. Las posibilidades son muchas. El recurso nos puede servir para ayudar a conocer las verdaderos sentimientos de nuestro protagonista (‘El hombre que nunca estuvo allí’, ‘American Psycho’), dejar claro el tono de nuestra historia (‘La bella y la bestia’, ‘La Naranja Mecánica’), explicar los complejos planes de nuestros protagonistas (cintas de atracos como la saga ‘Ocean’s Eleven’) o para sumergirnos en el universo del protagonista que determinará nuestra historia (‘Forrest Gump’, ‘Taxi Driver’). Es una técnica interesante y que abre diferentes caminos, pero hay que saber cuándo renunciar a ellas. Las valoraciones personales, la información que el espectador no necesita saber o las florituras están de más. Lo que no suma, resta.

SONIDO DIRECTO El sonido directo, también llamado sonido de campo o sonido de producción (production sound, location sound o field sound recording en ingles) es la grabación de sonido dentro de un set de filmación de un proyecto audiovisual, bien sea cine, tv o video. El ingeniero de audio encargado de este proceso, comúnmente llamado sonidista, se encarga principalmente de capturar, de manera limpia y optima, los diálogos, ambientes, tonos de sala (Room Tone) y cualquier acción que se realice frente a cámara. Tomando en cuenta la continuidad en la intensión y el timbre de la voz, así como de los posibles cambios de sonidos de ambiente. Para esto, se utiliza una gran variedad de micrófonos tipo shotgun, comúnmente llamados “boom” (por estar colocados en una vara o percha que lleva ese nombre en inglés) y los micrófonos inalámbricos Lavalier (llamados balitas o corbateros).

20

Lo ideal, dependiendo del proyecto a grabar, es tener por lo menos un micrófono shotgun para capturar la escena, junto con varios micrófonos lavaliers que irán ocultos en cada personaje. Así tendremos independencia de la señal. El sonido directo es aquel que proviene de su fuente sin ningún tipo de intermediación. En cinematografía, la grabación del sonido directo consiste en la captura de éste en el mismo momento en que se rueda una escena. Estos elementos sonoros pueden ser utilizados o no en el montaje, aunque no pueden ser creados en producción. En un concierto, la voz en directo hace referencia al sonido directo, es decir, indica la ausencia de edición en ella: el sonido proviene de su emisor en el mismo momento.1 Sistemas de grabación. Los sistemas utilizados son totalmente digitales. Los más populares son el DAT y el ADAT, ya que son transportables. Los DAT grabadores digitales de dos pistas simultáneas, los ADAT pueden registrar 8 pistas ampliable mediante la sincronización de grabadores. Estos últimos se utilizarán en secuencias en que se utilizan varios micrófonos. Grabación del sonido directo. La grabación de una secuencia combina el registro de imagen y sonido. El sonido directo lo constituyen el ambiente y las voces de los actores. Supone un proceso bastante crítico, dado que de haber algún defecto en la toma de sonido durante la grabación de la escena, ésta deberá repetirse, ya que el sonido e imagen directos se toman en el mismo momento. Elementos para la grabación. El elemento fundamental para la recepción y almacenamiento del sonido es el micrófono. Aunque existen otros complementos: ● Complementación mediante otros micrófonos. ● Pértigas. ● Fuente de preamplificación o mesa de mezclas. ● Grabador multipista. ● Cortavientos ● Un sistema de monitorización (auriculares). ● Cables de conexión. Fuentes registradas. Los sonidos que se recogen en la grabación directa son fundamentales puesto que su creación mediante la edición resulta imposible. Es el caso de los diálogos y los sonidos ambientales. Diálogos: En los metrajes, los diálogos son la parte principal en cuanto a registro de sonido se refiere. Las voces de los actores construyen la narración acompañando coordinadamente la imagen. Sonidos naturales: viento, lluvia, olas del mar, etc. son elementos muy registrados para acompañar imágenes, que sin sonido parecerían incompletas, de fondo, o sin ningún acompañamiento visual (normalmente como método de relajación). Sonidos ambientales: público, oficina, tránsito, etc. sirven para contextualizar, normalmente usados de fondo. 21

Factores a tener en cuenta a la hora de grabar sonido directo. Puesto que el micrófono va a grabar el sonido en directo, captará tanto las voces o elementos que queramos registrar como sonidos quizás no deseados: viento, motores, voces lejanas, etc. Por esta razón, son de suma importancia la elección de material y el control de la aparición de fuentes sonoras no deseadas. La localización es un factor muy importante a tener en cuenta. Escoger un lugar aislado de ruido como personas, tráfico, aparatos funcionando, etc. es fundamental para que las voces o sonido que queremos registrar se oigan de una manera clara. Las fuentes de ruido cercanas deben ser identificadas y tratadas. En el caso de realizar las grabaciones en un plató, se deben utilizar mecanismos para mejorar las condiciones acústicas del local: paneles o telas, o un tapizado adecuado para disminuir le sonido de los pasos. ● La colocación de la fuente de sonido, en caso de ser móvil, respecto los micrófonos. En general, un conocimiento lógico del orden. ● La elección del micrófono también es un factor destacado. Aparte de factores funcionales de los mismos, que darán distintos resultados, el factor económico también determina la elección y la calidad. Una de las marcas más usadas es RODE. ● Suelen usarse micrófonos de condensador con un patrón polar hipercardioide, para aislar los sonidos no deseados, o tipo elecret si la distancia lo requiere. ●

Tipos de micrófono. Igual que para la captura de la imagen se usan diferentes objetivos o lentes con diferentes resultados, según la conveniencia, con los micrófonos existe la misma regla. Hay muchos tipos de micrófonos que darán resultados muy diferentes, y decidiremos cuál usar según la expectativa de la persona, las condiciones... Micrófono cardiode. Es un micrófono direccional, es decir, captará los sonidos de la dirección a la que lo coloquemos, siendo la pare posterior una zona con sensibilidad mínima. Algunos usos recomendables serían para documentales o la grabación de eventos. Micrófono supercardiode. Poseen un factor direccional más preciso que el anterior, de modo que aíslan notablemente los sonidos de su alrededor para captar únicamente la fuente a la que apuntan. Son utilizados para grabar voces, y se pueden conectar tanto a la cámara si se va a hablar de frente, como mediante el uso de un palo para acercarse al actor. Micrófono omnidireccional. Este tipo recoge el sonido en todas direcciones, sin enfocar atención a la dirección a la que apunta. Los sonidos que registra con claridad son los más próximos a él. Se usa en micrófonos de corbata o solapa, mediante un cable o inalámbricos, que permiten el acompañamiento del micrófono de la fuente que se pretende registrar, y un uso libre de manos. El micrófono omnidireccional también se puede usar en micrófonos ambiental.

22

Micrófono bidireccional. Su registro se enfoca en dos direcciones, normalmente usados en entrevistas de radio o cine.

WILD TRACK El wild track es una toma de sonido adicional efectuada en locación independientemente de la acción, a fin de incorporarla a la banda sonora con o sin posibilidades de sincro. El sonido es registrado en el rodaje de forma independiente a la imagen, cuyo propósito es grabar con la mayor nitidez posible el sonido de una escena. En ocasiones, el encuadre de imagen o el movimiento de los actores o la cámara dificulta la cercanía del micrófono a la acción y por tanto un buen registro de sonido, de modo que se graba después aparte para su post - sincronización en el montaje o la mezcla. También suele denominarse wildtrack la grabación del ambiente natural de la localización del rodaje (previo riguroso silencio de todo el equipo, por supuesto) que se empleará para uniformizar los fondos sonoros de las distintas tomas de la escena, o con el fin de cubrir tomas para las que no se haya registrado sonido directo. Las palabras wild track (WT) se podrían traducir por “pista que va por libre”, y se refieren a un archivo de sonido que se graba en la localización o el set, independientemente de la imagen. Pueden ser voces (una parte de un diálogo), voces difusas (murmullos), efectos (un timbre) o el silencio en el set, por ejemplo. Algunas razones por la que se puede necesitar grabar un wild track: es un sonido que se va a oír en off (es decir, sin que se vea su fuente), como un grito, un saludo o un grifo abierto, por ejemplo. El encuadre de la imagen o el movimiento de los actores o de la cámara dificultan la cercanía del micrófono a la acción y, por tanto, un buen registro del sonido. Se ha conseguido una toma buena de imagen, pero se ha colado un ruido (una sirena, el roce de la ropa de los actores) o el plano tiene un diálogo que transcurre en un taller con máquinas de coser, por ejemplo. Se ha conseguido una toma buena por imagen y por sonido, pero se quiere tener una mejor vocalización de los actores o variar un poco la intención dramática. [Cuando se graba un WT de diálogo se evita tener que ir a un estudio de doblaje (lo que lleva tiempo y cuesta dinero), se consigue una grabación con las mismas características sonoras que el resto del diálogo y, además, se aprovecha que los actores están en el momento dramático o emocional adecuado.] Necesitamos sonido para recrear una reacción concreta a un momento dramático (risas, cuchicheos, murmullos, “ooohs” y “aaahs”, etc.). Necesitamos el sonido ambiente de una localización o set en silencio total (para igualar el audio de una secuencia en montaje y que no se noten saltos entre cortes).

23

Necesitamos sonido de una localización o set con su actividad habitual (para generar, en montaje, la sensación auditiva que se produce en ese sitio concreto - bar, colegio, juzgado, etc.). [En estos últimos dos casos hablaríamos de WT de ambiente o, simplemente, ambiente.] Los WTs y ambientes se nombran así: 28-WT JUANA-1 (es decir: WT del diálogo de Juana en la secuencia 28, toma 1). 12-AMB BAR-1 (es decir: ambiente de bar de la secuencia 12, toma 1).

SONIDO AMBIENTE El concepto de sonido ambiente engloba varios elementos de naturaleza diferente, y que corresponden a procesos diferentes en la grabación y montaje del sonido. Por un lado, Michel Chion distingue entre sonido ambiente o sonido territorio (Chion 2012 § 32) y elementos de decorado sonoro (Chion 2012 § 32). A su vez, en el campo profesional se distingue entre ambientes y atmósferas como se ilustra en el gráfico de José Nieto. ■ Atmósfera (Nieto) o sonido territorio (Chion): suele incluir los sonidos relativamente continuos que en general no tienen una fuente clara y visualizable, como una atmósfera de ciudad al fondo, el sonido difuso del mar, el sonido general de un bosque, el viento, una atmósfera de noche con grillos, etc. También podemos incluir un room-tone (el sonido de una habitación que en general es un ruido blanco de ventilación más bien grave), una atmósfera de catedral donde suenen los pequeños elementos en la reverberación. Para evitar confusiones, no utilizamos el término “sonido ambiente” que utiliza Chion para esta categoría. ■ Elementos de decorado sonoro o EDS (Chion) que se aproximan a los ambientes en la terminología propuesta por Nieto. Estos sonidos tienen fuentes más puntuales y definidas que las atmósferas, y son más intermitentes. Podemos incluir los teléfonos en una escena de oficina, el conjunto de ruido de cubiertos y voces de comensales en un restaurante, el ruido de coches en una escena de calle o de máquinas en una escena industrial. ■ Sonidos-acción: en este apartado tenemos los sonidos que emanan de las acciones que hacen los personajes, generalmente en pantalla. Suele distinguirse los sonidos que en la postproducción cinematográfica clásica corresponden a los efectos de sala o foleys (pasos, ruidos de vaso, portazos, roce de ropa) y los sonidos que corresponden a los efectos especiales (disparos, explosiones, puñetazos…) que se crean en laboratorio.

24

A nivel perceptivo y narrativo, la frontera entre atmósferas, EDS y sonidos-acción es porosa: una atmósfera de ciudad va a contener ruido de tráfico (generalmente difuso y a lo lejos) pero una escena de calle en una ciudad va a contener un ruido de tráfico que corresponda al tráfico de coches que estamos viendo, y en ese caso son elementos de decorado sonoro. Igualmente si tenemos una persona montando en bicicleta vamos a hablar de sonido-acción para los sonidos de la bicicleta si seguimos la acción del ciclista, pero vamos a hablar de elemento de decorado sonoro si hay varios ciclistas que forman parte del “fondo” de la escena. A nivel de producción técnica, las atmósferas y elementos de decorado sonoro pueden venir de librerías de sonido o grabarse in situ en los llamados wild tracks, en los que se graba el sonido del lugar sin la presencia de cámaras y actores, para luego reintroducir esos sonidos en postproducción. Tanto atmósferas como elementos de decorado sonoro no requieren una sincronización entre la imagen y el sonido, y como indica Chion (2012, §32) ambos “contribuyen a diferenciar los diferentes decorados de la acción, a hacerlos contrastar, en relación o no con las diferencias visuales, rítmicas, etc.” Como la frontera es porosa, los sonidos de acción también contribuyen a la diferenciación entre escenas. También debemos tener en cuenta la reverberación o respuesta acústica de sala: este es un elemento que no es un sonido en sí, sino un procesado (natural o de postproducción) de los sonidos que forma parte del ambiente general y de la sensación de realismo e inmersión. La reverberación permite además marcar el montaje separando las escenas que tienen diferentes acústicas de sala. Los sonidos-acción “normales” (pasos, roces, abrir puertas y ventanas…) se pueden grabar en sonido directo (se suelen necesitar entonces varios micrófonos, unos para diálogos y otros para diferentes EDS) y luego necesitan un montaje en postproducción. Se pueden también hacer por especialistas de Foleys que generan los efectos de sala utilizando diferentes aparatos y trabajando en postsincronización, es decir, viendo la imagen por sonorizar y generando los efectos de sala en sincronía. Actualmente, si no se dispone de especialistas, se pueden generar los efectos de sala a partir de librerías que se trabajan para hacer coincidir el sonido con la acción en pantalla. Los sonidos-acción “especiales” (disparos, explosiones, puñetazos) suelen estar siempre recreados en postproducción, sin utilizar elementos de sonido directo. Añadimos una categoría en negativo cuando tenemos silencio ambiente o sonido acción (directo) fortuito o casual. Esto es el caso de muchas producciones de plateau como las sitcom, donde no hay atmósferas ni elementos de decorado sonoro, y puede haber algún sonido acción que se grabe fortuitamente pero sin intención expresiva, ya que los micrófonos están colocados para grabar los diálogos.

25

ROOM TONE Un “Room Tone” o “presence” es la grabación del sonido característico de un lugar, mientras éste se encuentra en silencio, no lo debemos confundir con el ambiente, ya que el ambiente es la atmósfera sonora que se crea de un determinado espacio, y no el silencio del mismo. Un Room Tone desde un punto de vista práctico lo forma la interacción del espacio en donde grabamos con el propio micrófono, el ruido que exista tanto en la localización como en los aparatos electrónicos utilizados para su grabación. Por lo tanto si cambiamos de posicion nuestro micrófono tendremos un room tone diferente, al igual que si cambiamos de aparatos para grabarlo, por ejemplo otro micrófono, otros previos etc. La importancia del room tone se muestra a la hora de editar los diálogos de cualquier escena, durante el proceso de edición tendremos que hacer frente a cambios de plano en una conversación, el montador de vídeo normalmente creará una escena de diálogo montada plano contraplano, en esta situación como mínimo tendremos que usar dos tomas de sonido (una por personaje al menos) para que los diálogos estén sincronizados, al realizar la edición del diálogo nos podemos encontrar con espacios de silencio, o diferencias en el perfil de ruido de cada toma, creando una indeseable distracción para el espectador ya que se notara la edición y el cambio de toma, en éste caso podemos limpiar el ruido de una de las dos tomas y añadir el room tone de la otra, de esta manera el cambio de plano (y por tanto de toma) es mucho más imperceptible. Otra situación en la que nos puede hacer falta el room tone es cuando en la toma tenemos ruidos indeseados en espacios en los que debería haber “silencio”, un golpe antes de que el actor hable o un coche pasando son algunos ejemplos típicos, en este caso en edición normalmente cortamos dicho ruido y añadimos el room tone para reemplazar el espacio sin sonido que nos ha quedado consecuencia de la edición, de esta forma el corte no se percibe. la forma más fácil de grabar un room tone es dejando unos segundos de silencio antes de empezar cada toma, normalmente con tan solo unos cuantos segundos (de 5 a 15 por ejemplo) es suficiente para eliminar sonidos indeseados, y creando un bucle del room tone tambien deberia ser suficiente para las tomas de diálogo. Como te hemos dicho anteriormente si cambiaras la posición del micrófono por ejemplo, tendrías un sonido diferente por lo que grabando antes de cada toma unos segundos de silencio (por ejemplo antes de la claqueta) te aseguras de que el room tone es el mismo de la toma de diálogo. También es posible grabarlo antes o después de la toma, cuando no moleste al resto del equipo por ejemplo, si lo grabas con los mismos equipos que usaste en las tomas de diálogo y sobre todo con la misma configuración de la toma, es muy probable que pueda servirte, sin embargo puede variar un poco y quizas te haga falta procesarlo,

26

ecualizando por ejemplo para que se parezca más a la toma original. La ventaja de hacerlo después es que puedes hacerlos mucho más largos, lo que puede servirle al montador de ambientes para reforzar la localización. Es posible que también te hayas dado cuenta que si en la toma de diálogo hay largos pasajes de silencio entre los personajes también pueden servirte como un room tone, lo importante al final es que la edición sea imperceptible.

EFECTOS DE SALA/FOLEY El sonido de una película que no pertenece ni al diálogo, ni a la voz en off, ni a la música, y que se añade normalmente en el proceso de posproducción. Los efectos de sonido se combinan con frecuencia en una banda E (efectos), que después se combina con las bandas M (música) y D (diálogos). La grabación del sonido ambiental normal resulta difícil de controlar y de registrar con fidelidad. Los efectos de sonido pueden crear lo que parece el sonido propio de un lugar de manera que esos ruidos contribuyan también al impacto dramático de la escena. Puede introducirse sonidos sincronizados con las acciones de los personajes de una forma precisa e impactante. Los archivos de efectos sonoros, que pueden ser independientes del estudio o formar parte de él, disponen de un gran número de cintas, discos y bandas ópticas que incluyen una inmensa variedad de ruidos, desde disparos de armas de fuego, explosiones de bombas y clamores de guerra hasta el murmullo de los árboles, el azote del viento y las tormentas atronadoras de los grandes espacios abiertos. Aunque algunos ruidos se registran específicamente para una película concreta, algunos estudios disponen de sofisticadas consolas de efectos de sonido en las que se almacena una cantidad inmensa de sonidos que pueden añadirse directamente a la banda de efectos.

En la actualidad, se dispone de efectos de sonido y de sistemas de montaje de sonido informatizados; los más avanzados emplean además sonido digital. Dichos sistemas permiten una manipulación creativa y sencilla de sonidos programados e innumerables regrabaciones sin pérdida de calidad. Los instrumentos electrónicos, especialmente el sintetizador, han inaugurado en los últimos años una nueva área en 27

el campo de los efectos sonoros cinematográficos. Los responsables de los efectos de sonido, especialmente el de los movimientos corporales, se denominan artistas Foley, caminantes Foley o mezcladores Foley en homenaje a Jack Foley, el creador del sistema moderno para producir esos efectos sonoros para el cine. El montador de sonido o montador de efectos de sonido es el individuo responsable del ensamblaje y la mezcla de todos estos sonidos. El creador de los efectos sonoros en el cine fue Jack Donovan Foley, más conocido como Jack Foley. Se le atribuye la invención de añadir a las películas efectos de sonido naturales y cotidianos de las personas y objetos tales como pasos, aleteo de pájaros u objetos moviéndose en superficies, entre otros ejemplos. Estas creaciones de sonido se realizan de acuerdo a la imagen que se está emitiendo para darle un toque más realista. Los efectos de sonido tienen que grabarse paralelamente a la película porque no pudieron ser grabados en el momento de la filmación. En la gran mayoría de los casos el foley se acaba convirtiendo en un arte, un arte en desarrollo. No es un proceso fácil y requiere de mucha imaginación para llevar a cabo procesos asombrosos... Como crear el sonido de un ser inexistente en el mundo real, el despegue de una nave espacial... Los nuevos sistemas digitales nos permiten la reproducción del más mínimo detalle sonoro, primando su realismo y su definición; Por este motivo ya no hablamos de diseño de sonido sino de arquitectura del mismo. Los efectos sala (los foley) dejan de ser meros ruidos ocasionales y se convierten en auténticos decorados sonoros que acompañarán toda la acción de los personajes, hasta el más mínimo detalle. La textura del suelo por donde andan los intérpretes, la textura de los ropajes que los visten, el material del que están hechos los objetos que tocan o mueven e incluso el aire que respiran los actores son obsesiones del efectista en estos momentos. Reproducir sonidos cotidianos no es nada sencillo si hay que hacerlo de forma artificial. Las personas encargadas de esta parte (Foley Artist) suelen ser los grandes olvidados de la industria cinematográfica. Sin embargo, tienen un papel fundamental ya que han de estudiar y conocer a la perfección los sonidos y los materiales, e incluso seguir innovando constantemente, para encontrar nuevos sonidos que puedan innovar, mejorar o ensalzar los que ya conocían. Los efectos de sonidos Foley son grabados por varios motivos. Para un equipo de sonido en directo muchos de los sonidos se escapan o no es posible grabarlos tal cual debido a las condiciones de la grabación (sonido ambiente) además, sería imposible estar continuamente siguiendo a los personajes para grabar los pasos, el ruido de los caballos al caminar, dos espadas luchando etc. En otras ocasiones los sonidos grabados no se reproducen tal cual se quiere o necesita en la película y por ello, se les da más vida en los estudios de grabación. El lugar destinado a grabar los efectos sonoros son estudios dedicados a tal fin que han de contar con un espacio amplio para poder crear distintas superficies y

28

espacios, como suelos de cemento, césped, arena etc para poder recrear los pasos o distintos movimientos, así como contar con gran cantidad de materiales y accesorios. El aislamiento acústico y el tratamiento de las salas son otras características de estos lugares para evitar que los ruidos externos puedan "colarse" en el interior además de evitar la reverberación de la sala. Para crear los efectos sonoros de una película el equipo de foley sigue una “hoja de ruta” en la que se detallan todos los sonidos necesarios para grabar y sus características. Artistas de Foley. Ben burtt recreo más de 800 sonidos para Star Wars para poder adecuarlos a objetos y criaturas, entre ellos se encuentra la conocida distorsión de los sables láser, que se daba al usar un cable de audio sin aislante sobre una televisión de tubo. Burtt, además, logró dos nominaciones a los Óscar con su fascinante trabajo para la película de animación Wall-E. Y es que hablar de animación, en este caso, es hablar de efecto sala, puesto que es casi lo mismo. La animación es uno de los géneros que más depende del efecto Foley, y, además, en el que más se puede jugar con la creatividad. Jack Donovan Foley fue el creador del foley entre sus trabajos destaca el de Espartaco, José Caldararo con películas como El secreto de sus ojos. Los "foley artist" Kiku Vidal y Edgar Vidal recogen el Motion Picture Sound Editors, USA: 2008 al mejor foley por su intervención en la película "EL ORFANATO". En España el extraordinario Luis Castro fue una eminencia durante décadas. Clasificación de los efectos de sonido. 1) Ruido diegético/objetivo: el que suena tal como es. Puede ser el de ambiente general (viento, lluvia, tráfico) sin necesidad de ser sincrónico. 2) Ruido no diegético/subjetivo: se produce para crear una situación anímica sin que el objeto productor se vea. Por ejemplo, el tictac de un reloj, pasos lentos o puertas que chirrían. 3) Ruido descriptivo: el inventado para producir sonidos irreales, fantásticos o sobrenaturales. Por ejemplo, las voces de extraterrestres en las películas de ciencia ficción. Una producción de Foley tiene una fuerte preparación. 1- Visionar y anotar todos los sonidos. Apuntando en qué momento aparecen, o realizando una clasificación acorde por grupos. En ese proceso inicial anotamos que vamos a necesitar reconstruir, para así hacernos una idea de todo lo necesario para afrontar la grabación. 2- Materiales. Hacer acopio de materiales necesarios para recrear ese sonido es un paso fundamental. De ello dependerá la veracidad de nuestra recreación. La mayoría de los estudios especializados contienen un gran almacén que casi parece un rastro desfasado. No importa el aspecto del “instrumento”, importa su sonido a la hora de golpearlo, arrastrarlo, mojarlo o sacudirlo. 3- Microfónica y acotación de espacios. Según los materiales que fuésemos a emplear vamos a necesitar un espacio de seguridad mayor, es importante mantener

29

proximidad con la microfonía sin ponerla en riesgo, podemos romper material de estudio con mucha facilidad. 4- Grabación. El proceso de interpretación, el artista foley se convierte en un intérprete más de la banda sonora, y dependerá de su habilidad de recrear e integrar sonidos para conseguir los efectos más reales y sorprendentes. Es muy común el trabajo por capas donde para conseguir un mismo sonido empleamos distintas grabaciones. Ejemplo: una con más ataque, otra con más sonido de metal, y otra con mucho volumen. Sumando todas podemos obtener el resultado esperado que de otra forma no podríamos transmitir con un único elemento. SOUND TRACK/BANDA MÚSICAS+EFECTOS/FX)

INTERNACIONAL/BANDA

SONORA

(EN

TV

Banda sonora (soundtrack en inglés) hace referencia a la parte sonora de una proyección audiovisual, ya esté compuesta por diálogos, sonidos ambientales, música y cualquier otro tipo de sonido, sea real o sintético. Normalmente se asimila con la música en el cine, pero también puede utilizarse en cualquier otro producto audiovisual, como los videojuegos, los programas de televisión y los productos derivados. Habitualmente se entiende como banda sonora toda aquella música, tanto vocal como instrumental, que se emite conjuntamente con la película cinematográfica. Si bien en un principio se puede considerar la banda sonora como la música compuesta expresamente para una película, incluso en la época del cine mudo, lo cierto es que la banda sonora propiamente dicha nace con la aparición del cine sonoro. Aunque se grabe sonido directo, siempre hay que grabar aparte los efectos sala para poder hacer la llamada “banda internacional” o soundtrack, donde además de los efectos sala, tendremos la música y los ambientes (es decir, todo menos los diálogos). En países donde se habla un idioma distinto de aquel en el que se rodó la película, se doblan los diálogos en su idioma y se hace una nueva mezcla de sonido con el doblaje y la banda internacional. Los dos sistemas iniciales fueron el Vitaphone, creado por las compañías Bell Telephone y Western Electric en 1927, y más tarde el sistema Sistema Photophone, creado por las compañías RCA y General Electric, en 1928. La banda sonora de una película, en su sentido físico, puede ser de dos tipos: magnética u óptica. En el primer caso, una o varias bandas de grabación magnética discurren por los bordes de la tira de película. Al ser leídas estas líneas por un aparato en sincronía con la proyección, se generan los sonidos de manera similar a como lo haría un lector de casetes. En el caso de las bandas sonoras ópticas, se trata de zonas de oscuridad y luz en uno o dos lados de la cinta de la película. Las distintas intensidades de luz, se convierten luego en impulsos eléctricos creando el conjunto de la banda sonora. 30

También se utilizan los sistemas de sonido digital, que actualmente comienzan a ser comunes en las proyecciones cinematográficas y que responden a los estándares de proyección digital 1080p, 2K, UHD, 4K y 8K, ya en vigor. La imagen muestra una película en el antiguo celuloide, ampliando donde se alojaba la banda sonora dentro de la película.

Se puede entender, además, por Banda Sonora Original: BSO (Original Soundtrack: BSO), todo aquel compendio de elementos sonoros diseñados en exclusivo para la película. Después de lo anterior, tenemos dos grandes ramificaciones: El score (música incidental o música cinematográfica), que comprende aquellas pistas compuestas para la cinta y que suelen ser orquestadas, instrumentales y extradiegéticas (no percibidas por los personajes) que atienden al discurso expresivo de la película y suelen contar con la autoría de compositores de renombre (Ennio Morricone, Hans Zimmer, Danny Elfman). El soundtrack, que por lo regular comprende canciones preexistentes elegidas por el director para formar parte de la historia, y por su naturaleza, pueden ser incidentales (forman parte de la acción de los personajes) o extradiegéticas. Una banda sonora, por lo general, suele tener la siguiente estructura: Tema de entrada/inicio/cabecera. Suele ser el tema o canción que da comienzo a la película o serie para la que ha sido compuesta. Opening o Main Title, en inglés. ●

Música de fondo/incidental. Son el conjunto de temas que representan el grueso de la composición dentro de una banda sonora. Pueden ser instrumentales o cantados (canciones). También puede haber canciones o temas de autores diferentes al que compuso en origen la obra musical (compositor); a una canción de ese tipo se le llama canción insertada. ●

● Tema de salida/cierre/final. Suele ser el tema o canción que suena junto con los créditos finales de la película o serie para la que ha sido compuesta.

31

Leitmotiv. Recurso empleado para simbolizar una emoción, un objeto, un personaje o protagonista (Bond). ●

Música de fondo o incidental: Conjunto de temas que se adaptan a la acción (cine de terror). ●

La banda sonora forma parte integral del mensaje audiovisual y sirve generalmente para: -Remarcar las acciones -Transmitir información -Aumentar la sensación de realidad -Ayudar a transmitir emociones La banda sonora puede recoger dos tipos de sonido: •Directo. Sonido tomado durante la grabación. Este tipo de sonido se utiliza fundamentalmente en las grabaciones no profesionales, en los documentales y en los proyectos de video experimental, artístico y doméstico. El propio hecho de que la grabación de sonido se efectúa sobre la grabación original de vídeo hace que durante el montaje el sonido aparezca fragmentado. •Grabado. Todo aquel sonido que puede ser tomado antes, durante o después de la grabación de las imágenes. Esto incluye la grabación o "doblaje" de los diálogos de los personajes, bien por los mismos actores que interpretan los distintos papeles o bien por actores especializados en doblaje, sobre todo cuando los diálogos se traducen a otros idiomas. Se incluye en este apartado el sonido de los efectos especiales, elaborado normalmente durante la fase de post-producción del proyecto. Es el modo más habitual de añadir sonido a una producción audiovisual. El sonido grabado incluye también a la música, que es aquello que normalmente asimilamos con la banda sonora original (BSO) o música cinematográfica, compuesta expresamente para una película.

DOBLAJE Es el proceso de grabar y sustituir voces de un medio cinematográfico, televisivo o radiofónico para su internacionalización. Consiste en sustituir los diálogos hablados por los actores en un idioma original por otros diálogos idénticos o similares en otro 32

idioma. En el caso de los videojuegos también puede referirse al proceso de añadir voces grabadas por actores de voz en cambio de diálogos por escrito, aunque por la naturaleza misma de los videojuegos, no necesariamente nos podemos referir como doblaje. Hay varias discusiones al respecto sobre si llamarlo o no doblaje y algunos simplemente desean acuñar el término "versión" y dejar el término doblaje exclusivamente para cine y televisión. El doblaje se describe a sí mismo como el proceso de regrabación de líneas de diálogo, habladas por un actor durante la producción original, para mejorar la calidad de audio o reflejar los cambios de diálogo. La música también es doblada en una película después de que su edición se haya completado. Filmes, vídeos y a veces videojuegos son doblados en el idioma local para el mercado extranjero. En algunos países el doblaje es común en películas estrenadas en cines, series de televisión, dibujos animados y anime (o series Manga) según sea su distribución en el extranjero. Para doblar una película o cualquier otro producto de video, se quita la voz de los diálogos originales y se sustituye por otra de algún otro actor que diga lo mismo, o la misma idea, en el idioma que se quiera doblar. Un buen doblaje se da con la capacidad para editar y sincronizar con precisión la imagen al sonido. Entre la Espada y la Pared (1933), fue la primera película doblada al español y en 1942 la Metro Goldwyn Mayer manda, desde Nueva York a La Ciudad de México, el primer elenco de actores de doblaje, para las caricaturas de Tom y Jerry Los doblajes son más utilizados en películas o programas que sean dirigidas a un público infantil, por la misma dificultad que presentan los niños para leer subtítulos. Por lo mismo, Disney ha sido considerada la compañía que más ha esmerado en el doblaje de sus productos. Con la llegada del cine sonoro, algunos países, principalmente por razones políticas ligadas al nacionalismo propio de la época, escogieron el doblaje como forma de fortalecimiento de su identidad y un cierto control de la información. Entre los países que escogieron el doblaje como forma principal de reproducción pública se encuentran España, Francia, Alemania e Italia. En la actualidad, existen dos diferentes doblajes al español: el que es únicamente para España y el doblaje Latinoamericano que es conformado por actores de diferentes países como México, Argentina, Colombia, Venezuela, Chile, entre otros. Para lograr que el doblaje latinoamericano se adapte a todos los países y no cause ninguna confusión, se suele cuidar que no se usen términos locales, por ejemplo: gaseosa, casillero, goma de mascar y pañuelo en lugar de refresco, locker, chicle y kleenex, que son términos utilizados en México. México y Argentina son los que tienen más cargos en el doblaje latinoamericano. En el caso de los programas

33

infantiles y juveniles, México es el que ha doblado más proyectos, secundado por Argentina. El doblaje es criticado por personas que aprecian el cine como arte y no como entretenimiento, diciendo que éste le quita la autenticidad de las obras en su idioma original y más cuando el doblaje no es bueno, pues se pierde la sincronización de la voz con los labios del personaje que está hablando en la imagen. Los pocos defensores opinan que los subtítulos tapan parte de la imagen y que distraen al espectador. ¿Por qué en nuestro país se hizo más popular el doblaje audiovisual que en otras zonas de Europa? Parte de esa popularización fue debido a la época del franquismo, ya que al doblar las películas que llegaban a nuestro país se conseguían dos aspectos: propaganda y censura. En muy conocida la anécdota de que Grace Kelly y Donald Sinden en Mogambo eran hermanos en vez de matrimonio para evitar de ese modo el adulterio. Este es un ejemplo del objetivo que décadas atrás tenía el doblaje en nuestro país, nada que ver con lo que ocurre en nuestros días. Con el paso de los años la industria del doblaje ha ido creciendo a pasos agigantados en nuestro país y en la actualidad no sólo se doblan películas, sino diferentes piezas audiovisuales que consumimos en España en distintos formatos: series, programas extranjeros, anuncios, videojuegos… . En España se prefiere el doblaje a los subtítulos porque convierten las obras en más accesibles a la población a la hora de seguir los diálogos, es más fácil enganchar al espectador y se consigue que éste se fije más en los elementos gestuales o estéticos de la trama. También es una manera de modificar las referencias culturales adaptándolas a las de nuestro país. Estructura y montaje El sonido y la música cumplen una función estructural esencial en el manejo de la continuidad (y la discontinuidad) del montaje visual (Payri y Prósper 2011). Para José Nieto (1996: 75) la interrelación de la música con el montaje produce dos efectos claves: en primer lugar cabe la posibilidad de que la música resalte o no las transiciones entre planos y en segundo lugar que se convierta en el recurso básico para mantener la continuidad de la narración. De hecho, la música, especialmente la extradiegética, ha servido a lo largo del tiempo para dotar de continuidad estructural a fragmentos aislados de acontecimientos o secuencias. Por ejemplo, en el sumario o secuencia de montaje (Canet y Prósper, 2009: 256) que está formado por una sucesión de diversos fragmentos de imágenes, la música es esencial para dotar de continuidad y lógica al conjunto (Reisz, 1960: 104). Las transiciones no son solamente elementos visuales, sino también se puede utilizar el sonido como complemento para establecer qué tipo de transición tenemos. 34

Es muy importante la siguiente apreciación de Nieto (1996:118): “Recordemos que la música, con su sola aparición e independientemente de su contenido expresivo, modificará la imagen introduciendo algún elemento dramático o estructural, lo queramos o no. El control de esta faceta de la música lo obtendremos eligiendo cuidadosamente el punto exacto en que ésta debe comenzar.” Efectivamente el momento en que comienza la música, así como el momento en que acaba, resulta determinante para el efecto que producirá y mucho más en el caso de una transición que puede convertirse en un instante privilegiado donde se informe al espectador del desarrollo de la historia precisamente a partir de dar por finalizado un periodo y marcar el comienzo de otro. Además de las funciones decorativas y de relleno, Román (2008: 125-130) distingue varias funciones estructurales: una función unificadora (dar unidad a la película), una función transitiva (dar continuidad en el paso o transición de una secuencia a otra o de un plano a otro), y dos funciones que llama estructuradoras: 1- marcar un cambio de plano o de secuencia, 2- dar continuidad en secuencias que se producen simultáneamente en la historia. Añade la función delimitadora (enmarcar la película completa sirviendo de introducción en los títulos y de final o coda en los créditos). José Nieto es más preciso en cuanto al análisis de la música con el montaje (2003: 56-79), y en particular sobre el papel de la música en su relación temporal: 1- la coarticulación de la música respecto a los diálogos (2003: 56-60) y a la acción (2003: 112-117), 2- la coarticulación de la música respecto a los cambios de plano y de escena, teniendo en cuenta el punto y tipo de inicio, evolución y punto y tipo de conclusión de la música (2003: 60-73).

Continuidad La primera tarea en la postproducción del sonido es la creación de la continuidad a partir del sonido directo y de los ambientes y atmósferas que se añaden. En particular, el cine y el audiovisual convencionales se basan en la creación de escenas a partir de múltiples tomas, siendo el vaivén entre plano y contraplano el ejemplo más general de fragmentación en planos de cualquier escena: el plano y el contraplano se hacen en tomas separadas cuyo sonido hay que homogeneizar para crear un “plano sonoro” que una los diferentes planos. Plano sonoro. El plano sonoro es un plano especial de narración. Determina la situación, ya sea temporal, física o de intención de los distintos sonidos. Hay 4 tipos de planos sonoros:

35

Planos espaciales de narración. Denotan el lugar donde se produce la acción y los cambios que la afectan. Por ejemplo, que se oiga el viento indica que es un sonido captado en exteriores, el piar de los pájaros, puede situarnos ante una imagen sonora campestre, etc. Planos temporales de narración. Un sonido puede situar una determinada acción en el tiempo (pasado, presente, futuro), incluso, intemporalidad (tiempo no definido) y atemporalidad (fuera del tiempo). Por ejemplo, en las ambientaciones futuristas casi siempre se recurre a músicas y efectos sonoros electrónicos. Planos de intención. Como su propio nombre señala, encierran una intencionalidad concreta, es decir, quiere remarcar algo. Los planos de intención, normalmente, suelen situar al oyente ante una introspección:incursión en el sueño o la fantasía, etc. Por ejemplo, en muchos dramáticos (en la época en que aún no había televisión y la gente estaba enganchada a la radionovela), para indicar que un determinado personaje se sumergía en una recreación onírica; se utilizaba un desvanecimento del sonido y algún efecto (unas campanillas o un cascabel). Cuando el sueño había terminado, el sonido volvía a desvanecerse y se escuchaba al personaje/actor desperezarse. Planos de presencia. Indican la distancia aparente (cercanía o lejanía) del sonido con respecto al oyente, situando a éste en lo que llamamos plano principal. La distancia "supuesta" entre la fuente sonora y el oyente se establecen cuatro escalones: 1) Primer plano: es aquel plano sonoro de presencia que sitúa, en profundidad sobre un plano imaginario, a la fuente sonora junto al oyente, es decir, en el plano principal. Algunos autores también lo llaman plano íntimo o primerísimo plano para expresar su fuerza dramática. 2) Plano medio o normal: es aquel plano sonoro de presencia que sitúa, en profundidad sobre un plano imaginario, a la fuente sonora a una distancia prudente de la oyente. De modo, que el sonido resultante, se percibirá como cercano al oyente. Es decir, la fuente está cercana al plano principal, aunque no en él, como en el primer plano. 3) Plano lejano o general: Sitúa a la fuente sonora a cierta distancia del oyente, creando por tanto, gran sensación de profundidad. 4) Plano de fondo o segundo plano: Es un plano sonoro de presencia generado por varios sonidos, distribuidos de modo que unos suenan siempre en la lejanía, con respecto a otros situados en primer término, por ello, se llama también plano de fondo. El segundo plano acentúa la sensación de profundidad con respecto al plano general. Chion habla de linearización temporal de las imágenes por los sonidos (2012, § 22) respecto “al sentimiento de encadenamiento temporal, y que constituye un fenómeno propio del cine sonoro, en virtud del cual, imágenes sucesivas, que, en el cine mudo podrían ser percibidas como vistas diversas, no sucesivas en el tiempo, de un mismo proceso global, adquieren, al ser acompañadas de un sonido realista”. De hecho, la primera tarea en la postproducción de sonido es la homogeneización del sonido diegético (directo, wildtracks y elementos añadidos) para crear la linearización temporal. Chion insiste en este fenómeno indicando que hay un desdoblamiento temporal (2012, §23) ya que el espectador percibe una continuidad en el sonido mientras que los planos visuales indican una discontinuidad (esta opinión de Chion

36

no está basada en ninguna evidencia perceptiva experimental, y puede ser un tema de estudio). Chion también acuña el término de indiscontinuidad o indiscontinuo (2012, §27) para indicar el “sentimiento de continuidad (de tiempo, de acción, de percepción) por medio de su interrupción o de su intermitencia, particularmente sirviéndose de los sonidos.” Encabalgamiento El encabalgamiento ocurre cuando el sonido de una escena se prolonga o se anticipa en otra escena contigua: es un desfase del montaje en el que el sonido cambia en un momento diferente a la imagen. El anticipo del sonido es el tipo de encabalgamiento más frecuente, y consiste en adelantar el sonido de la segunda escena sobre la primera. En general, el encabalgamiento no es total sino que suele ser un elemento el que se anticipa (la voz o algún elemento sonoro significativo), mientras que el sonido ambiente cambia cuando cambia el plano como se ilustra en el gráfico siguiente:

El encabalgamiento de anticipo puede tener varias funciones: ■ condensar el montaje superponiendo elementos de varias escenas ■ crear un enlace semántico introduciendo un elemento sonoro que tiene sentido en dos escenas Condensación Una de las principales funciones del anticipo del sonido es condensar el montaje. Para presentar una escena (o más aún una obra audiovisual), el montaje clásico suele utilizar un primer plano general de situación para indicar dónde transcurre la escena, y luego puede haber varios planos de situación más cerrados para indicar dónde nos

37

situamos dentro del lugar general hasta tener unos planos que se centran en los personajes que llevan la acción. Clásicamente, la acción o los diálogos solo empiezan cuando tenemos un plano que nos presenta a los actores que la llevan a cabo. Si anticipamos el sonido de la acción a los planos iniciales de situación, condensamos el montaje, ya que el espectador está viendo los planos de situación pero al mismo tiempo ya está oyendo los diálogos o la acción sin necesidad de esperar a visualizarla. Además, el anticipo crea un nexo más fuerte entre el plano de situación inicial y el plano final de la acción ya que el sonido nos está indicando que la acción está transcurriendo en ese momento y en ese lugar. En el capítulo 1×03 de la serie House, tenemos un ejemplo clásico de reducción del montaje, con un primer plano general de exterior que nos indica el lugar de la ciudad y el ambiente, y un segundo plano de interior de la habitación del personaje que está hablando. Oímos la voz del personaje desde el plano exterior de situación (o de presentación) con lo que condensamos unos segundos el montaje. El sonido ambiente sólo cambia con el cambio de plano visual.

Enlace narrativo. El anticipo del sonido para crear un encabalgado genera un enlace narrativo, generalmente la escena de donde emana el sonido “influye” en la escena donde se ha superpuesto el sonido encabalgado.

Mezcla, edición y mastering La postproducción de audio engloba todo los procesos posteriores a la grabación. Es decir, tras importar nuestros archivos de audio, decidimos las que vamos a usar y en qué orden. El siguiente paso sería editarlos, cortarlos, nivelarlos, corregir los posibles errores buscando obtener un resultado uniforme. Cuando ya hemos

38

realizado la edición ahora viene el paso de mezcla, que trata de nivelar todo y jugar con los planos para no confundir al oyente. Mezclar es el proceso de combinar todas las bandas de sonido individuales de diálogo, sonido y efectos sonoros en la banda de sonido máster compuesta. Este proceso se realiza en una sala o estudio en la que se proyectan las imágenes de la película sobre una pantalla con un contador de metraje debajo. Por último una vez editado y mezclado vendría el retoque final, la masterización que equilibra y conforma, para así poder escucharlo a un volumen aceptable en cualquier reproductor de audio de nuestro entorno. La masterización busca equilibrar los sonidos puesto que la respuesta de los altavoces de casa no es igual ni parecida a la de nuestro coche. De esta manera el audio no pierde sus propiedades. Diferencia entre mezcla y masterización La diferencia entre mezcla y masterización es uno de los conceptos que más suele confundir, porque son términos que a veces se usan intercambiablemente y porque la línea que divide a ambos procesos puede ser bastante difusa en algunos casos. Empecemos por entender cada proceso: ¿Qué es la mezcla de audio? Es un proceso cuyo objetivo principal es lograr un balance equitativo en el audio. Ya sea este de frecuencias, de niveles, de la ubicación de cada sonido en el panorama estéreo (paneo). Una vez terminada la mezcla tenemos nuestra pieza lista para publicar, a falta del último proceso (el mastering). Durante la mezcla se trabaja con el sonido “en bruto” producto de la grabación, es decir que lo que recibimos son las pistas a las que no se le aplicó ningún proceso previamente y empezamos con una serie de pasos que buscan que todo esté en su lugar y ocupe su espacio adecuadamente. Otra cosa que se trabaja en la mezcla es la aplicación de efectos como reverb, delay, ecos, paneos creativos, etc . La elección de los efectos tiene mucho que ver con el estilo y con lo que busca el editor, productor… La realidad es que una producción musical se empieza a mezclar incluso durante la grabación, puesto que según el micro que usamos ya estamos dándole un matiz e importancia a ese sonido. Esto ya es un proceso de mezcla porque las decisiones las tomamos teniendo en cuenta que cada cosa tenga su lugar y se corresponda con lo que esperamos escuchar. Una grabación donde no se escuche en absoluto la voz y mucho ambiente puede destrozar nuestra mezcla. ¿Qué es la masterización? La masterización es un proceso en el cual se pulen detalles de la mezcla y se llevan a un volumen comercialmente aceptable. La particularidad de la masterización es que durante este proceso se decide también el orden de los clips, la aplicación de fundidos (fades), la inserción de meta-datos necesarios para la identificación de la obra (como los códigos ISRC) y se decide también el espaciado de las canciones (la cantidad de segundos de silencio entre temas). 39

En su origen, la masterización era un proceso que se hacía únicamente para discos completos, sin embargo también se suele masterizar pistas separadas o proyectos de pocas canciones que no van a ser incluidas en un disco. La importancia de la masterización radica en una perspectiva fresca que otorga un control de calidad al proceso de mezcla. Con el nacimiento de la auto-producción y de los discos grabados en condiciones semiprofesionales la masterización se ha vuelto una necesidad puesto que las mezclas requieren casi siempre alguna mejoría para ser aptas para su reproducción satisfactoria en los distintos medios de escucha, sin embargo cabe destacar que tampoco se puede hacer magia con una canción mal mezclada durante la masterización porque los recursos son limitados y no es la idea del proceso. Entonces ¿Cuál es la diferencia entre mezcla y masterización? Haciendo una analogía con la cocina, la mezcla sería el proceso donde una vez ya decidimos que vamos a cocinar procedemos a obtener la materia prima (grabación) para posteriormente desarrollar el paso intermedio donde mezclamos los ingredientes en función de las proporciones (mezcla) para posteriormente darle los retoques finales como ornamentación y presentarlo en el plato (masterización). Señal masterizada y sin masterizar. Para seguir con la analogía, así como podemos comer directamente de una olla podemos mezclar sin masterizar, pero no podemos masterizar sin mezclar. Un estudio de mastering no tiene nada que ver con uno de mezcla, puesto que son equipamientos y propósitos bien distintos.

DISEÑO/DISEÑADOR DE SONIDO En la industria cinematográfica de EEUU, se llama Sound Designer al responsable de la planificación y realización de ciertos sonidos específicos de una película. Walter Murch (originalmente montajista), fue el primero en ser denominado con este título, por su trabajo en la película Apocalypse Now de Francis Ford Coppola, en 1979.1 En este film fue el responsable del montaje y el trabajo meticuloso aplicado a la creación de las bandas de sonido, hizo que el director considerara que había aportado tanto al clima y la historia de la película, que no podía ser llamado solo "sonidista". En ciertas películas esta tarea queda a cargo del sound re-recording mixer o del supervising sound editor. Ya en el campo concreto del mundo cinematográfico anglo-americano, algunos de los más reconocidos diseñadores de sonido (Sound Designers) son Walter Murch, Alan Splet, Gary Rydstrom, Randy Thom, Ben Burtt, Ren Klyce, David Farmer, Richard Beggs, Eugene Gearty, Christipher Scarabosio, Christopher Boyes, Ethan Van der Ryn, Dane A. Davis y Owe Svensson.

40

Director de sonido en cine. En Argentina, el rol de diseñador de sonido es ocupado por el Director de Sonido. Él es el encargado de todo el sonido de una película, con excepción de la música. Entre las tareas que realiza está la de coordinar el trabajo del sonidista y el microfonista (ambos trabajan en la captura de sonido directo durante el rodaje), los editores de diálogos, de ambientes (o atmósferas), de efectos, la grabación de sonorización (foley) y doblajes (ADR), así como también la grabación de ambientes adicionales. Finalmente es quien trabaja en conjunto con el operador de mezcla y el director de la película, decidiendo las cuestiones estéticas, formales, funcionales y espaciales de la película, sin perder de vista los estándares técnicos requeridos. Diseño sonoro. El concepto de Diseño sonoro suele ser utilizado para referirse al acto creativo de sugerir ideas para una obra cinematográfica, televisiva, teatral o multimedia. En esta línea, se suele pensar en el diseñador de sonido, como el creador estético de este elemento narrativo audiovisual. En el significado de la palabra "Diseñador" encontraremos que diseñar se refiere a un proceso que implica Programar, Proyectar, Coordinar, Seleccionar y Organizar una serie de factores y elementos con miras a la realización de objetos. Algunos de estos pueden estar destinados a producir comunicación. Por lo tanto, se puede afirmar que el diseño sonoro es la acción de Programar, Proyectar, Coordinar, Concebir, Seleccionar y Organizar una serie de armados sonoros en función de comunicar una idea, hacer verosímil un espacio virtual y trasmitir determinadas sensaciones al espectador de un producto audiovisual. Es preciso resaltar que este proceso, requiere de consideraciones técnicas, funcionales y estéticas para lograr su cometido. Esto significa que si el registro sonoro durante el rodaje no es bueno, no arribaremos a un buen producto final y el diseño habrá fallado. Si el productor no invierte el dinero necesario para realizar el sonido de una película, el diseño estará limitado. Si en la mezcla final no se entienden los diálogos, el vuelo poético fracasó. Si una película está técnicamente perfecta, cumple con todos los estándares, pero no logró conmover al espectador o sacudirlo de la butaca, hay algo que se desperdició. El Diseño Sonoro de un film debe comenzar con la escritura del guion, ser tenido en cuenta por el director a la hora de transponer la historia al guion cinematográfico, ser cuidado celosamente por el productor y los demás integrantes del equipo de rodaje, comenzar a concretarse en la edición de imagen y concluida por los postproductores de sonido. Todas estas etapas son supervisadas y coordinadas por el director de sonido. Los directores de sonido, más reconocidos de Argentina son Nerio Barberis (actualmente en México), José Luis Diaz, Guido Berenblum, Leandro de Loredo, Martin Grignaschi y Federico Esquerro. En España Marc Sardà, Jaime Aroca y Alex Rocasolano entre otros.

41

42