Apuntes Sonido 1 2016

SONIDO 1 2016 Apuntes de clase de: CÁTEDRA SONIDO 1 DEPARTAMENTO DE ARTES AUDIOVISUALES FACULTAD DE BELLAS ARTES UN

Views 124 Downloads 2 File size 6MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

SONIDO 1

2016

Apuntes de clase de:

CÁTEDRA SONIDO 1 DEPARTAMENTO DE ARTES AUDIOVISUALES

FACULTAD DE BELLAS ARTES

UNLP Autor: José “Pepe” Rusconi Versión 5.1

SONIDO 1

2016

Clase Nº 1 del 4 de abril Facebook: catedraoficialsonido1 El sonidista debe ver cuáles son los mejores sonidos para contar una historia, transmitir emociones, etc.

Página 1 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016 Clase Nº 2 del 8 de abril

Director de Sonido. Es responsable de la totalidad de la banda sonora. 

Guión G / Gestación,



Pre – Producción,



Rodaje,



Post – Producción. Efectos (no son ambientes, ni Foley, ni música. Ej. Motor del auto)

Efectos

  

Ambientes Foley (en las acciones de los personajes) Efectos (no son los ambientes ni los Foley ni la música. Ej. Motor de un auto

El sonido no es lo mismo que el ruido. Ruido

  

Blanco, Rosa, Marrón.

Página 2 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016 Clase Nº 3 del 11 de abril

Equipo Técnico.

Un jefe de sonido va a estar grabando fondos. El Microfonista selecciona los micrófonos que se van a usar. El micrófono principal debe ser el mejor de todos. También suele ser el más caro. Además conviene usar corbateros. Hay que grabar los sonidos de cada micrófono en un canal distinto. Como conviene grabar? En un sistema simple o uno doble? Sistema Simple: La cámara graba imagen y sonido. Esto no quiere decir que se use el micrófono de la cámara. Sistema Doble: La cámara captura imagen y hay un equipo de captura de sonido. Son distintas pero no se puede decir que uno es mejor que el otro. Existen ventajas y desventajas. Página 3 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

En el simple la ventaja es que hay sincro y no es tan caro. La desventaja es que el equipo de sonido depende de la cámara (y, en todo caso, de la buena voluntad del camarógrafo). En el doble, el equipo de sonido, tiene independencia. Hay que evaluar en cada situación que es lo que resulta más práctico. Si se está haciendo una entrevista lo que resulta mejor es el simple. Si fuese una escena donde hay un grupo y se acerca otro personaje, hay que ir al doble. El Cableman es quien tiene que estar atenta a sacar las tarjetas, identificar los sonidos con las escenas, arreglar cables, solucionar ruidos y reemplazar. Pre – Producción Evaluación de locaciones: 

Insonorización (aislación de ruidos extremos)



Acondicionamiento acústico (control de reverberación).

Este tema se analiza y soluciona en las locaciones. Elección y prueba de equipos de sonido y metodología de trabajo. El equipo debe ser probado para saber si anda bien. Se deben probar las cámaras para ver si hacen ruido. Post – Producción. Una película se resuelve en la Post – Producción. Hay que tratar de hacer el rodaje lo mejor posible. Todo lo que deba corregir en la Post –Producción insume tiempo. Page to Page Es la interacción con las distintas áreas para ver las dificultades puntuales a resolver. Edición de diálogos: Se hacen modificaciones para dejar más limpio el texto. La respiración, a excepción de que sea importante como en una película de terror, se elimina. Página 4 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Hay películas que, aunque con ausencia de diálogo, hay mucho sonido. Cuando se hace el casting, o sea, cuando se ven las locaciones, conviene identificar y capturar sonidos.

Página 5 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016 Clase Nº 4 del 18 de Abril

Para que exista sonido, necesito: 1. Cuerpo vibratorio, 2. Medio, 3. Receptor (en la percepción hay un actor interpretativo). Se dice que cuando se encuadra se esconde. Esto es porque se deja fuera de cuadro a muchas cosas. En el sonido es diferente, no se puede esconder. No todo lo que vibra es sonido ni todo sonido es vibración. El rango que puede escuchar el oído humano se llama espectro audible. El espectro audible del ser humano va desde las 20 a las 20.000 vibraciones por segundo. Hay micrófonos que son hidrófugos para gravar debajo del agua. En toda vibración hay un uso de energía. Intensidad, volumen, nivel y sonoridad son sinónimos. Pero luego vamos a ver que este último concepto es diferente. Entender que el sonido es un conjunto de vibraciones nos permite entender cómo debo grabarlo. El oscilograma es un gráfico que muestra las vibraciones. Cuando se golpea una pared se produce un sonido porque se mueven las partes que lo componen. Lo hacen en forma ondulatoria. Onda Senoidal o Sinusoidal

Página 6 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

La frecuencia es cuantas veces se repite el mismo evento en una cantidad X de tiempo. En el sonido, cuantas vibraciones por segundo. Herts estudia esto. Una vibración por seg. = 1 Hz 20.000 vibraciones x seg. = 20.000 Hz o, 20 KHz.

La amplitud es la máxima elongación de la onda sinusoidal. La sonoridad es la sensación de volumen recibida. El volumen es la cantidad de energía necesaria para llenar un recinto. El nivel de señal se mide con instrumentos. La sonoridad no. La frecuencia va asociada a la tonalidad (agudos, medios y graves). Cuando más cerca de los 20 Hz, más graves. Si más cerca de los 20 KHz, más agudos. En la zona media escuchamos mejor. El ruido son todas las frecuencias del espectro en simultáneo. O sea, sonando al unísono. El largo de un ciclo, la longitud de onda, va relacionada con el ciclo. Los sonidos graves son de onda larga y los agudos de onda corta. Los graves son capaces de pasar una pared normal porque la longitud de onda es más ancha que la pared... SONIDOS SIMPLES Y COMPUESTOS O COMPLEJOS. El compuesto tiene varias frecuencias. Página 7 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Si por ej., f= 100 Hz, 200 Hz, 215 Hz. Todos juntos forman un sonido complejo donde, la menor de las frecuencias es el sonido fundamental. Es el patrón organizativo del conjunto y define las tonalidades. Todos los múltiplos de la fundamental se llaman armónicos. Los que no son múltiplos son inarmónicos o parciales. Los sonidos tienen fundamentales, un conjunto de armónicos y un grupo de inarmónicos. Para medir la fundamental se debe hacer con instrumentos de medición.

Página 8 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016 Clase Nº 5 del 25 de abril

El sonido es aire en movimiento. Escuchamos entre los 20 Hz y 20 KHz. Se propaga en todas las direcciones. Interactúa con todos los objetos que están dentro del recinto en que se produce. REFLEXIÓN.

El espectro de sonido tiene tres tipos de ondas. Las ondas cortas que terminan primero, las medias que duran un poca más y las largan que son las que más lejos llegan. Página 9 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Si tengo un material más ancho que la longitud de onda podría aislarlo. Pero las ondas largas pueden tener longitudes de, por ej. 20 mts. La reflexión podría llamarse rebote pero la llamaremos reverberación. Esto es la sumatoria del sonido directo más las reflexiones. Las reflexiones, como rebotan, llegan más tarde a la persona que el directo. Se puede hacer que la reverberación llegue después mediante el uso de un software. En una iglesia católica se producen muchas reverberaciones. Aquí se pueden hacer dos cosas. Planos cerrados para poner el micrófono muy cerca o recurrir al doblaje. La reverberación es el sonido directo más sus reflexiones. El eco no es la reverberación. Cundo el tiempo de reflejo es mayor a 30 milisegundos escuchamos dos sonidos, esto es el eco. Otra forma de decirlo es la siguiente, si la distancia donde rebota el sonido es a 20 mts o más, esto se llama eco. Efecto Hz es la frontera entre eco y reverberancia. Al ECO también se lo llama DELAY. Puede suceder que no se escuche el eco porque otras fuentes de audio lo enmascaran. El efecto doppler es otra cosa. De Google: El efecto Doppler es la variación de la frecuencia de una onda producida por un móvil respecto de un receptor estático o en movimiento. Es utilizado para medir flujos sanguíneos en medicina (ecografía Doppler), movimientos de expansión de galaxias en astronomía (cambios Doppler) e incluso velocidades de vehículos*. (*) El efecto Doppler es la base física sobre la que funcionan los radares de velocidad, denominados radares Doppler. DIFRACCIÓN Los sonidos rodean los objetos. Página 10 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

FASE. Es el tiempo en que tarda un sonido para llegar a un lugar.

Si dos sonidos describen los mismos movimientos, aumenta el nivel.

Página 11 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Lo que sucede normalmente es una mezcla. En la grabación tengo que preocuparme por hacerlo lo mejor posible. En la post producción se deberán alinear los sonidos. Pero esto solo lo puedo hacer hasta con dos elementos.

Página 12 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

SONIDOS SIMPLES Y COMPLEJOS

Timbre es un súper concepto. Para definir timbre hay que definir armonicidad, impresión espectral y definición auditiva. Los sonidistas corrigen los sonidos a partir de los espectrogramas. Es fundamentar verificar que las locaciones permitan un buen sonido. DEFINICIÓN AUDITIVA. El sistema auditivo puede entender cierta cantidad de sonidos. CADENA DE AUDIO. (O CADENA ELECTROACÚSTICA DE AUDIO) 

Micrófonos.



Conductores.



Accesorios.



Pre amplificadores / Mezcla.



Grabadores.



Monitoreo.

El sonido que se produce en un recinto hay que almacenarlo (a este aire en movimiento). Estos dispositivos se llaman transductores. El micrófono convierte energía acústica en eléctrica. El parlante la inversa, eléctrica en acústica.

Página 13 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Micrófonos: Hay muchos, pero lo que hacen es transformar energía acústica en eléctrica. La diferencia está en cómo lo hace. Todos los dispositivos de la cadena distorsionan. PROPIEDADES O PARÁMETROS DE LOS MICRÓFONOS. 1. Sensibilidad:

Como

responde

ante

los

mínimos

estímulos

provocando energía. Para un bombo de la batería necesito de baja sensibilidad. Para voces, de media. Los micrófonos traen una sensibilidad de fábrica. No son alterables y se miden en voltios. 2. Respuesta en frecuencia: La representación que hace el micrófono del espectro auditivo como todos los dispositivos de la cadena.

Denominamos respuesta en frecuencia a la reacción de un dispositivo de audio frente a las distintas frecuencias que componen el espectro de audio (20 a 20.000 Hz). Todos los dispositivos de audio cumplen una función determinada, los micrófonos recogen vibraciones acústicas y las convierten en señales eléctricas (que igualmente tendrán módulo, fase y frecuencia). Los altavoces convierten señales eléctricas en vibraciones acústicas. Todos los dispositivos manejan frecuencias de audio, pero no reaccionan igual ante todas las frecuencias. De igual forma que el oído humano no escucha igual todas las frecuencias, los micrófonos tampoco, ni los amplificadores trabajan igual con todas igual, ni los altavoces son capaces de reproducir todas las frecuencias por igual. Esta última es la razón por la que en la mayoría de los equipos domésticos, hay por lo menos dos altavoces distintos por caja. Uno para reproducir las frecuencias graves y otro para reproducir las frecuencias altas. Estas variaciones de respuesta conforme varía la frecuencia se miden en dB (decibelios) y se pueden representar gráficamente. La retícula sobre la que se suelen representar es la escala logarítmica en el eje horizontal (frecuencia) y lineal en el vertical (dB). En el eje horizontal se representan las frecuencias de forma logarítmica (similar a como el oído escucha). La primera frecuencia marcada es la de 100 Hz, la marca anterior será la de 90 y la siguiente la de 200 Hz, la siguiente de 300 Hz... y así hasta llegar a 1.0 K que son 1000 Hz. La siguiente marca será de 2000 Hz. y así hasta 20.000 Hz. En este caso se representa el espectro desde 90 Hz. a más 20.000 Hz, pero el rango de frecuencias que se tome variará según las necesidades. Si por ejemplo se representa la respuesta en frecuencia de un altavoz de graves, la gráfica deberá empezar en 20 Hz. y no será necesario que se extienda a más 1.000 o 2.000 Hz. En el eje vertical se encuentran las variaciones de nivel expresadas en dB (10 Log (medida/medida de referencia)), en esta representación cada salto es de 6 dB, pero las representaciones pueden variar según el grado de definición.

Página 14 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

3. Direccionalidad o diagrama polar: Es el ángulo de captación. Hay veces que necesito un micrófono que tenga ángulo de captación cerrado.

Clase Nº 6 del 2 de mayo CADENA DE AUDIO. Es la cadena de los elementos que sirven para captar el sonido y almacenarlo. Los micrófonos: que no están puestos en cualquier lugar. A veces lo acompañan accesorios como el peludo. Los conductores: los que son balanceados no son permeables a captar cosas diferentes a las que transportan. La característica es que en los extremos van conectores XLR. El mezclador: administra las entradas y salidas. Los lugares donde se conectan los micrófonos son amplificadores. No permiten que la señal que lega se contamine. Le dan al sonido mayor contenido armónico. En realidad lo contaminan pero positivamente. Inventa armónicos. En cualquier equipo que conecta un micrófono hay un pre. Página 15 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

La caña debe cubrir a todos los actores y cada uno debe tener un corbatero. Cuando un actor viene caminando la caña no lo cubrirá a excepción de que haya una segunda caña. Ambiente: En una película no es el sonido del rodaje, es una construcción. No es el fondo (roomtone). Si se está grabando en un bar, solo hablan los actores. Luego hacemos hablar a los extras. También debo tener en cuenta el lugar y la época porque sonará distinto. En el rodaje grabo ambiente, no fondo. El ambiente es una construcción planificada.

PARÁMETROS DE LOS MICRÓFONOS. El micrófono debe3 recibir el fanton power. También se le puede poner una pila especial. Se usa la pila o el fanton. No los dos porque, seguramente, se quemará por un exceso de energía. Para elegir un micrófono siempre se debe tener en cuenta tres factores: 1. sensibilidad, 2. respuesta en frecuencia, 3. direccionalidad – diagrama polar. Se usan auriculares de respuesta plana. Los comunes no sirven porque inventan sonidos que no existen. La respuesta en frecuencia debe tener entre los 20 Hz y los 20.000 Hz. El corbatero tiene una cápsula omnidireccional. De lo contrario, al girar la cabeza, no tomaría el sonido.

Página 16 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

LA CLAQUETA. La orden: luz, cámara, acción es propia del cine mudo. Hoy comienza con la orden “sonido” y la contestación es “graba” o “anda”. Se debe indicar: escena, plano y toma. La claqueta abierta indica que en la escena habrá sonido. La orden completa sería: sonido – graba o anda – Se muestra la claqueta con escena/plano/toma – cámara – corre – se cierra la claqueta – acción – corte. Si por algún problema se corta, se retoma y se cambia el Nº de la toma. AUDIO DIGITAL El audio siempre es analógico. Lo digital son las tecnologías que me permiten almacenar y procesar el sonido. Es capturar atributos de las cosas y no las cosas en sí. Así los puedo replicar sin necesidad de llevar lo que tengo que replicar. Representar el Es más fácil sonido por medio almacenar estos de Nº Nº que la magnitud que estos representan.

Se utilizan algoritmos para realizar todos los procesos conocidos en el audio digital.

Se evita la degradación o causa del ruido analógico.

Cuando se copiaba un casete, pasaba muchos ruidos. En el digital, pocos atributos. Hay procesos que son destructivos y que no se pueden arreglar.

Página 17 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016 Clase Nº 6 del 2 de mayo

Cadena de Audio Micrófonos:

Página 18 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

En la cadena de los elementos que sirven para capar el sonido y almacenarlo, los micrófonos no están puestos en cualquier lugar. A veces los acompañan accesorios como el peludo.

Conductores: Los balanceados no son permeables s captar cosas diferentes a las que transportan. La característica es que en los extremos van conectores XLR. Mezcladores:

Son para administrar las entradas y las salidas.

Preamplificadores:

Página 19 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

A estos se conectan los micrófonos. Son para que la señal que llega no se contamine. Les

dan

al

sonido

mayor

contenido

armónico.

Lo

contaminan

positivamente. Inventa armónicos. En cualquier equipo en que se conecte un micrófono, hay un pre.

Caña:

La caña debe cubrir a todos y cada uno debe tener un corbatero excepto que el actor venga caminando donde solo tendrá el corbatero.

Página 20 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Sonido ambiente: En una película, no es el sonido del rodaje, es una construcción. No es el fondo (roomtone). Si se está grabando en un bar, solo hablan los actores. Luego hacemos hablar a los extras. También debo ver en qué lugar y época porque sonará distinto. En el rodaje grabo ambiente no fondo. El ambiente es una construcción planificada. Parámetros de los micrófonos. El micrófono debe recibir el fantonpawer. También se le puede poner una pila especial. Se usa uno u otro, no los dos porque seguramente se quemará.

Parámetros: 1. Sensibilidad 2. Respuesta en frecuencia 3. Direccionalidad – diagrama polar Se usan auriculares de respuesta plana. No puede ser uno común está inventando cosas que el sonido no tiene. La respuesta en frecuencia debe tomar entre los 20 Hz y los 20.000 Hz. El corbatero tiene una cápsula omni, de los contrario, al girar la cabeza, no tomaría el sonido.

Página 21 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

La claqueta.

Cuando se decía “Luz, cámara, acción”, esto era propio del cine mudo. Hoy se dice “sonido” y, cuando graba, se le contesta “graba”. La claqueta abierta indica que hay sonido. Esta indicará escena, plano y toma. Los pasos son los siguientes: Sonido, graba, claqueta, cámara, corre, cierra claqueta, acción, corte Si por algún problema hay que cortar, se retoma y cambia el Nº de toma.

AUDIO DIGITAL El audio siempre es analógico. Digital son las tecnologías que permiten almacenar y procesar el sonido. En digital es capturar los atributos de las cosas y no las cosas en sí. Así puedo replicar sin llevar lo que quiero replicar.

Página 22 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1 Representar el Es más fácil sonido por medio almacenar Nº de Nº que la magnitud que este representa.

Se usan algoritmos para reflejar todos los procesos conocidos en el audio original.

2016 Se evita la degradación o causa del ruido analógico.

Cuando se grababa un casete pasaba mucho ruido. En lo digital no porque solo son atributos. Hay procesos que son destructivos que no se puede arreglar.

Página 23 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016 Clase Nº 7 del 16 de mayo

AUDIO DIGITAL Técnicas para poder almacenar y técnicas para poder procesar. Digital viene de dígitos. Sonido que se convierte en Nº. En lo digital, guardo atributos de algo en lugar de almacenar ese algo. Los Nº utilizados son del sistema binario, no decimal. Lo digital es una representación y, para que sea buena, debe existir un código. Los que producen los cambios son los algoritmos. Cuando mejor o más potentes estos, mejores resultados. La degradación. En lo analógico, cuando se hacen copias, se va perdiendo calidad. En lo analógico no porque no se copian las cosas, se copian sus atributos. Diferencias entre analógico y digital. Los analógicos graban sobre cintas. El acceso a la información es lineal. Esto es que se tiene que pasar por todo lo anterior antes de llegar al lugar buscado. Los dispositivos digitales son linealesy no lineales. DAT es una tecnología que muchos creen que es la vigente pero ya no. Hoy los soportes son no lineales. Antes, cuando había reproductor y grabador, la edición era más fácil que cuando solo se tenía uno. Era física, se cortaba. Las ediciones son destructivas. Pero en los procesos digitales, también puede haber destrucción.

MUESTREO Como es que algo analógico lo convierto en digital? Página 24 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Todos los equipos tienen un conversor analógico-digital y digitalanalógico. En el muestreo se toman muestras a intervalos regulares de tiempo.

Cuanto más muestras tomo, mejor.

Teorema de Nyquist – Shannon Una señal analógica puede ser reconstruida, sin error, con muestras tomadas en iguales intervalos de tiempo. La razón del muestreo debe ser igual o mayor, al doble de un ancho de banda de la señal analógica. El ingeniero sueco Harry Nyquist formuló el siguiente teorema para obtener una grabación digital de calidad: “La frecuencia de muestreo mínima requerida para realizar una grabación digital de calidad, debe ser igual al doble de la frecuencia de audio de la señal analógica que se pretenda digitalizar y grabar”. Este teorema recibe también el nombre de “Condición de Nyquist”. Es decir, que la tasa de muestreo se debe realizar, al menos, al doble de la frecuencia de los sonidos más agudos que puede captar el oído humano que son 20 mil hertz por segundo (20 kHz). Por ese motivo se escogió la frecuencia de 44,1 kHz como tasa de muestreo para obtener “calidad de CD”, pues al ser un poco más del doble de 20 kHz, incluye las frecuencias más altas que el sentido del oído puede captar. El teorema trata con el muestreo, que no debe ser confundido o asociado con la cuantificación, proceso que sigue al de muestreo en la digitalización de una señal y que, al contrario del Página 25 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

muestreo, no es reversible (se produce una pérdida de información en el proceso de cuantificación, incluso en el caso ideal teórico, que se traduce en una distorsión conocida como error o ruido de cuantificación y que establece un límite teórico superior a la relación señalruido). Dicho de otro modo, desde el punto de vista del teorema, las muestras discretas de una señal son valores exactos que aún no han sufrido redondeo o truncamiento alguno sobre una precisión determinada, esto es, aún no han sido cuantificadas. El teorema demuestra que la reconstrucción exacta de una señal periódica continua en banda base a partir de sus muestras es matemáticamente posible si la señal está limitada en banda y la tasa de muestreo es superior al doble de su ancho de banda. TEOREMA DE NYSQUIST Desarrollado por H. Nyquist, quien afirmaba que una señal analógica puede ser reconstruida, sin error, de muestras tomadas en iguales intervalos de tiempo. La razón de muestreo debe ser igual, o mayor, al doble de su ancho de banda de la señal analógica”. La teoría del muestreo define que para una señal de ancho de banda limitado, la frecuencia de muestreo, fm, debe ser mayor que dos veces su ancho de banda [B] medida en Hertz [Hz].fm > 2·B. Supongamos que la señal a ser digitalizada es la voz…el ancho de banda de la voz es de 4,000 Hz aproximadamente. Entonces, su razón de muestreo será 2*B= 2*(4,000 Hz), es igual a 8000 Hz, equivalente a 8,000 muestras por segundo (1/8000). Entonces la razón de muestreo de la voz debe ser de al menos 8000 Hz, para que pueda regenerarse sin error. La frecuencia 2*B es llamada la razón de muestreo de Nyquist. La mitad de su valor, es llamada algunas veces la frecuencia de Nyquist. El teorema de muestreo fue desarrollado en 1928 por Nyquist y probado matemáticamente por Claude Shannon en 1949.

Ejemplos prácticos: El en área de la MÚSICA, a veces es necesario convertir material analógico [en acetato, casetes, cintas magnéticas, etc] a formato digital [en CD, DVD]. Los ingenieros de sonido pueden definir el rango de frecuencia de interés. Como resultado, los filtros analógicos son algunas veces usados para remover los componentes de frecuencias fuera del rango de interés antes de que la señal sea muestreada. Página 26 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Por ejemplo, el oído humano puede detectar sonidos en el rango de frecuencias de 20 Hz a 20 KHz. De acuerdo al teorema de muestreo, uno puede muestrear la señal al menos a 40 KHz para reconstruir la señal de sonido aceptable al oído humano. Los componentes más arriba de 40 KHz no podrán ser detectados y podrían contaminar la señal. Estos componentes arriba de los 40 KHz son removidos a través de filtros pasa banda o filtros pasa bajas. Algunos de las razones de muestreos utilizadas para grabar música digital son las siguientes: Razón de muestreo/ Frecuencia de Nyquist 22,050 kHz = 11,025 kHz (Nyquist) 24,000 kHz = 12,000 kHz 30,000 kHz = 15,000 kHz 44,100 kHz = 22,050 kHz 48,000 kHz = 24,000 kHz Es muy importante tomar en consideración que la frecuencia más alta del material de audio será grabada. Si la frecuencia de 14,080 Hz es grabada, una razón de muestreo de 44.1 kHz deberá ser la opción elegida. 14,080 Hz cae dentro del rango de Nyquist de 44.1 kHz el cual es 22.05 kHz. La razón de muestreo elegida determina el ancho de banda del audio de la grabadora usada. Considerando que el rango del oído es de 20 Hz a 20 kHz, una razón de muestreo de 44.1 kHz teóricamente deberá satisfacer las necesidades de audio.

FRECUENCIA DEL MUESTREO Y RESOLUCIONES. Relaciona frecuencia de muestreo con respuesta en frecuencia (pregunta de parcial). Ref.: capacidad que tienen los dispositivos de interpretar el espectro.

Página 27 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

X: amplitud, y: tiempo El rango dinámico no es volumen. Cuando más grande la resolución, mejora el rango dinámico. El rango determina la escala de nivel (como los escalones de una escalera).

Página 28 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016 Clase Nº 8 del 23 de mayo

Vamos a trabajar en 24 bits.

De Google: Rango dinámico y frecuencia de muestreo Para empezar a trabajar mediante plataformas virtuales de edición y mezcla de audio es necesario que aprendamos las características básicas de las señales digitales ya que esto va a marcar la diferencia en cuanto a calidad de audio. Comencemos por definir de manera empírica lo que es el Audio. ¿Qué es? ¿Por qué escuchamos un sonido? Como todos sabemos de una u otra forma, el audio es la representación eléctrica de una onda sonora. Entonces ¿qué es el audio digital? Es la representación digital de una señal de audio, captada por un convertidor analógico-digital y transformado en unos y ceros. La fidelidad de la representación digital de una forma analógica, depende entonces de la cantidad de información captada y es medible, entre otras características, por la famosa resolución en bits (bit depth) y la frecuencia de muestreo (sample rate).

Figura 14. Señal análoga y digital

La resolución en bits no define la "calidad" de audio por sí sola. Los BITS nos hablan sobre la cantidad de INFORMACION (¡la que sea!) que se capturará en un dispositivo por unidad de tiempo, definida por la frecuencia de muestreo. Página 29 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Entonces, una mayor frecuencia de Muestreo, considerando que aquí estamos hablando del rango de frecuencias que capta el oído humano (y un sistema de grabación) SI nos habla directamente del contenido musical/armónico de una señal, por lo que mientras más alta sea, más frecuencias y sus armónicos y sub. Armónicos capturará nuestro conversor.

Bits Un Bit es la unidad más elemental de un sistema digital. Su valor puede ser únicamente 1 ó 0 y corresponde a un voltaje en un circuito electrónico. Los BITS son usados para representar valores en el sistema binario los cuales en el mundo digital del sampling, son usados para representar los valores de los sonidos muestreados. En el mundo del audio digital, entonces la Resolución en Bits de un sistema es descrita como su exactitud potencial para representar una onda de audio grabada o procesada por unidad de tiempo. Cada bit representa incrementar en 6 dB el rango dinámico de nuestra señal, por lo que 16 bits representan 96 dB. 24 Bits representa la posibilidad de grabar con un rango dinámico de 144 dB. Siendo un cálculo basado en una potencia de 2, es decir 2^n, cada BIT aumentado en una resolución DUPLICA la resolución anterior, por lo que 17 bits son el doble de la resolución a 16, 18 representa 4 veces y 20 bits son 16 veces más que una resolución a 16. ¿Adivinen cuántas veces más son 32 bits contra 16 bits ? = ¡¡ 65,536 veces !! 1.bit =2^1 = 2 valores (0 y 1) 2.bits = 2^2 = 4 valores (00, 01, 10, 11) 3.bits = 2^3 = 8 valores (000, 001, 010, 011, 100, 101, 110, 111) 4.bits = 16 valores .... 5.bits = 32 valores .... Página 30 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

6.bits = 64 valores..... 16 bits = 2^16 = 65,536 valores Y entonces, ¡cuál es la diferencia entre 16 y 24 bits? ¿solo 8 bits? no... hagan el cálculo... 24 bits = 2^24 = 16,777,216… o sea, se captan 256 veces más datos a 24 que a 16 bits. Así que la cantidad de información muestreada por sample (porción / muestra) es más que significativamente mayor a 24 y a 32 bits, que a 16 y por ende nuestras grabaciones tendrán más fidelidad.

Frecuencia de Muestreo Como base teórica, tomemos que el oído humano tiene un rango de escucha a frecuencias de entre 20 y 20 mil Hertz. La frecuencia de muestreo (medida en Hertz) determina el límite máximo de ancho de banda de audio a ser digitalizado (es decir, el espacio en que acomodarás los datos) y el número de bits en cada sample determina el rango dinámico teórico MÁXIMO a pesar de la frecuencia de muestreo (es decir, la calidad o resolución de cómo se graban los datos). Cuando los conversores analógico/digital codifican una señal de audio, lo hacen a una determinada velocidad. Imaginen una película de cine, que toma fotografías a cierta velocidad. Al reproducir las fotografías (samples), se verá el movimiento (sonido). La velocidad es la frecuencia de muestreo (sample rate), que será determinada por cantidad de muestras ("fotos") por segundo. Recordemos, que Hertz es una unidad que representa ciclos por segundo. Por ejemplo: los cd estándar tienen un frecuencia de muestreo de 44100 hz lo que significa que toman 44100 muestras del sonido en cada segundo.

Página 31 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Esta velocidad determina cuál es la frecuencia más aguda que se puede muestrear... ¿cómo?

Teorema de NyQuist Para reproducir una señal tiene que haber un valor positivo y otro negativo (o sea 2 samples, al menos). La Teoría de NyQuist dice que la frecuencia MAS AGUDA que será capaz de codificar o reproducir un conversor es LA MITAD DE SU FRECUENCIA DE MUESTREO (porque necesita 2 samples...) Es decir: A 44.1 Khz., la frecuencia más aguda que podré grabar es 22.05 Khz. (límite del oído humano). A 96 Khz., la frecuencia más aguda será 48 Khz. A 22.05 Khz. la frecuencia será 11 Khz. (se notará mucho la pérdida de agudos). Entonces: Frecuencia de NyQuist (más aguda) = 1/2 frecuencia de muestreo (sample rate) Ah, sí, un Sample es un número que indica la amplitud de una onda de audio medida sobre el tiempo, por lo que la frecuencia de muestreo es el número de samples (muestras) por segundo usadas para guardar un sonido.

Figura 15. Audio digitalizado

Rango Dinámico o Dynamic Range Página 32 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Una definición rápida y que no causa mucha polémica del "Rango Dinámico" es aquel nivel de señal que un sistema puede soportar SIN generar distorsión cuando hablamos de un aparato que grabe o reproduzca audio. Formalmente, el Rango Dinámico describe la relación entre el sonido más suave comparado contra el más alto de un instrumento o señal electrónica y también es medido en decibeles (dB). Podemos ahora comentar que por cada bit que se aumente de resolución, se incrementa en 6 dB el Rango Dinámico, por lo cual con una resolución de 16 bits, la relación señal/ruido es de 96 dB. Entonces, incrementar la resolución en bits nos aumentaría también el rango dinámico, es decir, alejando la señal deseada del piso del ruido, lo que resulta en una grabación más limpia. El Dynamic range es usado en el equipo de audio para indicar la salida máxima de un equipo y para medir su "noise floor" (ruido de fondo). Como referencia, el rango dinámico del oído humano es de alrededor 120 db.

Profundidad de bits y Frecuencia de Muestreo Por Sergio Patiño

¿Por qué no más de 24 bits ni 48 KHz? Si tuvieras un automóvil VW sedan y nos dijeran que alcanza 250 Km por hora ¿lo manejarías a esa velocidad? Existen un millón de argumentos para no hacerlo pero todo se resume a una sencilla razón y es que no está equipado para desarrollar esa velocidad, lo mismo ocurre con nuestras interfaces o placas de sonido que nos ofrecen 32 bits y 192 KHz pues no están equipadas para manejar estas altísimas resoluciones. Para explicar esto voy a dividir el tema en dos grandes puntos: profundidad de bits ( bit depth o wordlength ) y frecuencia de muestreo ( sample rate ). Lo primero que debemos considerar es que nuestras placas de sonido o interfaces son en realidad convertidores analógico/digital/analógico y en términos simples lo que hacen es convertir el sonido a datos ( bytes ) para poderlos procesar en nuestras computadoras y después los regresan de datos a sonido para que los podamos escuchar. Al sonido, como a cualquier otra cosa, para representarlo en términos digitales se le debe asignar un tamaño de muestra ( bits, cada 8 de estos conforman un byte ) y un número de muestras por segundo ( Hertz ). Profundidad de Bits Página 33 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Lo que la profundidad de bits nos dice es: de qué tamaño será cada una de las muestras, entre mayor sea el tamaño de muestra mayor cantidad de información podremos tener de cada una y lógicamente nuestros archivos también serán más grandes. Las diferentes profundidades que encontramos en audio son: 8, 16, 20, 24, 32 y 64 bits. Si tenemos 24 bits para cada muestra ¿qué pasará al llegar al bit número 25? Cuando rebasamos el número de espacios asignados para definir nuestra muestra (wordlength) significa que ya no hay manera de interpretar datos para generar sonido y lo que obtenemos es lo que se conoce como ‘cama de ruido' a este fenómeno en el que se crea ruido por ‘indefinición', porque ya no tenemos manera de expresar algo más allá del número de bits asignado y se le llama ‘truncado de muestra'. En términos prácticos esto es el ‘Hiss' y es equivalente al ruido que encontramos en una cinta analógica, la diferencia es que en un entorno analógico el ruido es producido por la fricción entre la cinta y la cabeza lectora mientras que en el entorno digital el ruido es producto del ya mencionado truncado de muestra o wordlength truncation . Y entre más bits de wordlength tengamos la cama de ruido estará más abajo en volumen. De esto también se desprende el que entre más bits haya en el wordlength la información adicional que podemos captar corresponderá a la parte más tenue del sonido. A este fenómeno se le conoce como ‘rango señal a ruido' o signal to noise ratio El volumen lo expresamos en deciBeles (dB) y contrario a lo que pudiéramos pensar esta medida no corresponde a volumen sino a presión (fuerza sobre una superficie), en el caso particular del sonido nos referimos a la presión del aire sobre nuestros oídos y se abrevian dBSPL (en inglés deciBels Sound Pressure Level ) y sus valores van de 0 hacia (infinito). A su vez los aparatos de audio tienen su propia manera de ‘medir' el volumen y lo hacen a partir de 0 como valor máximo hacia - o donde empiece la cama de ruido del sistema y siempre en números negativos, esto representa el voltaje necesario para producir un cierto volumen o mejor dicho una cierta potencia; estos valores corresponden a los deciBeles de escala completa o dBFS ( deciBels Full Scale ). Dentro de nuestro tema los dBFS son lo que nos interesan pues así podemos calcular la cama de ruido para cada profundidad de bits así como algunas aproximaciones para entornos analógicos. En sistemas analógicos la cama de ruido es variable y en el entorno digital la cama de ruido es exacta. Así obtenemos la siguiente tabla:

Página 34 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Debemos tener en cuenta que estos son valores teóricos, debido a muchísimos factores en la práctica en un convertidor profesional de mínimo 5,000 dls. el valor más bajo está alrededor de -127 dBFS para 24 bits. Como podemos ver el término ‘profundidad de bits' es debido a que los dBs van hacia abajo. Hasta ahora entre más profundidad de bits mejor pero las cosas se complican cuando tenemos que llevar nuestras grabaciones o masterizaciones a un medio de menor resolución, como lo dice la tabla si establecemos una profundidad de 24 bits o grabamos en un DAT y su destino es un CD entonces al terminar debemos ‘bajar' el sonido resultante a 16 bits el problema que esto representa se ilustra en el siguiente ejemplo: Si dividimos el número 23 entre 7 el cociente será 3.28, ahora, digamos que solo tenemos dos dígitos para expresar este cociente. La manera más sencilla sería truncar el número a 3.2 pero nos quedaríamos lejos del valor real, lo correcto sería redondear la cantidad y así obtenemos 3.3 que está mucho más cerca del cociente en cuestión.

Página 35 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Supongamos ahora que los tres dígitos de 3.28 corresponden a un wordlength de 24 bits y los dos dígitos corresponden a un wordlength de 16 bits, al truncar el número a 3.2 nos estamos perdiendo una parte de la información y necesitaremos redondearla para obtener una mejor aproximación, regresando a nuestro tema, en el audio lo que se utiliza para ‘redondear' la información es conocido como dither que mediante la introducción de una señal aleatoria (ruido) hace un promedio con la información ‘enterrada' en el ruido del truncado y ‘rescata' parte de esa información, luego, para terminar de ‘redondear' se utiliza el noiseshaping el cual introduce a la señal un ruido controlado y difícil de escuchar para el oído humano para ‘enmascarar' el ruido restante del truncado. Cada vez que tenemos que bajar de profundidad de bits ( downsampling ) debemos realizar este proceso pero como todo en este mundo lo bueno cuesta y aunque tengamos 24, 32 o incluso 64 bits como nos lo ofrecen los fabricantes debemos contar con un muy buen dither y noiseshaping que además de su elevado costo debemos tomar en cuenta que los detalles que nos ofrecen las resoluciones de 24 y 32 bits se encuentran, como ya dijimos, en la parte más tenue del sonido a la que no somos muy sensibles. Si por el contrario tenemos el número del ejemplo, 3.3 (16 bits) y lo queremos regresar a los 3 dígitos (24 bits) no sabemos si provino de un 3.32 o de un 3.29 por lo que lo único que podemos hacer es agregarle ceros, 3.30 los cuales no tienen ningún significado en cuanto a información hasta que a ese 3.30 se le aplique algún proceso en el que se ‘llenen' esos ceros y al regresar a 16 bits necesitaremos usar de nuevo el dither por lo que así como su explicación se convierte en un ir y venir de ruido. En conclusión, si no tienes un estudio profesional grabar o masterizar en 24 bits sin un buen dither y noiseshaping quedará igual o peor que hacerlo directamente en 16. En los estudios grandes se procesa el sonido en 24, 32 y 64 bits punto flotante y utilizan incluso módulos específicos de dithering y NS pero para un estudio casero sin el monitoreo y acústica apropiados no vale la pena gastar en placas que nos ofrecen tal profundidad. Frecuencia de Resolución Este es el otro componente crucial del dominio digital pero ¿qué significa 44.1, 48, 96 y 192 KHz? En términos sencillos esto quiere decir cuántas muestras se podrán analizar por segundo, si tenemos una profundidad de 24 bits a 48 KHz (que es la resolución de un DAT) significa que podremos procesar 48000 muestras por segundo de 24 bits cada una, entre mayor sea la frecuencia de muestreo mayor número de muestras tendremos y por consiguiente podremos analizar a mayor detalle. Hasta ahora como en el caso de la profundidad de bits entre mayor resolución tengamos mejor pero en nuestro caso no es así y es aquí donde vamos a resolver el mito de las altísimas frecuencias de muestreo que no nos dan un beneficio y sin embargo entre mayor resolución mayor costo para nosotros. La primera razón es la limitación de la frecuencia más alta para analizar: Cómo sabemos el sonido también posee frecuencias y por supuesto esta también se mide en Hertz (Hz). La frecuencia se define en términos sencillos como el número de ciclos completos por segundo que ocurren (un periodo positivo y uno negativo), veamos la siguiente figura. Página 36 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

La línea horizontal del medio representa tiempo, en este caso fracciones de segundo, los rectángulos representan una muestra de una resolución de supongamos 48 KHz, dentro de cada cuadro encontramos la fase positiva de una onda y en el siguiente la fase negativa de la misma onda, ahora haciendo aritmética sencilla podemos notar que necesitamos dos muestras (rectángulos) para analizar la onda completa (fase positiva y negativa) por tanto podemos concluir que la frecuencia más alta que podemos analizar en un muestreo de 48 KHz es 24 KHz esto debido a que separar una onda es sus componentes positivo y negativo es el tamaño más grande que podemos analizar; así obtenemos las siguiente imagen:

Si tuvieramos una frecuencia de 48 KHz para analizar en una frecuencia de muestreo de igualmente 48 KHz obtendríamos algo así: A todo esto debemos agregar que el oído humano promedio solo es sensible en un rango comprendido entre 22 Hz y 16 KHz mientras que un oído entrenado logra escuchar entre 20 Hz y 20 KHz por lo que aún la resolución de un CD (44.1 KHz) quedará muy por encima de la frecuencia más alta que podemos oír, es decir puede analizar hasta 22.05 KHz. Con esto podemos asumir que el beneficio se obtiene para frecuencias más bajas pues las puede dividir en ‘rodajas' más pequeñas, el problema viene al momento de hacer la conversión analógicodigital-analógico. El sonido que producimos con nuestros instrumentos se transmite en forma de vibraciones (Movimiento Armónico Simple) y lo podemos traducir a impulsos eléctricos y magnéticos, esto es lo que corresponde al dominio analógico, en otras palabras es una especie de ‘fotografía' electromagnética del sonido que escuchamos. Nuestras placas de sonido o interfaces se encargan de traducir dichos impulsos en datos (1's y 0's). Es al momento de hacer esta conversión analógico a digital ( A/D ) donde se presentan los problemas en resoluciones altas Página 37 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

con equipo de bajo costo pues al entrar el sonido se realiza lo que se comoce como Noise Reduction y que consiste en elevar a una frecuencia mucho más alta de la que se va a trabajar, tomar el ruido y ‘subirlo' fuera del rango audible del ser humano una vez hecho esto el sonido se regresa a la frecuencia de resolución establecida. En este tipo de convertidores ADC ( Analog-Digital-Converter ) baratos los filtros establecidos para esta reducción de ruido introducen un sonido ‘cajoso' similar al de los reproductores de CD baratos lo malo es que no podemos notar este sonido al momento de grabar y mezclar debido a que queda enmascarado por efecto del jitter (estos conceptos se explicarán posteriormente) que es un fenómeno pasajero y no se queda en nuestra grabación, sin embargo el sonido ‘cajoso' sí queda grabado y se traduce en un sonido chico y apagado. El aliasing también producto de un mal filtrado interviene y consiste en que una alta frecuencia introduce ‘fantasmas' en el rango de fracciones de su valor o viceversa, estos fantasmas son puntos en la frecuencia de muestreo que pueden corresponder a cualquiera de las dos frecuencias, la original o su fracción y al momento de hacer la conversión D/A el convertidor no sabe de quién vino esta señal.

En este ejemplo la frecuencia alta (en color rojo) tiene los mismos puntos de muestreo que una frecuencia baja (en color azul). Supongamos que la frecuencia alta vale 48 KHz (que sería la más alta en un SR de 96 KHz) dado que por cada ciclo completo en azul caben 10 ciclos completos en rojo tenemos que su valor es de un décimo de esta, es decir 4.8 KHz que ya está dentro de nuestro rango audible, con un filtrado deficiente (que es justo lo que ocurre con placas de tan altas resoluciones y bajos costos) el DAC no sabe a quién corresponde esa información y cada vez que opte por los 4.8 KHz vamos a oír cosas (fantasmas) que no estaban ahí en un principio. Por último tenemos el PLL ( Phase-Lock Loop ) que es el encargado de mover la información dentro del convertidor bit por bit es decir, mueve los 0's y 1's uno a la vez y debe hacerlo a una velocidad altísima para que no lo notemos, este chip está controlado por un cristal de cuarzo que debe ser extremadamente preciso y debe estar sincronizado con el reloj que va a controlar la frecuencia de muestreo, si el PLL no es de buena calidad vamos a tener un sonido muy malo en la conversión D/A pero no afectará la información dentro de la computadora, es decir, no va a distorsionar el sonido, por el contrario un mal PLL al momento de hacer la conversión de entrada (A/D) va a afectar el sonido de manera permanente e irreversible. En conclusión, el problema no es la alta resolución en sí sino la mala calidad de los componentes del convertidor pues entre mayor resolución tengamos en una placa o interfaz de bajo costo mayor será el número de ‘artefactos' que introducirán al sonido. Para darnos una idea una placa de sonido de 10 x 10 I/O que conocemos cuesta entre 400 y 1000 dls. mientras que un convertidor A/D de 8 entradas de la más alta calidad lo podemos comprar por la módica cantidad de 8,500 dls. sin mencionar que nos hará falta un convertidor D/A del mismo precio,

Página 38 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

además necesitaríamos una interfaz para que ese sonido digitalizado entre a nuestra estación de trabajo. He ahí las razones de por qué no deberíamos pasar de una resolución de 48 KHz y de una profundidad de 24 bits porque esas altísimas resoluciones nos son más que mercadotecnia pues realmente nos entregan lo que dicen pero a costa de un gran daño a nuestro sonido.

Si trabajo con cuatro micrófonos puedo almacenar todo junto o por separado. Si es separado, cada uno va en una carpeta diferente. Este método se lo denomina “mono”. Si fuera todo en un único archivo, se llama “poli”. Si se guardó todo en uno por equivocación, existe un programa para separar. Acá, cuando hablamos de “mono” no se trata de “mono o estéreo”. Eso es otra cosa. Hay que saber que tarjeta de memoria acepta el grabador. Cantidad y velocidad. Los drops son pequeños espacios sin grabación. Time codec (código de tiempo) sirve para indicar el nombre a cada fragmento de tiempo. Hs.

Min.

Seg.

cuadro

00

00

00

00

Si se necesitan 12 canales son tres grabadores en cascada. Uno de ellos mandan y los otros dos responden. Pero esto solo si tiene código de tiempo. También cuando tengo código de tiempo la sincronización se hace sin necesidad de que estemos sobre ella. Puede tener “Fanton” por canales. Siempre conviene control individual por canal. Cuando apretamos Pausa + REC queda preparado para grabar.

Página 39 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Medidores de nivel. Vúmetro es una forma análoga de medir. Utilizaremos decibeles como unidad de medida. NPS (nivel de presión sonora) mide la presión de aire que se mueve. Se mide de 0 a 100 donde 0 es la ausencia de sonido aunque, tal ausencia, no existe. En 100 tenemos el umbral del dolor. Db FS

NPS 0

100

- inf

0

Peak Meter o “picómetro” mide la señal en su nivel más alto. RMS es un cálculo promedio de la intensidad. El rango dinámico está entre el techo y el piso.

Página 40 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Página 41 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Página 42 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Niveles de grabación. Por encima de – 24 Db FS con picos rondando -10 a – 6 Db FS. Mono Estéreo. Página 43 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Mono se generó con un único micrófono que se puede grabar en diferentes canales pero siempre es el mismo sonido. En Mono es un micrófono y varios parlantes. En Estéreo, un micrófono para cada parlante. El estéreo no sirve para audio pero si para ambiente. Técnicas de grabación Estéreo. -

Par AB

-

X–Y

-

M – S MID SIDE

Par AB Dos micrófonos idénticos separados hasta 1 mts. Esta técnica entra dentro de las técnicas no coincidentes. Quiere decir que están separados. El problema es que el tiempo de arribo es diferente para cada micrófono (tiempo de arribo del sonido). Es decir, puede aparecer una cancelación de fase. Este par AB tiene problemas de fase solo cuando lo pasamos a mono. Técnicas coincidentes. M – S MID SIDE Uno de los micrófonos es cardioide y el otro bidireccional. Pero hay que informarle al grabador cual es cual. El ancho de imagen es variable a diferencia del primero que es amplio y el segundo que es más estrecho.

Página 44 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Página 45 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

º

Página 46 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Página 47 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Página 48 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Página 49 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Página 50 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Página 51 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Página 52 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Página 53 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Página 54 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Página 55 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Página 56 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Lección 29: Técnicas de Microfonía Estéreo Coincidentes/Xy y Ms Una Técnica de microfonía coincidente genera una imagen estéreo gracias a las diferencias de volumen capturado dos micrófonos ubicados en el mismo lugar. Según El efecto Haas, una diferencia de 10 db en uno de los monitores de un sistema de reproducción estéreo es suficiente para hacer sentir la precedencia de la fuente en el otro lado. Los pares coincidentes se basan en este principio evitando diferencias de tiempo. Para esto la cápsula de los micrófonos tienen que estar en el mismo punto. Página 57 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Técnica XY La técnica XY consta de ubicar las capsulas de dos micrófonos direccionales idénticos en un mismo punto. Como esto es físicamente imposible se ponen una encima de la otra. Son ubicados al frente y centro de la fuente y son angulados entre ellos simétricamente. Es común usar ángulos de 90° y 120° en XY.

Figura 22: Técnica XY Estéreo Una fuente ubicada en el centro hace que ambos micrófonos perciban la misma cantidad de señal haciendo que se cree una imagen fantasma en el centro de los dos parlantes. Si una fuente está más hacia la derecha produce más volumen en el micrófono que apunta a la derecha y menos en el que apunta a la izquierda, haciendo que la imagen se aleje del centro. Técnica MS (MID SIDE/CENTRO LADO) La técnica MS se lleva a cabo con dos micrófonos de condensador. El primer micrófono (m) se apunta al centro de la fuente, sin importar su patrón polar (Comúnmente Cardiode). Con el segundo micrófono (S) se alinean las cápsulas ubicándolo debajo del primero, luego se gira sobre su eje para producir un ángulo de 90° entre los dos micrófonos. El segundo micrófono debe tener patrón polar Bidireccional o figura ocho. Este se encarga tanto de la imagen izquierda como la derecha.

Página 58 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Figura 23: Técnica MS Estéreo La particularidad de esta técnica está en el micrófono S (side) ya que debe reproducir ambos lados de la grabación. A la hora de mezclar, lo grabado por el micrófono S es en principio la señal de la izquierda. Esta se debe panear completamente para ese lado. Para producir la señal de la derecha hay que duplicar la señal del S, cambiarle la fase, el paneo y subirle el volumen hasta balancear la mezcla con las otras dos señales. También existe una maquina llamada matrix que hace el proceso de mezcla. La técnica MS es popular en el ámbito audiovisual pos su monocompatibilidad.

Página 59 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016 Clase Nº 9 del 6 de junio

Seteos de equipos de grabación Frecuencias de emisión. Las frecuencias que se utilizan están por encima del muestreo. Espectro audible (en el ej. 557.005 MHz). Es normal que ya vengan seteadas. La frecuencia para el emisor y el receptor se encuentran en la misma. Algunos aparatos tienen detectores infrarrojos que, si los enfrentamos, se ajustan. En

el

transmisor

debemos

comprobar

la

sensibilidad.

Un

valor

recomendable es -18 y de ahí ir ajustando. Si el audio entra saturado, luego no se puede hacer nada. Seteo de la grabadora. Cuando es mono por cuatro dice que se hará un archivo por canal. Poli es cuando va a un solo archivo pero luego se puede separar. Como tipo de archivo conviene el WAV. Es un archivo en crudo. Se le debe poner nombre a los archivos: Project: name Name 1: Scene 1 Name 2: Scene 2 Otros. Pause más REC Al volumen, lo mejor es ponerlo a las 12 hs. No hay que confiar solo en el oído. La grabadora, normalmente, permite determinar cómo navegar para monitorear cada canal en particular. Puede llegar a tener debajo de cada botón un “solo” para monitorear por separado. Página 60 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Los botones pueden estar divididos y la parte de atrás es un anillo o rosca para la ganancia y esto permite diferenciar el diálogo del fondo. O sea, si tiene ambos controles, se puede separar volumen y ganancia. Planilla de sonido Canales Esc.

Plano

Toma

Nº arch.

CH1

CH2

CH3

CH4

Observ.

Página 61 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016 Clase Nº 10 del 13 de junio

Sonido para TV. Lo importante en un estudio de TV es que esté acustizado. Hay que evitar que entre sonido exterior. 

Estudio (set o pato)



Control o controles.



Sala de programación o Swichert master



Estudio de grabaciones de voces.



Oficinas.



Racks de transmisión.

La intensidad siempre conviene entre -12 y -6 porque 0 es el techo. SEGUNDO CUATRIMESTRE. 12/9:_ Entrega nuevos grupos 10/10: Entrega TP crudo. 21/11: Entrega corto terminado. 21/11 al 5/12: Segundo parcial. El programa de la cátedra termina el 14/12.

Página 62 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016 Clase Nº 11 del 5 de septiembre

COMO SE HACE UNA PELÍCULA. Workflow o flujo de trabajo. El resultado de hacer una película es un suceso de decisiones: Lo primero que equipos usar, como hacer el montaje, donde exhibir. Lo segundo es el elemento humano. No se hacen películas para las herramientas sino al revés. Lo tercero es como financio. El productor es el que consigue los recursos y el que los administra. También hay que lidiar con la exhibición. El exhibidor es el que tiene que convencer a los propietarios de las salas de que pasen la película. Si la peícula tiene un pobre lanzamiento, fracasa aunque buena. Es normal que la película, primero haga su recorrido por cines y, luego, por TV y Neflix. Aquí comienzan los conflictos. Detrás de pantalla hay tres parlantes. Derecho, central e izquierdo. Luego, en los laterales, están los surround. Básicamente, según el número de canales podemos distinguir cuatro sistemas de sonido: mono (sistema 1.0, la grabación y reproducción del sonido se lleva a cabo mediante un solo canal), estéreo (sistema 2.0, el audio es grabado y reproducido en dos canales), multicanal (el audio consta de tres o más canales) y surround (a partir de 4 canales 2/2).

Sistemas de sonido Página 63 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

La nomenclatura utilizada en los sistemas de sonido para designar las diferentes configuraciones consta de dos números, donde el primer número indica el número de canales de rango completo (full-range) y el segundo el número de canales de graves (subwoofer), siendo el número total de altavoces la suma de todos los canales. En el sonido surround también se suele especificar el número de altavoces frontales y traseros, utilizando por ejemplo la nomenclatura 3/2.1 en lugar de 5.1. Según el número de canales podemos clasificar los sistemas de sonido en cuatro grandes grupos:  Mono o monoaural (sistema 1.0): la grabación y reproducción del sonido se lleva a cabo mediante un solo canal, por lo que carece de sensación espacial.  Estéreo o estereofónico (sistema 2.0): el audio es grabado y reproducido en dos canales, típicamente canal derecho e izquierdo, creando una sensación espacial, con los altavoces ubicados delante del oyente.  Multicanal (sistema 2.1 en adelante): el audio consta de tres o más canales, generalmente canal derecho e izquierdo y otro para los graves, más otros canales especializados. Por ello, el equipo precisa tres o más altavoces para reproducir dicha pista.  Surround (sistema 4.0 en adelante): cuando además de los canales frontales existen canales traseros, el sonido se denomina sonido surround o sonido envolvente. La terminología procede del Home Cinema y los videojuegos, siendo la configuración mínima a partir de 4 canales 2/2. Veamos con más detalle las principales configuraciones de un sistema de sonido:

Página 64 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Surround 4.0

Surround 5.0

Surround 6.1

Página 65 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Surround 7.1

Surround 7.1

Vamos a estudiar Workflow, el camino de la imagen y el sonido desde su nacimiento hasta su exhibición más las diferentes formas de exhibición. Muchas veces el gran problema en las películas es el mal asesoramiento. Por ej., si grabo bien evito costos de rodaje. Un sonido de película (sin mezcla) puede salir unos $ 300.000. Hay que preguntarse, como se rodó? Como se va a post-producir? Filmar viene de film. Hoy se graba porque es digital. Rodaje viene de la rueda de la cámara que gira. Pensar en contenidos para cine no es lo mismo que para TV. Una imagen HD no es solo el tamaño (1920 x 1080), es con que se graba. Página 66 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Un DNI tiene varios datos. El sistema de edición, cuando le entregamos un archivo, va a ver la metadata. La cadencia de cuadros. Si son 24 fotogramas por segundo, en la metadata va el nº de cuadros de la cadencia, tamaño video, etc. El sistema de edición, con la metadata, identifica que es un archivo de video y no de otra cosa. La imagen y sonido, en sistema doble, se logra por separado. Luego viene la sincro y luego vuelven a separarse para su tratamiento por separado. Una cámara ARRI genera imagen a 4K. Si se gasta todo el presupuesto en producción y no queda nada para postproducción porque se grabó con mucha calidad, luego corro el riesgo de no poder utilizar toda la tecnología de post.

El proxy es una copia de baja calidad. Es un clon con modificaciones que lo hace de baja calidad. Al terminar una jornada de rodaje hay material de imagen y sonido que se le entrega al asistente de montaje. El proxy se puede hacer en el montaje Hay empresas que dan el servicio de ir a los rodajes para realizar esta operación. Entonces se puede hacer toda la edición en proxy y, luego el programa, reemplaza por el original. Página 67 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Estas cámaras (ARRI por ej.), tienen la propiedad de comunicarse con el equipo de sonido. La cámara se linkea con el equipo de sonido para llamar igual al time code. Las cámaras red (valen aprox. U$S 1M)) tuvieron problemas con el disco rígido. Es importante que, cuando vemos que la tarjeta se llena, tiene que haber un responsable de descargar el material. Las xxxxx son las grabaciones de una jornada de rodaje. La película debe tomar forma durante el rodaje. Es donde se pueden corregir errores que luego es imposible hacerlo. Parte del Workflow es disponer cuando debo tener material para entregar. 4K: 4096 x 2304 2K: 2048 x 1152 1080P: 1920 x 1080 720P: 1280 x 720 DU: 720 x 576

Algunas veces hay que convertir el material para exhibir en lugares diferentes a los que se pensó. Las películas están diseñadas para ver y escuchar en un cine. En lugares diferentes, es cualquier cosa. Página 68 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Hacer cine significa respetar ciertos estándares. Si hago una película para cine, la hago en 24 FTS. Si hago un corto para un TP, lo hago en 25 FTS. Los países que utilizan la norma PAL usan 25 FTS. NTSC utiliza lo que era a 30 FTS a 29,997 FTS y, en lo que queda, pone información de color. Esto no tiene nada que ver con frecuencia de muestreo, porque este concepto es para sonido. Lo mismo que en NTSC, en TV, dejo parte para la información. Cuando cambio la imagen convirtiéndola, igual debo hacerlo con el sonido por la sincro. Si saco o agrego cuadros, me tira errores. Lo que se hace es estirar los cuadros. Si tenemos 23,75, es más fácil convertirlo a 24 o a 29,97 que a 25. Dependiendo de cómo la cámara arma los archivos, es como se elige la cadencia de cuadros. Cada cámara da diferentes opciones. Pero la resolución no cambia. Se usa 23,976 para registrar, no para exhibir.

Página 69 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

En toda conversión de imagen, algún costo se paga. Algo de degradación habrá. El material registrado se lo debe nombrar de forma reconocible, pero igual hay que hacer las planillas.

Página 70 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016 Clase Nº 12 del 19 de septiembre

No todos los grabadores pueden registrar la velocidad de cuadros. La sincronización se hace como si fueran dos relojes, ambos de excelente calidad, que marcharan igual sin desfasajes. El time code permite identificar cada cuadro en sonido e imagen. Cuando se monta, se le indica al sistema que archivo se le está dando, que profundidad en bits, cuantos FPS, si es poli o mono. El montajista no puede tomar decisiones de audio. No puede quitar micrófonos.

Rodaje

Montaje (imagen) Proxys (copias en menor calidad de la imagen original con la misma Metadata – propiedades de la imagen)

Post producción (sonido)

proyección

En el montaje todo es diferente de acuerdo a la historia que quiero contar. Grabadora Sound Devices 788T https://www.youtube.com/watch?v=EiJfkPIx5lY graba 8 track. Cada track se llama ISO. Esto hace que el grabador de 8 archivos más el que mezcla a todos. Esto se da solo con grabadores de audio que generan y entienden el código de tiempo. El montajista toma la mezcla para su trabajo. Luego el sonidista decide cual es el micrófono que va a utilizar. Pero primero hay que indicarle al grabador que haga la mezcla.

Página 71 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Lo segundo es indicarle al grabador que sincronice con la cámara. El tiempo de grabación cuenta HH/MM/SS/FF o CC Los métodos de grabación pueden ser el Free Run donde el reloj corre sin interrupción, el Record Run donde el reloj está parado y arranca con REC y para con STOP y, por último, el Jam Sync donde, con un cable llamado Lemo, se conecta la cámara con el grabador. De esta forma se sincroniza. Esto es muy estable y solo se debe controlar un par de veces al día volviendo a hacer la sincronización. El problema es que para esto se usa un micrófono en la cámara y puede pasar que el sonido entre en diferentes momentos en el micrófono de la cámara y en el del grabador. También existe un soft llamado Plural Eyes que sincroniza automáticamente. Pero, la claqueta, siempre se usa. El montajista trabaja con la mezcla de los ISO. Pide todos los crudos de la cámara, absolutamente todos. MATERIALES PARA MONTAJE. 1. Todos los crudos de imagen. 2. Proxys (si no están hechos los hace el montajista) 3. Todos los audios, si se graba sin código de tiempo o, una mezcla estéreo por toma realizada con todos sus ISO, en caso de que grabe con código de tiempo). Etapas: 

Workflow



Rodaje



Montaje



Post producción de sonido



Proyección



El montaje se divide en Off Line y On Line.

o El Off Line está compuesto por: 

Organización del material



Sincronización Página 72 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016



Búsqueda narrativa de la película



Materiales temporarios para montar. Puede necesitar música y efectos.

 Hacer versión temporal que no es la definitiva para mostrarla

Si se prepara bien en el Off Line, se puede mostrar mejor y vender más fácilmente. Esto permitirá tener recursos financieros para el On Line. En la organización del material se le da nombre. El Off Line termina cuando el director, montajista, productor y, eventualmente sonidista, dan por finalizada la película y a esto se denomina “copia cerrada”. En montaje, cuando se comienza a trabajar, se le pone unas marquitas al video. Al final tengo un video con sonido en el comienzo y en el fin pero, como sé que está sincronizado en el medio?

Esto es lo primero que va a recibir sonido. Si sonido considera que está mal, pide otra.

Página 73 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016 Clase Nº 13 del 26 de septiembre

Off line es la búsqueda de la narrativa con mezclas temporarias. En el on line ya entran los sonidistas. Se quitan los proxys y se reemplaza por material original. Los sistemas de edición tienen una forma de exportar el proyecto para que otros soft sepan como reemplazar. Cuando voy a armar la película, le doy el proyecto y le indico el material original. Lo primero que se hace es corregir el color. En el proxy no porque no tiene sentido. Cuando se hace una película no necesariamente se hace todo en el mismo soft. En la corrección del color se utiliza el croma (El croma, o clave de color (del inglés chroma key) es una técnica audiovisual utilizada muy ampliamente tanto en cine, televisión y fotografía, que consiste en extraer un color de la imagen (usualmente el verde o el azul) y reemplazar el área que ocupaba ese color por otra imagen o video, con la ayuda de un equipo especializado o un ordenador. Esto se hace cuando es demasiado costoso o inviable rodar al personaje en el escenario deseado, o para evitar el laborioso recorte del personaje fotograma a fotograma (rotoscopia). Para que esto funcione, la ropa del actor o lo que esté delante del fondo no pueden ser del mismo color.)

Edición es duración de algo. La duración de un plano es temporal. Lo que sucede dentro de él es espacial. Los archivos de intercambio pueden ser OMF o AAF. OMF: armado multitrack. En el OMF quedan las instrucciones de cómo están organizadas las cosas. Cuando exporto a otro sistema, replico. OMF embebido o encapsulado: es un archivo de intercambio con el material y las instrucciones de cómo están organizados. Es decir, tiene media o midia (el sonido) y la metadata. Página 74 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Taglear los chips es cambiar los nombres raros de los archivos por nombres más normales. El AAF tiene la posibilidad de transportar imagen y sonido pero, para que incluya la imagen, hay que pedirla. OMF no embebido o no encapsulado: Acá hay un archivo con metadata y otro con el sonido. La diferencia es por el peso del archivo. El límite es de 2 Gb. En otras épocas las películas daban para ese tamaño, ahora no es tan así. El AAF también puede ser embebido o no embebido. El primer material es la copia cerrada del video, la segunda el OMF o AAF.

1 – CAPTURA/DIGITALIZACIÓN DEL AUDIO La captura o digitalización de audio, consiste en pasar el sonido que tenemos grabado en un formato y soporte determinado (DAT, MD, Cassette...) a un formato y soporte informático (Aiff, Wav, Mp3..). Esta acción la realizamos, con el fin de poder editar dicho audio con cualquier tipo de software informático (Protools, Nuendo, Cubase, Logic, etc). Las características tanto de frecuencia (44, 48KHz), como de profundidad de bits (16, 24 bit), de los archivos de audio, vendrán predeterminadas por las reuniones con montaje. Normalmente se suele trabajar con archivos AIFF-48 KHz-16 Bit. A la hora de realizar esta acción, en el archivo de audio final deberemos mantener el cante y el sonido de la claqueta de los audios brutos, ya que será lo que utilicemos para sincronizar la imagen y el sonido. Además, renombraremos los archivos resultantes de la forma que se haya acordado con el Página 75 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

montador, especificando secuencia, plano y toma, e incluso fuente si fuese necesario. Por ejemplo, el fichero de audio correspondiente a la secuencia 3, plano 2, toma 5 grabada con percha, y digitalizada como fichero aiff 48KHz 16 bit, podríamos nombrarlo: S03P02T05-PE.aif Para realizar esta operación, necesitaremos varios elementos: a. REPRODUCTOR DEL SOPORTE ORIGINAL Si el sonido directo lo hemos grabado en DAT, lógicamente necesitaremos un reproductor de DAT para que lea nuestras cintas originales; si el soporte de grabación es otro con MD, necesitaremos un reproductor MD, etc. Es conveniente que dicho reproductor sea lo más profesional posible, ya que nos dará mejor calidad y nos ofrecerá más y mejores alternativas de conexionado. b. INTERFACE DE AUDIO Y CABLEADO. Para pasar el sonido desde el DAT o cualquier otra fuente, al ordenador, necesitaremos una máquina (hardware) que sea capaz de recibir y transformar en archivos informáticos el sonido que recibe. Este hardware va desde una simple tarjeta de sonido interna del PC a interfaces de audio profesionales como los de Digidesign o Motu. Lógicamente cuanto mejor sea dicho hardware, mayor será la calidad de los archivos de audio. Si trabajamos con el 888 de Digidesign y un DAT profesional, tendremos la posibilidad de no tener ningún tipo de pérdida de información, ya que ambos trabajan en un entorno digital (unos y ceros) y mediante la conexión AES/EBU podremos capturar el sonido del DAT al PC sin alterar las cualidades del archivo original. Si por el contrario, capturamos de forma analógica, estaremos introduciendo varios elementos de riesgo, y la calidad del archivo informático, dependerá de varios factores como la calidad de nuestras conexiones, nuestra habilidad a la hora de ajustar la ganancia, las propiedades del cableado, etc. Lógicamente esto repercutirá en una menor calidad del archivo informático resultante. c. SOFTWARE INFORMÁTICO. Una vez que tenemos conectado el reproductor al interface de audio y éste a su vez conectado al ordenador, necesitaremos un programa (software) de audio, que nos permita grabar el sonido en el pc/mac. Los programas que nos permiten realizar esta operación son diversos y van desde la simple grabadora de sonidos de windows, a programas profesionales como Protools, Cubase, Nuendo, Logic, etc. Pese a que el principio es el mismo: “Convertir el sonido que entra por el hardware en archivos de audio informáticos que contienen un muestreo y cuantificación determinado”, el resultado final lógicamente es bien distinto; los programas de audio profesionales nos ofrecen mucha mayor versatilidad y realizan el proceso de muestreo y cuantización de una forma mucho más exacta, teniendo siempre como límite, las posibilidades que nos ofrece la máquina (hardware).

Página 76 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

d. SOPORTE DE ALMACENAMIENTO. Una vez que se ha digitalizado los archivos de audio, y los tenemos en nuestro ordenador, debemos escoger donde almacenarlos. Si bien podemos mantenerlos en nuestro disco duro (HD), siempre conviene hacer una copia de seguridad en otro tipo de soporte físico (CD, DVD). Además, esta copia de seguridad, la utilizaremos para pasar nuestros archivos a montaje para que se encarguen de sincronización. La duración de este proceso, variará en función de la cantidad de material a digitalizar y de nuestra habilidad para hacerlo. Considerando que es a tiempo real, y que no surga ningún inconveniente, tendrá un ratio aproximado de 3:1. Es decir, para digitalizar 10 minutos de bruto, tardaremos aproximadamente 30 minutos. 2 – SINCRONIZACIÓN Y MONTAJE Mientras los encargados del sonido se ocupan de la captura del audio, los encargados del montaje digitalizan la imagen. Una vez el sonido y la imagen están capturados, el siguiente proceso es la sincronización de ambos; para ello, se buscará el punto de imagen que coincide con el cierre de la claqueta, y se situará el golpe de sonido de dicha claqueta en ese punto. Una vez se tienen sincronizados los planos, se procede al montaje. Es conveniente que haya una relación fluida entre los responsables de postproducción, ya que esta fluidez nos permitirá ahorrar mucho tiempo y nos facilitará el trabajo. Mientras se realiza el montaje, los responsables de sonido pueden aprovechar para ir viendo que tipo de efectos va a necesitar, buscar ambientes, hacer pruebas de limpieza, buscar sonidos específicos que se necesiten e incluso facilitar este material a montaje. Concluido el montaje de la imagen, el montador pasará a los responsables de sonido un archivo OMF, que contendrá los diferentes archivos de audio en sus posiciones dentro de una línea de tiempos. Es conveniente que exporten este archivo sin ningún tipo de automatización ni efecto, ya que puede ocasionar fallos de incompatibilidad. Junto con este archivo OMF, también se pasará un archivo de video a baja calidad (Quicktime, codec Sorenson, compresión de 75% y resolución de “medio pal”), que servirá como referencia de imagen para la edición de audio. El motivo de que dicho video tenga estas cualidades, es que nos permita trabajar con el editor de audio, sin cargar en exceso la máquina y no de ninguna incompatibilidad de formato. IMPORTANTE: El OMF y el archivo de video que se pasa, se considera el montaje final, por lo que no se modificarán ni planos, ni las duraciones de los mismos. Sólo se realizarán retoques de imagen en los planos ya existentes, sin modificar sus tiempos; es decir, se etalonarán los planos y se insertarán los efectos especiales pertinentes en las imágenes ya existentes. También se pueden incluir los títulos de crédito iniciales y el rodillo final, ya que no afectará a la edición de sonido; eso sí, el montador debe Página 77 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

informar de la duración de los planos insertados al comienzo y al final del montaje. Si por algún casual, los títulos fueran intercalados, el montador debe notificar el código de tiempos donde comienza, y la duración de dichos títulos. 3 – EDICIÓN DE SONIDO En este proceso, el equipo de postproducción de sonido, se encargará de seleccionar y colocar los diferentes archivos de sonido en diferentes pistas. Para ello, debe utilizarse un software que nos permita trabajar con varias pistas dentro de una línea de tiempos, y que nos permita visualizar el video a editar; es decir, debemos utilizar un secuenciador multipista de sonido (Protools, Nuendo, Cubase, Logic...). Para facilitar la localización de los diferentes archivos, es fundamental la organización y nomenclatura de las pistas. Un standard utilizado renombrando las pistas es: SD1 En estas pistas, colocaremos el sonido directo. En caso de que SD2 tengamos de rodaje a cada protagonista grabado en pistas diferentes, SD3... podemos incluso nombrar las pistas por el nombre, en vez de SD1,2, etc. DOB1 DOB2 Si fuera necesario el doblaje, lo insertaríamos en estas pistas. DOB3... AMB1 AMB2 Pistas destinadas a la colocación de ambientes AMB3... ATM1 ATM2 Aquí situaremos los diferentes archivos de atmósferas ATM3.. FOL1 FOL2 Pistas dedicadas a efectos sala (Folley) FOL3... FX1 FX2 En estas pistas insertaremos los efectos especiales de sonido FX3... MUS1 Página 78 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

MUS2 En estas pistas colocaremos los diferentes pasajes musicales MUS3... El primer paso del proceso, es colocar la edición de sonido que proviene de montaje, en las pistas de nuestro secuenciador. Puesto que montaje nos pasa un archivo OMF, deberemos utilizar un programa que nos “traduzca” esa edición a una sesión de nuestro secuenciador. En el caso de que utilizemos Protools, necesitaremos un plugin llamado “Digitranslator” o el “OMF Tool”, mientras que otros programas como Nuendo, ya tienen esa función incluida en el propio programa. Una vez que ya tenemos la edición de sonido de montaje (OMF), colocada en las pistas de nuestro programa de sonido, el siguiente paso, es escoger los archivos válidos, recortar sonidos innecesarios y afinar los puntos de corte, así como ir colocando los diferentes archivos en las pistas oportunas (las pistas que nombraremos como SD para Sonido Directo). En el caso de que alguna palabra, frase o sonido concreto, tenga algún fallo (bien ruido de fondo, bien esté saturada o cortada), podemos buscar en los otros archivos de sonido de otras tomas de esa secuencia, esa palabra o sonido concreto, y colocarla sustituyendo la correspondiente a la imagen (muchas veces la toma buena de imagen no es la buena de sonido). En caso de que esta opción no sea posible, y no se pueda recuperar de ninguna forma el diálogo o diferentes sonidos de la acción, tendremos que recurrir al doblaje o a los efectos sala (folley) respectivamente. Por norma este tipo de pistas suelen ser mono, y las situaremos en el centro (sin panoramizar) ya que de otro modo despistaríamos al espectador. Sólo se suelen panoramizar las voces, si los personajes que hablan no salen dentro del plano, y lo haremos para ubicar espacialmente al actor/actriz. Cuando ya tenemos colocados, recortados y afinados los archivos de sonido de diálogos (directo y doblaje), el siguiente paso es añadir los ambientes y atmósferas para unificarlos, para que no se noten los cortes. Es preferible usar los archivos de ambientes y atmósferas reales, grabados en la propia localización en la que se desarrolla la acción de la imagen. Si en rodaje no se grabaron, siempre se puede recurrir a ambientes de bibliotecas de sonido, aunque son más irreales. Por norma, estos ambientes “enlatados” los usaremos para enriquecer, más que para unificar. Estos archivos sí suelen ser stéreo, y tendremos que tener especial cuidado a la hora de colocar los archivos L y R (Izquierda y Derecha). Para enriquecer aún más nuestra edición de sonido, insertaremos los efectos especiales oportunos. Estos efectos pueden ser sonidos reales grabados y/o tratados, o bien sonidos creados artificialmente mediante síntesis (sintetizador). Conviene no abusar de los efectos y usar los que realmente sean necesarios para reforzar la imagen o darle a la misma un sentido determinado. Al igual que los archivos de diálogo, la mayoría de los efectos se suelen trabajar en pistas mono, lo que nos permitirá mayor versatilidad para jugar con la panoramización. Página 79 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Finalmente, procederemos a añadir los diferentes pasajes musicales. En nuestra sesión de edición audiovisual, incluiremos los archivos de las canciones finales (L y R); en caso de que la banda sonora sea original, haremos diferentes sesiones para cada tema, incluyendo las diferentes pistas de los instrumentos, las mezclaremos y el archivo resultante, es que el que incluiremos en la sesión de la edición; así no utilizaremos un excesivo número de pistas en dicha edición. Estos pasajes musicales, pueden realizar varias funciones, dependiendo de su intencionalidad (diegética, extradiegética). Podemos usarlas a modo de enlace de secuencias, como propia parte de la acción o para transmitir o resaltar un sentimiento determinado. 4 – POSTPRODUCCIÓN DE SONIDO Esta fase puede ir intercalada con la edición. Mientras en la edición nos encargamos de ubicar los diferentes archivos en la línea de tiempos, en la postproducción de sonido, modificaremos las cualidades naturales de los mismos. Es decir, le aplicaremos una serie de procesos (efectos) que le modificarán su frecuencia, su amplitud o su forma de onda, con el fin de mejorar la calidad del sonido de nuestra edición. Los efectos a utilizar, bien pueden ser externos (ecualizadores, compresores, reverbs) o bien pueden ser simulados por software (plugins y programas informáticos). Los secuenciadores por norma, suelen incluir un buen número de plugins (reverbs, delays, compresores, reverse, etc.) aunque suelen ser insuficientes y bastante simples; por ese motivo, también suelen tener la opción de añadirles más mediante Direct X, VST’s, RTA’s, TDM’s, etc. Otra opción, es utilizar otro programa más especializado aparte de nuestro secuenciador, es decir, usar editores como Sound Forge, Wave Lab, etc. En ese caso, los archivos tratados, tendremos que importarlos posteriormente a nuestra edición. Los efectos más usados son: ECUALIZACIÓN: Modifica la frecuencia para hacer el sonido más brillante, más oscuro, simular telefonos, etc. REVERB/DELAY: Simula las reflexiones que se producirían en locales cerrados o reproducir un eco. Muy usado para dar credibilidad a los archivos de doblaje. TIME COMPRESS-EXPAND: Para modificar la duración de los archivos de sonido. Muy útil para ajustar los archivos de diálogo falseados (de otras tomas o doblaje). PITCH: Se usa para modificar el tono. COMPRESOR/LIMITADOR: Para aumentar la señal, reducir distancias dinámicas y limitar el volumen de salida.

Página 80 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

EXPANSOR/PUERTA DE RUIDO: Para eliminar ruidos de fondo por debajo de un umbral dinámico. Aparte de aplicar distintos efectos a los archivos de sonido, una vez finalizada la edición, durante la mezcla también se pueden aplicar distintos efectos a los diferentes subgrupos e incluso al archivo final resultante. 5 – MEZCLA FINAL En este proceso, ajustaremos los niveles de audio de las diferentes pistas, así como afinaremos cuando proceda, la mezcla 5.1. Para ello, se usará un mesa de mezclas y unos monitores de escucha reales. Para facilitar el proceso de mezcla cuando disponemos de pocos canales en nuestro mezclador, primero se hará un premezcla entre las pistas de los diferentes grupos: (Una premezcla de Diálogos, otra de Ambientes, otra de Efectos, otra de Músicas, etc), para posteriormente, sólo tener que afinar los volúmenes de cada grupo, y trabajar únicamente con 5 o 6 pistas. La mezcla final, puede grabarse desde las salidas de la mesa a un soporte analógico (Revox, Cassette), digital (DAT, BTD, MD..) o magneto-óptico (Dolby); o por el contrario, si la mesa nos permite controlar y modificar los parámetros de nuestro software (vía USB, MIDI, Firewire, etc), podremos exportar una mezcla final en un archivo informático (Aiff, Wav, AC3..) desde nuestro propio secuenciador, realizando una mezcla final simulada por el programa (Bounce). Una vez realizada la mezcla final, se le pasará el archivo a montaje en el formato que hayamos acordado (Aiff, Wav para stereo; AC3, múltiple mono para 5.1), que lo sincronizará con la imagen mediante el bip de sincro (Es un tono de 1 KHz de 1 fotograma de duración, que se coloca 48 fotogramas exactamente antes del primer fotograma de imagen). Una vez que este sincronizado el sonido y la imagen, montaje exportará el fichero audiovisual definitivo.

Página 81 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016 Clase Nº 14 del 17 de octubre

Cuando comienza a trabajar sonido en la post, lo primero que recibe es una copia. Esta copia tiene una marca de sonido. Los montajistas montan, no la película de corrido, sino en actos. Cada acto tiene 20 min. Esto es porque en la época de los 35 mm cada rollo duraba 20 mm. A sonido le interesa una imagen cerrada pero con sonido abierto. Los métodos de intercambio OMF o AAF es porque montaje y sonido trabajan con herramientas diferentes. En video se habla de proyectos y en audio de secciones. Se usa, generalmente, el soft Pro Tool. En este se comienza creando una sesión en blanco y se indica que tipo de archivo de audio se utilizará, que frecuencia de muestreo, que profundidad en bits, el nombre de la película. A continuación de cargar todos estos datos se abre una ventana. Lo primero que se hace es tomar el OMF del montajista e importarlo. En caso de que el montajista trabaje con mezclas, se recomponen las ISO´s. Mirar en apuntes “Depuración de OMF””. Cada acto de una película dura un máximo de 20 mim. El sistema en que se exhiben es DCP. Solo las lee ese sistema, en un equipo hogareño no se puede. Ya no se trabaja en 35 mm pero los actos son de 20 mm. o, el montajista, puede mandar un “show continuo”. El Nº de acto define la hora de inicio de cada acto, o sea, hora 1 es el acto. 1. El montajista es quien decide si manda actos o show contínuo. Esto lo hace de acuerdo a como maneja la organización con actos. Si hay Página 82 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

cambios, no se modifica la organización del conjunto. También ayuda a trabajar con el equipo más aliviado. Pero esta es una cuestión técnica y, hoy día, no debería haber restricciones por limitaciones del equipo. Algo importante es saber la cadencia de cuadros. Luego hay que alinear el video. La cuenta regresiva es el start, líder o marca de sincro. En el Nº 2 de la misma debe haber el sonido de un bip. Ese bip debe durar un fotograma. Hay que alinear el Nº 2 con el bip. Y todo queda en sincro. Todos los actos comienzan con una cuenta regresiva. Dos segundos después del 1º bip, comienza la acción. Hay dos bip´s. Uno al principio y, otro, al final. El último bip va a estar 2 seg. Después del último fotograma de acción. La copia cerrada es la versión final. Si por alguna razón hay cambios en el montaje, existen formas de identificar y reemplazar. Las etapas del montaje de sonido son las siguientes: 1º: Edición de diálogos. 2º: Grabación de ambientes. 3º: Grabación de foley. 4º: Música. Hasta aquí se puede trabajar en simultáneo. En la siguiente ya no porque es la final. Esta es: 5º: La mezcla. Los datos que debe contener la copia que envía el montajista son: 

Nombre de la película Página 83 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1 

Nº de acto.



Tiempo.



Nº de fotograma.



Fecha.

2016

En show continuo: 

Nombre de la película,



Cadencia de cuadros,



Fecha.

Respecto a la música, no es lo mismo la música de una película que la música que no se escucha en cine. Cuando envían la música de una película, lo hacen en un track donde contiene un sonido y la suma de los track debe componer el stereo. Con el Pro Tools se puede indicar por donde sale cada uno. El músico puede enviar la música ya mezclada o la familia de sonidos. Igual pasa con el room tone. Todo esto se maneja con la herramienta de paneo. Con el sonido se amplía el encuadre pero hacia la sala.

Página 84 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016 Clase Nº 15 del 24 de octubre

Evaluación de los crudos.

Clase Nº 16 del 31 de octubre Demostrativa de montaje

Página 85 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016 Clase Nº 17 del 7 de noviembre

EL AMBIENTE Poner contexto sonoro. El fondo de grabación nada tiene que ver con el ambiente. Cuando grabo en un set, el fondo no va a aportar nada al relato. Cuando grabo ambiente puedo darme cuenta donde transcurre el relato aunque cierre los ojos. El ambiente no es solo el sonido del plano. Debe ser invasivo. Con el 5.1 los sourround envuelven, invaden. 

Mejorar la historia, el flujo narrativo estableciendo lugar y tiempo, periodo histórico, a través de atmósferas y efectos.



Agregar ritmo, emoción e impacto usando un total de rango dinámico disponible según el formato de exhibición.



Completar la ilusión de realidad y perspectiva a través del uso de efectos

y

la

reconstrucción

del

espacio

acústico

usando

ecualizadores y reverberación artificial. 

Completar la ilusión de no realidad y fantasía a través del diseño de sonido y procesamiento del mismo.



Cada decisión de sonido debe responder a un interrogante. Que quiero transmitir con el sonido.



Completar la ilusión de continuidad en escenas y planos que fueron tomados discontinuamente.



Completar

la

ilusión

de

ancho

/

profundidad

espacial

posicionando los elementos sonoros en el campo estéreo o surround. 

Entregar el material final (stems) acorde a las condiciones técnicas del formato de exhibición. Los stems son los 5.1 de cada sonido. O sea, de diálogos, de ambiente, etc. La banda internacional son todos los stems pero sin los diálogos. Página 86 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Full mix 5.1 y estereo es todo el sonido de la película. USO DE AMBIENTES.

Tomas de conjunto es cuando se toma todo el sonido y separadas cuando se toma cada uno.

Página 87 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

SONIDO 1

2016

Si es 7.1, los parlantes del fondo son independes.

FIN DE LA CURSADA.

Página 88 de 89

Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1