TecnicasSonido Digital 2014

Técnicas de sonido digital / Oscar Pablo Di Liscia ... [et.al.]. - 1a ed. - Bernal: Universidad Virtual de Quilmes, 2014

Views 86 Downloads 1 File size 13MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Técnicas de sonido digital / Oscar Pablo Di Liscia ... [et.al.]. - 1a ed. - Bernal: Universidad Virtual de Quilmes, 2014. E-Book. ISBN 978-987-1856-96-1 1. Sonido Digital. 2. Audio. I. Di Liscia, Oscar Pablo CDD 778.592

Procesamiento didáctico: Bruno De Angelis, Ana Lía Elbert y Adys González de la Rosa Diseño, diagramación y desarrollo: Alejandro Jobad Programación web: Marisol Martin Primera edición: marzo de 2014 ISBN: 978-987-1856-96-1

© Universidad Virtual de Quilmes, 2014 Roque Sáenz Peña 352, (B1876BXD) Bernal, Buenos Aires Teléfono: (5411) 4365 7100 http://www.virtual.unq.edu.ar

La Universidad Virtual de Quilmes de la Universidad Nacional de Quilmes se reserva la facultad de disponer de esta obra, publicarla, traducirla, adaptarla o autorizar su traducción y reproducción en cualquier forma, total o parcialmente, por medios electrónicos o mecánicos, incluyendo fotocopias, grabación magnetofónica y cualquier sistema de almacenamiento de información. Por consiguiente, nadie tiene facultad de ejercitar los derechos precitados sin permiso escrito del editor.

Queda hecho el depósito que establece la ley 11.723

3

Íconos Leer con atención. Son afirmaciones, conceptos o definiciones

destacadas y sustanciales que aportan claves para la comprensión del tema que se desarrolla.

Para reflexionar. Propone un diálogo con el material a través de preguntas, planteamiento de problemas, confrontaciones del tema con la realidad, ejemplos o cuestionamientos que alienten la autorreflexión. Texto aparte. Contiene citas de autor, pasajes que contextualicen el desarrollo temático, estudio de casos, notas periodísticas, comentarios para formular aclaraciones o profundizaciones. Pastilla. Incorpora informaciones breves, complementarias o aclaratorias de algún término o frase del texto principal. El subrayado indica los términos a propósito de los cuales se incluye esa información asociada en el margen. Cita. Se diferencia de la palabra del autor de la Carpeta a través de la inser

ción de comillas, para indicar claramente que se trata de otra voz que ingre sa al texto.

Ejemplo. Se utiliza para ilustrar una definición o una afirmación del texto principal, con el objetivo de que se puedan fijar mejor los conceptos.

Para ampliar. Extiende la explicación a distintos casos o textos como podrían ser los periodísticos o de otras fuentes. Actividades. Son ejercicios, investigaciones, encuestas, elaboración de cuadros, gráficos, resolución de guías de estudio, etcétera. Audio. Fragmentos de discursos, entrevistas, registro oral del profesor expli cando algún tema, etcétera.

Audiovisual. Videos, documentales, conferencias, fragmentos de películas, entrevistas, grabaciones, etcétera.

Recurso web. Links a sitios o páginas web que resulten una referencia dentro del campo disciplinario.

Lectura obligatoria. Textos completos, capítulos de libros, artículos y papers que se encuentran digitalizados en el aula virtual. Lectura recomendada. Bibliografía que no se considera obligatoria y a la que se puede recurrir para ampliar o profundizar algún tema.

4

5

Índice

Los autores

Introducción Problemática del campo Reflexiones acerca del aprendizaje en un entorno virtual

Mapa conceptual

1. Principios básicos de acústica y sonido

1.1. Introducción 1.2. Onda sonora 1.3. Sistemas físicos intervinientes en la producción y transmisión de sonido





1.4. Movimiento oscilatorio





Representación gráfica de la forma de onda Frecuencia Amplitud Período Fase

1.6.1. Suma de ondas senoidales cuya resultante es otra senoidal 1.6.2. Suma de ondas senoidales cuya resultante es una onda compleja 1.6.3. Batidos o pulsaciones

1.7. Timbre





1.5.1. 1.5.2. 1.5.3. 1.5.4. 1.5.5.

1.6. Suma de ondas senoidales





1.4.1. Movimiento oscilatorio simple 1.4.2. Relación entre el movimiento circular uniforme y el movimiento armónico simple 1.4.3. La onda senoidal

1.5. Características de la forma de onda





1.3.1. Fuente sonora 1.3.2. Medio 1.3.3. Receptor

1.7.1. Sonograma

1.8. Propagación de las ondas sonoras



1.8.1. 1.8.2. 1.8.3. 1.8.4. 1.8.5.

Velocidad de propagación del sonido Frente de onda Longitud de onda Comportamiento de la propagación de las ondas sonoras en espacios cerrados Efecto Doppler

2. Principios básicos de percepción sonora

2.1. Introducción 2.2. Presión dinámica e intensidad de las ondas acústicas



2.2.1. Relación entre amplitud, presión e intensidad acústica 2.2.2. Presión estática 2.2.3. Presión dinámica

6









2.4.1. Umbrales absolutos de audibilidad 2.4.2 Escalas relativas y absolutas de sonoridad 2.4.3. Otros aspectos destacables de la percepción de la sonoridad 2.4.4. Medidores de nivel sonoro

2.5. Percepción de altura





2.3.1. Oído externo 2.3.2. Oído medio 2.3.3. Oído interno

2.4. Percepción de la sonoridad





2.2.4. Potencia e intensidad acústica

2.3. Sistema auditivo periférico humano

2.5.1. Limen de frecuencia 2.5.2. Bandas críticas 2.5.3. Altura tonal y temperamento igual

2.6. Percepción espacial de sonido



2.6.1. Percepción de la localización de la fuente sonora

3. Características perceptivas del timbre 3.1. Introducción 3.2. Espectro 3.2.1. Cualidad espectral



3.3. Cualidad de superficie





3.2.2. Balance espectral 3.2.3. Tonicidad 3.2.4. Casos corrientes de variabilidad de las características espectrales 3.3.1. Sonidos lisos: sin alteraciones de amplitud y/o frecuencia 3.3.2. Sonidos rugosos 3.3.3. Variabilidad de la cualidad de superficie

3.4. Envolvente dinámica 3.5. Cualidad espacial



3.5.1. Localización 3.5.2. Movimiento 3.5.3. Entorno

4. Características perceptivas de las secuencias sonoras

4.1. 4.2. 4.3. 4.4. 4.5. 4.6. 4.7. 4.8.

Introducción Velocidad Variedad en las duraciones Articulación Diseño de registro Diseño de sonoridad Textura Variedad de fuentes sonoras

5. Codificación digital de sonido

5.1. 5.2. 5.3. 5.4. 5.5. 5.6. 5.7. 5.8. 5.9.



Introducción La cadena electroacústica y su inclusión en la cadena acústica Conversión analógica-digital (ADC) Conversión digital-analógica (DAC) Características y parámetros de la señal digital Frecuencia de muestreo e intervalo de muestreo Teorema de Nyquist Aliasing Cuantización 5.9.1. Resolución en bits 5.9.2. Cuantización uniforme

7





5.9.3. Relación señal-error de cuantización 5.9.4. Cuantización no-uniforme 5.9.5. Dithering

5.10. Codificación y almacenamiento de la señal digital



5.10.1. Archivos de sonido con formato 5.10.2. Archivos de sonido sin formato

6. Principios básicos de análisis de sonido digital

6.1. Introducción 6.2. Análisis de la forma de onda digital





6.2.1. 6.2.2. 6.2.3. 6.2.4.

Amplitud de pico máxima y mínima Muestras fuera de rango Desviaciones del DC Potencia RMS

6.3. Análisis espectral de la señal digital



6.3.1. 6.3.2. 6.3.4. 6.3.5. 6.3.6. 6.3.7. 6.3.8.

Transformada de Fourier discreta (DFT) e inversa (IDFT) Transformada de Fourier discreta rápida (FFT) e inversa (IFFT) Parámetros básicos de la FFT Resolución en frecuencia y resolución temporal Artefactos de análisis y ventanas de suavizamiento Análisis de espectros cambiantes mediante ventanas deslizantes Gráficos de espectros

7. Editores y multipistas de audio

7.1. Presentación 7.2. Editores de audio





7.2.1. 7.2.2. 7.2.3. 7.2.4. 7.2.5.

El espacio de trabajo en los editores de audio Configuración de los dispositivos de audio Vistas de forma de onda y de espectro: configuración y uso Gestión de archivos de sonido Principales editores de audio comerciales y de dominio público

7.3. Multipistas



7.3.1. 7.3.2. 7.3.3. 7.3.4. 7.3.5. 7.3.6.

Espacio de trabajo. Parte 1: General Gestión de archivos de sonido, concepto de proyecto Espacio de trabajo. Parte 2: Pistas y Mezclador Configuración de los dispositivos de audio Exportación del trabajo o Rendering Principales multipistas de audio de dominio público y comerciales

8. Principios básicos de procesamiento de sonido digital

8.1. Presentación 8.2. Cambio de formatos y características de la señal digital





8.3. Procesos simples





8.3.1. Procesos simples en editores de audio 8.3.2. Procesos simples en multipistas de audio

8.4. Filtros digitales





8.2.1. Remuestreo y cambio de frecuencia de muestreo 8.2.2. Cambio de resolución en bits 8.2.3. Cambio de canales

8.4.1. Respuestas de frecuencia usuales 8.4.2. Tipos característicos 8.4.3. Aplicaciones

8.5. Reverberación y espacialización



8.5.2. Indicios de distancia 8.5.3. Reverberadores 8.5.4. Líneas de retardo

8

9. Producción de sonomontajes

9.1. Introducción 9.2. Material sonoro





9.3. Tipos de sonomontajes





9.3.1. Sonomontajes narrativos 9.3.2. Sonomontajes poéticos o abstractos 9.3.3. Sonomontajes poético-narrativos

9.4. Elaboración de guiones sonoros 9.5. Obtención y preprocesamiento de materiales sonoros 9.6. Producción de secuencias sonoras





9.2.1. Tipos de fuente sonora 9.2.2. Nivel de información sonora 9.2.3. Cuadro tipológico del material sonoro

9.6.1. Criterios de enlace 9.6.2. Recursos de articulación 9.6.3. Organización temporal

9.7. Proceso de mezcla



9.7.1. 9.7.2. 9.7.3. 9.7.4.

Balance espectral Localización espacial y reverberación Balance de sonoridad de los diferentes planos Mezcla final



Referencias Bibliográficas

9

Los autores

Oscar Pablo Di Liscia Doctor en Humanidades y Artes de la Universidad Nacional de Rosario. Estudió composición de forma particular con los maestros Dante Grela y Francisco Kropfl. Fue Director de la Licenciatura en Composición con Medios Electroacústicos en la Universidad Nacional de Quilmes, en la que es, además, Profesor Titular Ordinario. Actualmente, es Profesor Titular Ordinario de “Laboratorio de Sonido” en el Área Transdepartamental de Artes Multimediales del Instituto Universitario Nacional del Arte (IUNA). Dirige la Colección “Música y Ciencia” de la Universidad Nacional de Quilmes. Su producción artística, que ha recibido subsidios del Fondo Nacional de Las Artes, la Fundación Antorchas, la Fundación Rockefeller y la Fundación Música y Tecnología, ha sido distinguida en competiciones nacionales e internacionales (Fondo Nacional de las Artes, Secretaría de Cultura de la Nación, Concurso Internacional de Bourges, Francia, etc.) y se ha difundido tanto en el país como en el exterior, en Estados Unidos, Francia, Chile, Cuba, España, Holanda, etc. Ha publicado artículos y libros sobre estética y técnica de la música y las nuevas tecnologías, y desarrollado software para proceso de sonido y música, análisis musical y composición.

Mariano Martín Cura Compositor, docente e investigador nacido en Buenos Aires en 1971. Es Licenciado en Composición con Medios Electroacústicos de la Universidad Nacional de Quilmes. Egresado del “Taller de Composición del Conservatorio Superior de Música Manuel de Falla”. Profesor Ordinario Adjunto en la Universidad Nacional de Quilmes y en el Área Transdepartamental de Artes Multimediales del IUNA. Dirigió la Carrera de Composición con Medios Electroacústicos de la Universidad Nacional de Quilmes entre los años 2005–2011. Actualmente, es Coordinador de Investigación y Posgrado del Área Transdepartamental de Artes Multimediales del IUNA. Formó parte de los siguientes proyectos de investigación radicados en la UNQ: “Aplicaciones musicales de conjuntos y matrices combinatorias de grados cromáticos”, “Teatro acústico”, “Teatro acústico etapa II”, “Música y drama”, “Música y drama etapa II”. Ha realizado presentaciones de sus obras electroacústicas e instrumentales en el país y el exterior, numerosas actuaciones como tecladista y coordinador tecnológico del Ensamble Nacional del Sur (ENS). Desde 2003 forma parte del grupo Buenos Aires Sonora (BAS) con el cual ha presentado diversas obras en Argentina y

http://puredata.info/author/pdiliscia

10

el exterior (Centro Cultural Recoleta, Teatro Argentino de La Plata, Espacio de Arte Contemporáneo de Montevideo, Uruguay).

Lucas Samaruga Es Licenciado en Composición de la Universidad Nacional de La Plata. Actualmente, se encuentra realizando el doctorado con mención en Ciencias Sociales de la UNQ. La temática de su tesis se centra en las representaciones informáticas de los materiales musicales y en cómo los músicos interactúan con la computadora como instrumento musical. Es también ayudante de cátedra en la materia “Laboratorio de Sonido” en el Área Transdepartamental de Artes Multimediales del Instituto Universitario Nacional del Arte. Obtuvo becas de formación doctoral del CONICET para desarrollar su producción científica, entre estas se hay varias publicaciones sobre el empleo de los lenguajes de programación para síntesis de sonido y composición algorítmica, técnicas de composición y técnicas de representación de los materiales musicales empleando medios digitales. Realizó estudios en informática en la Facultad de Informática de la UNLP. Estudió piano, guitarra y trombón en el conservatorio Gilardo Gilardi de la ciudad de La Plata. Ha participado como compositor, director e intérprete en el Ensamble de Alumnos de la UNLP, y como intérprete en la Orquesta de Vientos del conservatorio Gilardo Gilardi.

Damián Anache http://damiananache.com.ar/

Técnico Electrónico (TRQ), Licenciado en Composición con Medios Electroacústicos (Universidad Nacional de Quilmes), doctorando en Ciencias Sociales y Humanas, UNQ (Director Dr. Pablo Di Liscia). Becario de la Secretaría de Investigación y Posgrado Instituto Universitario Nacional del Arte. Formó parte del programa de investigación “Teatro Acústico” (UNQ , 20072011), participando en carácter de intérprete invitado en presentaciones del grupo Buenos Aires Sonora (BAS); siendo asistente de Oscar Edelstein (director del programa), intérprete y jefe técnico del Ensamble Nacional del Sur (ENS); y becario de la Secretaría de Investigación UNQ (período 2009-2010, director Lic. Mariano Cura). Actualmente, integra el Proyecto de Investigación “Síntesis Espacial de Sonido” (UNQ, 2013-2015) dirigido por el Dr. Pablo Di Liscia. Como compositor, sus obras han participado de eventos en: “Conservatorio Santa Cecilia” (Roma, Italia), “Universidad Nacional de Córdoba” (Argentina), “Museo de Arte Moderno de Ecuador” (Ecuador), “Centro Cultural de España en Buenos Aires” (Argentina) y “Centro Cultural Recoleta” (Argentina), entre otros. Introducción

11

Introducción

Esta asignatura debe proveer la formación básica en acústica, percepción sonora, tecnología digital de sonido y elaboración/análisis de secuencias sonoras que el egresado necesita, tanto para poder trabajar en equipos multidisciplinarios de producción artística, como para ponderar y comprender el rol de la música y el sonido en la producción artística actual. Integra, junto con otras nueve materias, el Núcleo de Formación Básica de la Licenciatura en Artes y Tecnologías. Su posición en tal núcleo es singular, dado que no existe en el mismo ninguna asignatura que la complemente de forma directa. Es más, es esta la asignatura que complementa y provee la base para los contenidos relacionados con sonido y música que se incluyen en las demás. Aquellos estudiantes que orienten sus estudios hacia audiovisuales, deberán cursar la asignatura Captura y procesamiento de sonido, y aquellos estudiantes que orienten sus estudios hacia crítica de arte, podrán cursar la asignatura Captura y procesamiento de sonido. En ambos casos, la asignatura Técnicas de sonido digital les servirá de base, proporcionando la formación insoslayable para el desarrollo de contenidos más especializados en materia de sonido y música. Siempre que sea posible, se enfocará cada tema tanto desde un punto de vista teórico como desde una perspectiva de producción que involucre la escucha crítica de los resultados. Serán decisivos para la formación en esta asignatura: saber, escuchar y hacer.

Problemática del campo El recorrido temático comienza por el tratamiento de las ondas sonoras desde su aspecto físico (acústica): ¿cómo se generan las ondas acústica?, ¿cuáles son sus características físicas y los modelos usados en su análisis? y ¿cuáles son los fenómenos que involucra su transmisión en el medio? Luego, se trata al sonido, es decir, la sensación que producen en nosotros las ondas

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

12

sonoras a través de las disciplinas de la psicoacústica y la percepción sonora. Aquí, se establecen relaciones entre los fenómenos físicos y su correlato perceptivo, involucrando en su tratamiento la estructura y funcionamiento del aparato auditivo humano. El siguiente grupo de contenidos se dedica al tratamiento de las categorías perceptivas de los sonidos individuales y de sus secuencias o combinaciones. Una vez que los estudiantes han pasado por todas las nociones básicas antes explicadas, están en condiciones de abordar los siguientes contenidos que involucran, de manera general, las técnicas y tecnologías para la generación, análisis y transformación de sonido por medios digitales. Primero se tratan los aspectos fundamentales del muestreo y la codificación de sonido digital y de su análisis. Sigue la capacitación en el uso de los dos tipos de entornos informáticos característicos para la manipulación y transformación de sonido digital: los editores de audio y los mezcladores o multipistas (D.A.E., Digital Audio Environments). Finalmente, la asignatura cubre la integración de conceptos teóricos, capacidades perceptivas y recursos técnicos en la producción de montajes sonoros abstractos y narrativos. En esta última etapa se usarán ejemplos tanto de música como de secuencias sonoras y bandas para audiovisuales.

Reflexiones acerca del aprendizaje en un entorno virtual Al tener en cuenta el perfil de los estudiantes, se advierte que no están garantizados, ni la formación musical o adiestramiento auditivo para todos ellos (salvo para aquellos que tengan formación en música, audiovisuales o áreas afines a estas), ni tampoco la formación en matemáticas. Esos dos hechos plantean inicialmente restricciones que han de superarse a través de una adecuación coordinada de contenidos y recursos didácticos. Afortunadamente, los medios tecnológicos actuales permiten el desarrollo y disposición de una gran variedad de materiales con diversas relaciones y profundidades selectivas en su exploración por parte de los usuarios: hipertextos, montajes sonoros coordinados con sus análisis vistos en gráficos o animaciones variados, etc. Dichos medios ayudarán a superar las dificultades que puedan encontrar aquellos estudiantes que no estén familiarizados con el sonido y la música. La selección de aplicaciones informáticas que se tratarán específicamente será limitada a aquellos desarrollos de uso libre y gratuito, pero no se dejará por ello de mencionar a las aplicaciones comerciales, sobre todo aquellas que son estándares de la industria. Nada más adecuado para los fines de esta asignatura que la formación en y a través de los medios tecnológicos: aquellos medios y técnicas en los que se habrá de formar el estudiante serán los mismos que utilice constantemente como recursos en su formación.

13

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

14

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

15

1 Principios básicos de acústica y sonido

Objetivos • Abordar los principales campos de conocimiento que son objeto de estudio de la acústica. • Comprender las características de las ondas sonoras. • Alcanzar los principios básicos de la producción y propagación de ondas sonoras.

1.1. Introducción Cuando hablamos de sonido, en general, en realidad estamos haciendo referencia a una suma de fenómenos necesarios para la producción sonora y su percepción. Para empezar a describir estos fenómenos, podríamos decir que necesitamos una fuente sonora (instrumento musical, voz hablada o cantada, etc.) que produzca una vibración u oscilación. Un medio elástico (gaseoso, líquido o sólido) en el que esta perturbación se propague, formando una onda mecánica sonora. Y, finalmente, un receptor que transforme el estímulo sonoro en percepción sonora. LEER CON ATENCIÓN

La Acústica es la disciplina que estudia los fenómenos sonoros mediante modelos físicos y matemáticos. La Psicoacústica estudia los fenómenos perceptivos que emanan de los estímulos sonoros, es decir, las sensaciones que percibimos al recibir una onda sonora.

Por razones pedagógicas, para poder encarar el estudio de un campo tan complejo, abordaremos la temática desde los fenómenos más simples a los más complejos hasta que estos se integren. Por este motivo, en esta unidad nos centraremos en los conceptos básicos de la acústica y la percepción sonora será abordada en las unidades siguientes.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

16

1.2. Onda sonora En física una onda mecánica es la propagación de una perturbación de alguna propiedad de un medio, como puede ser la presión, densidad, etc., implicando un transporte de energía sin transporte de materia. El medio puede ser de diferentes tipos: sólido, líquido o gaseoso.

Un caso fácil de imaginar es la ola que genera el público en los estadios deportivos. El medio es el público, la onda es la perturbación (las personas parándose y sentándose) que viaja alrededor del estadio, sin que las personas viajen con la onda.

Una onda sonora es la propagación de una perturbación de presión o densidad que viaja en un medio elástico.

Se recomienda ver las animaciones de la siguiente página: “Acoustics and Vibration Animations”. Dan Russell, Graduate Program in Acoustics, Penn State University.

1.3. Sistemas físicos intervinientes en la producción y transmisión de sonido Analicemos qué es lo que pasa cuando estamos en una sala, escuchando a un instrumentista que toca su instrumento. En primer lugar, está el ejecutante que genera la música; en segundo lugar, tenemos el aire que transmite el sonido en todas las direcciones; y por último, está el oyente que percibe el sonido.

1.3.1. Fuente sonora La fuente sonora puede ser un instrumento musical, un parlante o cualquier objeto vibrante que pueda generar una onda sonora. En cualquier caso, para que la fuente comience a vibrar es necesario entregarle energía, generalmente esto se realiza a través de un mecanismo de excitación; en un instrumento de cuerda sería el instrumentista, frotando la cuerda con el arco. Toda fuente sonora debe tener un elemento vibrante (cuerdas del violín, etc.) que al ser articulado por el mecanismo de excitación pueda generar una oscilación que produzca una onda sonora. Muchas fuentes sonoras tienen un resonador adicional (caja de resonancia de los instrumentos musicales), cuya función es ayudar a transmitir y amplificar las vibraciones del elemento vibrante al medio elástico de propagación.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

17

1.3.2. Medio Como se mencionó anteriormente, el medio de propagación de una onda sonora puede ser gaseoso, líquido o sólido. En la percepción sonora, el medio de propagación del sonido por excelencia es el aire, por lo que se tratará este caso en particular.

Imaginemos un parlante en una habitación llena de aire. El aire está formado por una gran cantidad de partículas o moléculas, en principio estas se encuentran en reposo o equilibrio. Este equilibrio es dinámico, es decir que las moléculas no están quietas, se mueven caóticamente en todas direcciones, pero con la particularidad de que están distribuidas homogéneamente en toda la sala. De manera tal que se tiene la misma cantidad de partículas por centímetro cúbico tanto cerca como lejos del parlante.

Veamos qué ocurre con el parlante; en un primer momento el cono del parlante se encuentra quieto en su posición de reposo. Cuando este se mueve rápidamente hacia delante, empuja las partículas de aire adyacentes a él sin alterar las que están más alejadas. Entonces, en la zona del cono del parlante el aire estará más comprimido (más partículas por centímetro cúbico) que lejos de él. Esta compresión o desplazamiento de las partículas genera una reacción en cadena que se contagia a las partículas de la zona adyacente a la primera compresión, empujándolas de manera análoga y de esta forma, la perturbación se propaga por el aire en todas las direcciones posibles. Cuando el cono del parlante se mueve hace atrás genera una descompresión de las partículas del aire, que naturalmente tratarán de volver a su posición original, realizando un movimiento análogo al del cono del parlante. A este proceso lo podemos llamar propagación de una onda sonora y es similar a lo que ocurre cuando se deja caer una piedra en un estanque de agua calma. Al caer la piedra en el agua genera una compresión, que produce una perturbación que se propaga por la superficie del agua en forma de circunferencia.

Se recomienda ver las animaciones de la siguiente página: Acoustics and Vibration Animations de Dan Russell, Graduate Program in Acoustics, Penn State University.

Cabe aclarar que cuando la propagación de una onda sonora se da en un espacio cerrado, los contornos o límites del recinto afectan sustancialmente la propagación sonora por medio de la reflexión y absorción, configurando la cualidad acústica de la sala.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

18

1.3.3. Receptor

Los principios básicos de percep-

El oyente o receptor recibe las ondas sonoras y, por medio del sistema perceptivo sonoro, las transforma en impulsos eléctricos. Estas señales nerviosas serán decodificadas por el sistema nervioso auditivo como percepción sonora.

ción sonora serán abordados en la próxima unidad.

1.4. Movimiento oscilatorio Para producir una onda sonora, es necesario que un cuerpo genere un movimiento oscilatorio o vibración que se propague en un medio elástico.

1.4.1. Movimiento oscilatorio simple El movimiento oscilatorio simple es una oscilación o movimiento en torno a una posición de equilibrio. Un ejemplo claro de este tipo de movimiento es el que realiza un péndulo. Cuando el péndulo está quieto se encuentra en su posición de reposo o equilibrio; para que este comience a oscilar necesitamos entregarle energía (empujar la masa del péndulo). Una vez que comienza el movimiento, podemos observar que el péndulo oscila en torno a su posición de equilibrio o reposo repetitivamente. Cuando un movimiento u oscilación se repite regularmente a intervalos de tiempo iguales se lo llama periódico. A cada una de estas repeticiones se las llama ciclo o período. Al pasar el tiempo vemos que el movimiento del péndulo va perdiendo energía hasta que se detiene. Esto ocurre por las fuerzas de rozamiento que operan (fricción del aire y los materiales del péndulo). Para poder simplificar el estudio de estos fenómenos no tendremos en cuenta esta amortiguación por lo que, en teoría, el péndulo no se detendría nunca.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

19

En un movimiento oscilatorio simple se denomina: • Ciclo o período a cada una de las repeticiones del movimiento. • Frecuencia del movimiento a la cantidad de ciclos o períodos por segundo. • Elongación al desplazamiento del movimiento medido desde la posición de reposo. • Amplitud a la máxima elongación del movimiento.

Se recomienda ver las animaciones de la siguiente página: Acoustics and Vibration Animations de Dan Russell, Graduate Program in Acoustics, Penn State University.



1.4.2. Relación entre el movimiento circular uniforme y el movimiento armónico simple El movimiento circular uniforme es un movimiento periódico cuya trayectoria es una circunferencia. Un movimiento armónico simple se puede obtener como la proyección sobre un eje de un punto que describe un movimiento circular uniforme.

Se recomienda ver las animaciones de la siguiente página: Acoustics and Vibration Animations de Dan Russell, Graduate Program in Acoustics, Penn State University.

Como se puede apreciar en el gráfico y la animación precedente, el movimiento oscilatorio simple y el circular uniforme tienen características análogas. Los dos son movimientos periódicos, su frecuencia es la cantidad de ciclos por segundo y la amplitud del movimiento oscilatorio simple es equivalente al radio de la circunferencia.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

20

También podemos relacionar las funciones trigonométricas del seno y coseno con el movimiento oscilatorio simple (como podemos ver en la animación).

1.4.3. La onda senoidal La onda senoidal o sinusoide es una de las ondas más importantes de la física y la matemática por describir la oscilación más sencilla posible. Si bien matemáticamente tiene cierta complejidad, se puede representar con la función trigonométrica seno.

En acústica y sonido, la sinusoide es equivalente al movimiento armónico simple, pero para que esta onda sea audible por nuestro sistema perceptivo, su frecuencia tiene que estar en el rango de los 20 Hz a 20.000 Hz. Las frecuencias inferiores a los 20 Hz serán denominadas infrasonido y las superiores a 20.000 Hz ultrasonido.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

21

Sonido sinusoidal que comienza en 20 Hz y realiza un barrido hasta 15.000 Hz. Cabe aclarar que el barrido se ha realizado solo hasta los 15.000 Hz para evitar la distorsión que se puede generar con la mayoría de los sistemas de reproducción hogareños.

Como la sinusoide es la onda periódica más sencilla, es ideal como punto de partida para el estudio de las ondas sonoras en general. Pero lo que le da más importancia a esta onda, es el hecho de que todas las ondas periódicas pueden ser descompuestas como sumas de ondas senoidales (propiedad demostrada por el Teorema de Fourier).

1.5. Características de la forma de onda Las características que se abordarán a continuación, por razones pedagógicas, serán ejemplificadas en ondas simples o senoidales. Cabe aclarar que las mismas corresponden tanto a ondas simples como a ondas complejas.

1.5.1. Representación gráfica de la forma de onda La representación gráfica del sonido se aplica a todo tipo de ondas y se la denomina oscilograma. Consiste en representar los cambios de amplitud en función del tiempo en un par de ejes, horizontal (tiempo) y vertical (amplitud).

1.5.2. Frecuencia La frecuencia se define como la cantidad de ciclos por segundo de una oscilación periódica. Se mide en ciclos por segundo (cps) o en Hertz, en honor

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

22

al físico alemán Heinrich Rudolf Hertz que descubrió la propagación de las ondas electromagnéticas.

La frecuencia se vincula con el período por la siguiente relación: f=1/T

Si la frecuencia (f ) de una oscilación es de 100 Hz, su período (T) o tiempo necesario para realizar una oscilación completa será: T = 1 / f

T = 1 / 100 Hz T = 0,01s

Si el período (T) de una oscilación es de 0,1seg, su frecuencia (f) será: f =1 / T

f =1 / 0,001s

f =1000 Hz

Los sonidos periódicos son los que definen altura, es decir que los podemos cantar como, por ejemplo, las notas de un piano. La frecuencia de un sonido se relaciona con la altura del mismo. Las frecuencias bajas corresponden a sonidos graves y las altas a sonidos agudos.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

23

Sucesión de ondas senoidales de frecuencias 500Hz – 1.500Hz -3.500Hz y 5.000Hz.

1.5.3. Amplitud La amplitud se define como el máximo valor que alcanza una oscilación en un ciclo, también se la llama valor pico. Está vinculada con la energía o intensidad

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

24

del sonido. También es útil evaluar la energía en un instante determinado que se llama valor instantáneo.

Sucesión de notas de piano con diferente amplitud

Envolvente La amplitud de un sonido no es necesariamente constante, esta puede variar de forma dinámica en el tiempo. La mayoría de los sonidos no duran

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

25

infinitamente. Se puede simplificar la evolución dinámica de un sonido en las siguientes etapas: • Ataque: tiempo en el que sonido crece hasta el pico de máxima energía. • Decaimiento: tiempo en el que la energía cae desde el pico del ataque hasta que se establece. • Sostenimiento o régimen: tiempo en el que la energía se establece estable. • Extinción: tiempo en el que la energía cae desde el régimen hasta que se extingue el sonido.

Onda sinusoidal con envolvente ADSR

1.5.4. Período El período, simbolizado T, es el tiempo transcurrido en realizar un ciclo. Se mide en segundos o en milisegundos. El período de los sonidos audibles para el ser humano va desde los 0,05 ms (sonidos muy agudos) a los 50 ms (sonidos muy Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

26

graves).

1.5.5. Fase Se llama fase de una onda periódica a las diferentes posiciones instantáneas dentro de un respectivo ciclo. Generalmente, la fase se mide en grados y hace referencia al tiempo transcurrido desde el inicio de la oscilación.

LEER CON ATENCIÓN

Dos ondas periódicas de igual frecuencia se encuentran en fase cuando están sincronizadas, por lo que en un momento determinado ocupan posiciones idénticas de un ciclo. Cuando una comienza después de otra, siempre ocuparán posiciones distintitas dentro del respectivo ciclo, por lo que tendrán una diferencia de fase.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

27

Comparación entre movimientos Dos movimientos con una diferencia de fase de 90º

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

28

Dos movimientos con una diferencia de fase de 180º

Dos movimientos con una diferencia de fase de 270º

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

29

Dos movimientos de igual frecuencia, fase y distinta amplitud

Dos movimientos de igual fase, amplitud y distinta frecuencia

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

30

1.6. Suma de ondas senoidales Cuando se suman dos ondas senoidales se suma la energía de cada una y como resultado se obtiene la combinación de las dos ondas. Para simplificar, nos concentraremos en la representación de la forma de onda e imaginaremos dos sinusoides. A intervalos regulares de tiempo evaluaremos la energía de cada onda, las sumaremos y obtendremos el nuevo valor de elongación de la sumatoria de las dos ondas. Entonces, la suma de las dos ondas será el resultado de la suma algebraica de la energía de cada una de estas, evaluada a intervalos regulares de tiempo.

1.6.1. Suma de ondas senoidales cuya resultante es otra senoidal Para que la suma de dos sinusoides dé como resultado otra sinusoide, es necesario que ambos componentes tengan la misma frecuencia.

Suma de sinusoides de igual frecuencia, amplitud y fase La resultante es otra sinusoide de igual frecuencia, fase y el doble de amplitud.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

31

Suma de sinusoides de igual frecuencia, fase y distinta amplitud La resultante es otra sinusoide de igual frecuencia, fase y la suma de sus amplitudes.

Suma de sinusoides de igual frecuencia, amplitud y distinta fase Si la diferencia de fase es cercana a 0º, la amplitud resultante será próxima al doble. Por el contrario, si la diferencia de fase es cercana a 180º, la amplitud resultante será cercana a cero.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

32

Suma de sinusoides de igual frecuencia y amplitud, pero con fases distintas La resultante es otra sinusoide de igual frecuencia, la amplitud será la suma de las amplitudes y la fase el promedio de las fases.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

33

Suma de sinusoides de igual frecuencia y amplitud, pero en oposición de fase La resultante será una línea recta o silencio.

1.6.2. Suma de ondas senoidales cuya resultante es una onda compleja Todos los tipos de ondas que no sean senoidales se denominan ondas complejas. El Teorema de Fourier, que se desarrollará en profundidad en la Unidad 6, muestra que podemos descomponer a las ondas complejas como suma de ondas simples o senoidales de frecuencia, amplitud y fase determinadas. Si las frecuencias de los componentes de una onda compleja son múltiplos enteros de la sinusoide de frecuencia más baja, la onda resultante será periódica o armónica. Si las frecuencias de los componentes de una onda compleja no son múltiplos enteros de la sinusoide de frecuencia más baja, la onda resultante será aperiódica o inarmónica.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

34

Espectro de frecuencias Podemos definir al espectro de una onda como la distribución de su energía en función de la frecuencia. La representación de la forma de onda y del espectro son dos posibles visualizaciones de las características de una misma onda. En la forma de onda vemos representada la amplitud en función del tiempo, y en el espectro de frecuencias, la amplitud en función de la frecuencia. Se puede representar gráficamente la distribución de energía de una onda en un momento dado por medio de un espectro de frecuencias o espectrograma. Consiste en representar la amplitud en función de la frecuencia en un par de ejes, vertical para la amplitud y horizontal para la frecuencia. Gracias a esta representación, podemos visualizar la descomposición de una onda compleja como la suma de ondas senoidales de frecuencia y amplitud determinadas.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

35

Ondas complejas periódicas Una onda periódica de frecuencia f se puede descomponer como una suma de sinusoides cuyas frecuencias serán f, 2f, 3f, 4f, 5f, etc. A la frecuencia f se la denomina fundamental y es la que determina la altura percibida. A los otros componentes se los denomina armónicos superiores y se encuentran en una relación de múltiplos enteros con la fundamental. Si tenemos una onda compleja cuya fundamental es de 440 Hz la podemos representar como la suma de armónicos con amplitudes y fases determinadas, cuyas frecuencias serán: (f) 440 Hz + (f2) 880 Hz + (f3) 1.320 Hz + (f4) 1.760 Hz + (f5) 2.200 Hz, etcétera.

Sonidos periódico de (f ) 440 Hz + (f2) 880 Hz + (f3) 1.320 Hz + (f4) 1.760 Hz + (f5) 2.200 Hz.

Onda diente de sierra La onda diente de sierra es una onda periódica generada artificialmente en la que la amplitud de sus armónicos decrece proporcionalmente con el número de armónico.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

36

Onda diente de sierra de 440 Hz

Onda cuadrada La onda cuadrada se obtiene sumando solo los armónicos impares, y su amplitud decrece proporcionalmente con el número de armónico.

Onda cuadrada de 440 Hz

Onda triangular La onda triangular se obtiene sumando solo los armónicos impares, y su amplitud decrece proporcionalmente con el cuadrado del número de armónico.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

37

Onda triangular de 440 Hz

Ondas complejas aperiódicas A las ondas complejas cuyas componentes no forman parte de una serie armónica se las denomina aperiódicas. Estas ondas producen sonidos que no definen altura.

Onda compleja aperiódica cuyas componentes son: 440Hz + 1.641Hz + 1.862Hz + 2.783Hz + 3.725Hz

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

38

1.6.3. Batidos o pulsaciones Un caso particular de suma de ondas periódicas simples o complejas que no están en relación armónica es el que se conoce como batidos o pulsaciones. Este fenómeno se produce a partir de la suma de ondas periódicas cuyas frecuencias sean levemente distintas, sin superar los 20hz de diferencia. El resultado de dicha suma será otra onda del mismo tipo, cuya frecuencia será el promedio de las frecuencias originales. Su amplitud no será constante, sino que variará periódicamente en el tiempo a una frecuencia igual a la diferencia de las frecuencias originales. Los músicos aprovechan este fenómeno para afinar sus instrumentos. Se toma un tono de referencia, por ejemplo el La de 440 hz que da un diapasón, se toca la misma nota en el instrumento a afinar, y mientras se escuchen batidos entre los dos sonidos, estos estarán desafinados. Entonces, es necesario subir o bajar la afinación del instrumento hasta que los batidos desaparezcan.

Sumemos dos sinusoides de frecuencias (f1) = 440 Hz y (f2) 442 Hz. La frecuencia resultante (fr) será el promedio de sus frecuencias: (fr) = ((f1)+(f2))/2 (fr) = (440 Hz + 442 Hz)/2 =441 Hz La frecuencia del batido (fb) será: (fb) = (f1)-(f2) (fb) = 442 Hz – 440 Hz = 2 Hz Batido producido por la suma de dos sinusoides de 440 Hz y 442 Hz

Se recomienda ver las animaciones de la siguiente página:

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

39

Acoustics and Vibration Animations de Dan Russell, Graduate Program in Acoustics, Penn State University.

1.7. Timbre Dijimos que el espectro de una onda sonora es la distribución de su energía en función de la frecuencia. La evolución del espectro en el tiempo se relaciona con un atributo perceptivo del sonido que se denomina habitualmente timbre. Es una de las características más significativas de un sonido en cuanto a su identidad, ya que nos permite discriminar entre una fuente sonora y otra (distinguir que un sonido proviene de un piano o una guitarra cuando producen sonidos de igual frecuencia y amplitud). Los sonidos evolucionan en el tiempo y su distribución de energía o espectro puede cambiar en las diferentes etapas del mismo. Evaluemos lo que ocurre cuando se toca una nota con un piano. El ataque es la etapa en el que crece la intensidad hasta el pico de amplitud y la distribución de la energía tiene, por un lado, el golpe del martillo sobre la cuerda, que tiene un espectro aperiódico (como sucede generalmente en los sonidos de percusión); y, por el otro, la parte armónica, que es propia de la oscilación de la cuerda. En la extinción del sonido, vemos que la parte inarmónica desaparece, la energía se concentra en la parte armónica y a medida que pasa el tiempo, esta decae primero en los armónicos superiores, perdiendo brillo, hasta que el sonido se extingue.

1.7.1. Sonograma Para poder visualizar el timbre de un sonido necesitamos representar la evolución de la distribución de energía en el tiempo. Una manera de realizarlo es con una sucesión de espectrogramas, obteniendo una suerte de película. El sonograma es otra forma de representación gráfica de la misma información y las tres dimensiones a visualizar (frecuencia, amplitud y tiempo) se representan de la siguiente manera: • Tiempo: eje horizontal. • Frecuencia: eje vertical. • Amplitud: graduación de color o escala de grises.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

40

1.8. Propagación de las ondas sonoras Como vimos anteriormente una onda sonora es una onda mecánica con un rango de frecuencias de 20 Hz a 20.000 Hz que se propaga en un medio elástico, sea este gaseoso, líquido o sólido.

1.8.1. Velocidad de propagación del sonido La velocidad de propagación del sonido depende de las características del medio transmisor y no de las características de la onda que lo genera. En general, cuanto mayor sea la compresibilidad del medio de transmisión, menor será la velocidad de propagación del sonido. La velocidad de propagación del sonido en el aire a 0 ºC es de 331,4m/s y aumenta 0,6m/s por cada grado que aumenta la temperatura.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

41

Tenemos una fuente sonora ubicada a 150m del receptor y la temperatura es de 23 ºC. Cuando la fuente genera una onda sonora, este tardará en llegar al receptor 0,43s. Velocidad de propagación = 345m/s Tiempo en propagarse 150m = 150/345 = 0,43s

1.8.2. Frente de onda El frente de onda es la superficie o línea formada por los puntos del medio de propagación que son alcanzados en un mismo instante por una onda mecánica. La forma del frente de onda, cuando se propaga en el aire, se puede considerar plana o esférica, en la medida en que se aleja de la fuente emisora. Se llama vector de radiación o rayo a la flecha perpendicular al frente de onda que marca la dirección de la propagación. En un modelo ideal, el frente de onda se propaga omnidireccionalmente (en todas las direcciones por igual), pero dependiendo del tipo de fuente emisora nos encontramos con propagaciones más o menos direccionales.

Se recomienda ver las animaciones de la siguiente página: Acoustics and Vibration Animations de Dan Russell, Graduate Program in Acoustics, Penn State University.

1.8.3. Longitud de onda La longitud de onda (λ) es la distancia que recorre una perturbación u onda en el intervalo de tiempo de un período (T) o la duración de un ciclo.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

42

Entonces, para poder determinar la longitud de onda tenemos que multiplicar la velocidad de propagación del sonido por el período de la onda a evaluar: λ = v.T Como el período es inverso a la frecuencia, también podemos calcular la longitud de onda de la siguiente manera: λ = v/f Podemos deducir entonces que la longitud de onda es inversamente proporcional a la frecuencia del sonido. Los sonidos más graves (frecuencias bajas) tendrán longitudes de onda más grandes que los sonidos agudos (frecuencias altas).

Tomemos tres notas musicales: La3 = 220 Hz La5 = 880 Hz La7 = 3.520 Hz Velocidad de propagación del sonido = 345m/s a 23ºC de 220 Hz = 345/220 = 1,57m de 880 Hz = 345/880 = 0,39m de 3.520 Hz = 345/3.520 = 0,01m

1.8.4. Comportamiento de la propagación de las ondas sonoras en espacios cerrados La ley de la conservación de la energía afirma que la energía no se pierde, no puede crearse ni destruirse, solo puede cambiar de un estado a otro. La energía de una onda sonora que se propaga en un medio elástico como el aire, no se pierde, una parte se va disipando en forma de calor. Esto ocurre en frecuencias agudas y es perceptible a distancias mayores a cincuenta metros. Cuando una onda sonora se propaga en un recinto se encuentra con los límites físicos de la habitación (paredes, techo, piso) y con los objetos u obstáculos que en ella se encuentren. Al encontrarse con una pared, parte de la energía se refleja (similar a la reflexión de la imagen en un espejo) y, otra parte, penetra en el material de la misma, cambiando el medio de propagación. Estas transformaciones o redistribuciones de energía acústica se pueden describir tomando como referencia cuatro tipos de fenómenos.

Reflexión La reflexión es el cambio de dirección que experimenta la onda sonora cuando se encuentra con un límite físico como, por ejemplo, una pared. Este cambio de dirección depende del ángulo de incidencia del frente de onda, sobre la superficie, similar a lo que ocurre cuando una bola de billar se encuentra con el límite de la mesa.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

43

Absorción Cuando una onda sonora se refleja sobre un medio como una pared, la reflexión nunca es completa. Parte de la energía de la onda cambia de medio y es absorbida por el segundo medio de transmisión. El coeficiente de absorción es la relación entre la energía reflejada y la absorbida por el material y tiene valores que van de 0 a 1, siendo 0 la mínima absorción (por lo que toda la energía del sonido es reflejada), y 1, cuando la absorción es completa. La absorción depende de las características del material. En general los materiales blandos y porosos, como la lana de vidrio o roca son muy absorbentes y los materiales duros y lisos como el hormigón son muy poco absorbentes y muy reflejantes. Cabe aclarar que la absorción de los materiales no es igual en todas las frecuencias, por lo que no hay un coeficiente de absorción único. En general, la absorción de los materiales se mide a varias frecuencias.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

44

Refracción La refracción es el cambio de dirección que experimenta una onda sonora cuando pasa de un medio a otro. Este fenómeno se debe a la diferencia de la velocidad de propagación entre los dos medios. Es similar a lo que ocurre con la luz cuando metemos un lápiz en un vaso de agua y nos parece que se quiebra. Cabe aclarar que esto ocurre cuando la onda incide oblicuamente sobre la superficie de separación de los medios. Cuando la incidencia es perpendicular, la dirección no cambia.

Difracción La difracción es el cambio de dirección que experimenta una onda sonora cuando se encuentra con un obstáculo o atraviesa una abertura. Para que se dé este fenómeno, la longitud de onda de la onda debe ser mayor al tamaño del obstáculo, por lo que es más común que se produzca para las frecuencias graves que para las agudas. Imaginemos que una onda sonora se encuentra con una columna (obstáculo): si la longitud de onda es superior al diámetro de la columna se produce difracción y las ondas rodean al obstáculo sin problema. Por el contrario, si la longitud de onda es menor al diámetro de la columna, no se produce difracción y la onda es reflejada por el obstáculo, produciendo del otro lado del mismo lo que se llama “sombra acústica”.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

45

Podemos deducir que un mismo obstáculo producirá sombra acústica para las frecuencias cuyas longitudes de onda son menores que su tamaño y, por el fenómeno de difracción, las frecuencias menores podrán rodearlo. Esto es lo que ocurre cuando nos encontramos detrás de una columna en un espacio cerrado y percibimos que faltan frecuencias agudas y, cuando nos movemos, estas frecuencias reaparecen. Cuando un frente de onda se encuentra con una abertura (puerta, ventana, etc.) la onda se dispersa como si se hubiera generado allí. Esto es lo que percibimos cuando escuchamos música saliendo por una ventana, no nos damos cuenta dónde se origina la onda dentro del recinto, todo nos indica que la onda proviene de la ventana.

1.8.5. Efecto Doppler El efecto Doppler es el aparente cambio de frecuencia de una onda debido al movimiento relativo de la fuente respecto de su receptor. Este efecto es el que percibimos cuando un móvil (auto, tren, etc.) se nos

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

46

acerca o aleja. La onda sonora que produce la fuente es siempre la misma pero, a medida que la fuente se acerca, percibimos cómo aumentan la sonoridad y la frecuencia. Cuando la fuente nos alcanza, es el momento en el que la frecuencia aparente llega a su punto máximo. Cuando el móvil comienza a alejarse, percibimos cómo la frecuencia comienza a bajar. Este fenómeno ocurre debido a la compresión que experimenta el frente de onda cuando la fuente sonora se desplaza en su misma dirección, disminuyendo la longitud de onda. Por el contrario, en las zonas en la que la dirección de la fuente es contraria al de los frentes de onda, estos experimentan una expansión, por lo que la longitud de onda aumenta.

Efecto Doppler producido por el desplazamiento de un avión

Se recomienda ver las animaciones de la siguiente página: Acoustics and Vibration Animations de Dan Russell, Graduate Program in Acoustics, Penn State University.

1. Observe las formas de onda que se presentan a continuación y averigüe para cada una de ellas los siguientes parámetros: a) Frecuencia b) Período c) Amplitud d) Fase inicial

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

47

2. Realice el siguiente multiple choice: En un movimiento periódico se denomina período (T): • a la frecuencia del movimiento • a la cantidad de ciclos que el móvil hace por segundo • al tiempo transcurrido al realizar un ciclo Se llama frecuencia de un movimiento: • a la cantidad de ciclos realizados por segundo • a la duración de un ciclo • a la distancia recorrida en un ciclo. Dos movimientos oscilatorios simples de igual frecuencia se hallan en fase cuando: • en un instante dado, ocupan posiciones idénticas en su respectivo ciclo • en un instante dado, tienen igual amplitud • en un instante dado, ocupan posiciones opuestas en su respectivo ciclo. d) La suma de dos movimientos oscilatorios simples de igual fase, frecuena) b) c)

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

48

e)

f) g) h) i) j)

cia y amplitud es igual: • a un movimiento oscilatorio simple de igual fase, frecuencia y cero de amplitud • a un movimiento oscilatorio simple de igual fase, frecuencia y el doble de amplitud • a un movimiento oscilatorio simple de igual frecuencia, amplitud y distinta fase. Cuando en la suma de dos movimientos oscilatorios simples de igual frecuencia y amplitud, la diferencia entre sus fases es cercana a 180º la amplitud resultante: • será cercana al doble • será cercana a cero • será cercana a la mitad. La longitud de onda de un sonido a una frecuencia dada dependerá: • del medio en el que esta se propague y su temperatura • de la distancia a la fuente • del medio en el que esta se propague. Se llama frente de onda a: • la distancia recorrida por una perturbación en un momento dado • la superficie formada por todos los puntos que en un momento dado experimentan una misma perturbación • al momento en que la perturbación encuentra un obstáculo. El rango audible en personas sanas de extiende: • de 0 hz a 40.000 hz • de 50 hz a 12.500 hz • de 20 hz a 20.000 hz. La amplitud pico de un sonido: • es la energía promedio del sonido • es el momento del sonido en el que la amplitud alcanza la energía máxima • es la intensidad del sonido. La envolvente dinámica de un sonido: • es la forma en que se desarrolla la amplitud del mismo en el tiempo • es la forma del ataque del mismo • es la forma en la que varía la frecuencia del mismo en el tiempo.

A fin de ampliar la información sobre los temas tratados en esta unidad lea: Miyara, F. (2004), “Capítulo I”, en: Acústica y sistemas de sonido. UNR Editora, Rosario.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

49

Referencias Bibliográficas Miyara, F. (2004), Acústica y Sistemas de Sonido. UNR Editora, Rosario. Recuero, M. (1995), Ingeniería Acústica. Parainfo, Madrid. Roederer, J. (1997), Acústica y Psicoacústica de la Música. Riccordi Americana S.A.E.C., Buenos Aires. RESNICK, R. HALLIDAY, D. KRANE, K.S. (2001), Física Vol.1. Compañía Editorial Continental, México. EVEREST, F. A. (1994), The Master Handbook of Acoustics 3rd Edition. Tab Books Division of McGraw Hill Inc, New York.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

50

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

51

2 Principios básicos de percepción sonora

Objetivos • Que el estudiante comprenda los conceptos de presión e intensidad, sus relaciones con las ondas sonoras y sus formas de medición. • Que el estudiante comprenda las principales características y fisiología del sistema auditivo humano. • Que el estudiante comprenda las principales áreas de la percepción sonora relacionadas con la sonoridad, la altura y la espacialidad.

2.1. Introducción Cuando los humanos procesamos, a través de nuestro sistema auditivo y cerebro, una onda acústica, se forma en nuestra mente la sensación de sonido. Como sensación, el sonido tiene atributos perceptivos que tienen relaciones sumamente complejas con los atributos físicos de las ondas sonoras que lo generan. La complejidad de estas relaciones se debe, en gran medida, a las características de nuestro sistema auditivo y de nuestra mente. La Psicoacústica y la Percepción Sonora estudian tales relaciones, principalmente a través de la investigación experimental. Los campos de estudio de las disciplinas mencionadas son muy numerosos e involucran intereses y aplicaciones muy variados, que van desde la medicina, los estudios de la mente, el diseño de dispositivos de audio hasta la producción sonora artística y comunicacional, por mencionar algunos de ellos. En esta unidad se tratarán solo los aspectos más relevantes de la percepción sonora relacionados con la sonoridad, la altura y la espacialidad del sonido.

2.2. Presión dinámica e intensidad de las ondas acústicas Antes de tratar en detalle los aspectos perceptivos de las señales acústicas, se verán algunas unidades de medición de sus atributos físicos.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

52

2.2.1. Relación entre amplitud, presión e intensidad acústica La amplitud del movimiento de un cuerpo que vibra y produce una onda sonora es directamente proporcional a la presión e intensidad acústica que esta produce. La amplitud del movimiento de las moléculas en las ondas sonoras, en la escala del mínimo audible al umbral del dolor, es de 10-11 (0.00000000001) metros a 10-5 (0.00001) metros. Como resulta complicado medir la amplitud del movimiento en las moléculas, dadas las ínfimas dimensiones de este, se toman habitualmente como referencia las nociones de presión dinámica e intensidad.

2.2.2. Presión estática La presión es una fuerza ejercida sobre una superficie. Cuando no cambia (o lo hace muy levemente en intervalos de tiempo muy grandes), se considera presión estática. Por ejemplo, la presión estática media de la atmósfera terrestre es de 101.300 Pa (1.013 hectopascales). Cada Pascal (Pa) equivale a una fuerza de 1 Newton por m2.

2.2.3. Presión dinámica Dado que una onda sonora produce cambios de presión en el medio (habitualmente, el aire) a intervalos temporales de su frecuencia, se considera que produce presión dinámica. Estos cambios de presión son positivos o negativos (mayores o menores que la presión promedio de la atmósfera, por ejemplo). La presión dinámica producida por las ondas sonoras se mide con micrófonos sensibles a presión, tomando como referencia máxima 20 Pa y mínima 20 micropascales. En términos de acústica, es habitual medir la presión y la intensidad de las ondas sonoras en unidades que se denominan decibeles (dB).

Vivimos habitualmente en el fondo de un océano de aire... La atmósfera es el gran lienzo en el que la música es pintada. Toda vez que una perturbación interrumpe el reposo de la atmósfera, las “noticias” del evento son propagadas hacia afuera en todas las direcciones a la velocidad del sonido… si esa perturbación mecánica es causada por oscilaciones que están en el rango aproximado de 20 a 20000 por segundo, la perturbación resultante puede ser potencialmente detectada a través de nuestro sentido de la audición, asumiendo que las oscilaciones sean suficientemente fuertes como para ser oídas y suficientemente débiles como para no dañar nuestro mecanismo de audición (Moore, 1990: 340-341).

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

53

Cuando los Decibeles se usan para la medición de presión sonora, se los denomina dB SPL (del inglés, Sound Pressure Level, Nivel de Presión Sonora). La relación entre la presión de las ondas sonoras medida en dB SPL y en Pascales es la siguiente: Presión = 20 * log10(p/pr). [Db SPL] En donde p es la presión y pr =20 micropascales (20 Pa / 1000000), ambas indicadas en Pascales. LEER CON ATENCIÓN

La escala de dB SPL va de 0 dB (Umbral de Audición) a 120 dB (Umbral del dolor). Se corresponde mejor con nuestra percepción de la sonoridad (variaciones de presión proporcionales generan sensaciones de variación de sonoridad equivalentes) y reduce notablemente el enorme rango numérico que implica expresar la presión en Pascales.

TEXTO APARTE

La denominación de Decibel proviene de la unidad denominada Belio (Bell, en inglés) en honor a su inventor, el físico inglés Alexander Graham Bell (1847-1922). Un Decibel es la décima parte de un Belio. Se considera una unidad relativa, dado que expresa la relación entre dos magnitudes, una de referencia y la que se quiere medir. No se usa únicamente en acústica, sino también en electricidad. Para convertir presión en Pa a dB y en dB a Pa se pueden usar las siguientes fórmulas: xdB = 20*Log10(xpa/xpref) xPa = (10 (xdB /20))*0.00002

Convertir 2.5 Pa a dB: xdB = 20*Log10(2.5/xpref) = 20*Log10(2.5/0.00002) = 101.93 dB Convertir 5 Pa a dB: xdB = 20*Log10(5/xpref) = 20*Log10(5/0.00002) = 107.95 dB Convertir 10 Pa a dB: xdB = 20*Log10(10/xpref) = 20*Log10(10/0.00002) = 113.97 dB

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

54

LEER CON ATENCIÓN

Obsérvese que a cada 6 dB de aumento o disminución, corresponde un cambio de la presión dinámica del doble o la mitad, respectivamente.

2.2.4. Potencia e intensidad acústica La potencia acústica es la cantidad de energía acústica transferida por unidad de tiempo y se mide en unidades denominadas Watts. La unidad denominada Watt (en

P= DE/Dt Watts

español, Vatio, abreviada W), fue inventada por el ingeniero escocés James Watt (1736-1819). Se utiliza muy corrientemente también en electricidad.

La letra griega D (Delta) se suele usar, por convención, para indicar una diferencia entre dos magnitudes. En este caso, dos medidas de energía sucesivas tomadas en un intervalo de tiempo. La intensidad acústica es la potencia que atraviesa un área. Se mide en W/ m2. I= P/A Watts/m2 En donde A es el área o superficie afectada por la potencia P. LEER CON ATENCIÓN

La intensidad acústica de una onda progresiva plana es proporcional al cuadrado de su presión dinámica. Por lo que, tanto intensidad y presión dinámica, como potencia, son maneras de medir la energía asociada a una onda acústica.

20Pa de presión dinámica (umbral del dolor), equivalen a una intensidad de 1 W/m2 y 20mPa (micropascales, umbral de audibilidad) equivalen a 10-12 W/m2. De manera análoga a la presión dinámica, la intensidad se puede medir en dB SIL (del Inglés, Sound Intensity Level, Nivel de Intensidad Sonora), de acuerdo con la siguiente ecuación: xdB = 10*Log10(I/Iref) ) (dB SIL) Donde Iref=10-12 W/m2 En la siguiente tabla (Basso, 2006) se pueden ver varios valores de presión dinámica e intensidad acústica en Pa y W/m2 respectivamente: relacionados con su valor expresado en dB SPL y dB SIL, y con las situaciones típicas que generan las ondas sonoras de tales niveles.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

55

Correspondencia entre valores de presión dinámica, intensidad, niveles en dB y situaciones típicas que producirían ondas sonoras con esos niveles Presión dinámica (Pa)

Intensidad (W/m2)

Nivel (dB)

Situación típica

20 Pa

1 W/m2

120 dB

Umbral del dolor

2 Pa

1 W-2/m2

100 dB

Martillo neumático

200 mPa

1 W-4/m2

80 dB

Calle muy transitada

20 mPa

1 W-6/m2

60 dB

Conversación normal

2 mPa

1 W-8/m2

40 dB

Sala de estar

200 μPa

1 W-10/m2

20 dB

Dormitorio tranquilo

20 μPa

1 W-12/m2

0 dB

Umbral de audibilidad

1. a) Usando las fórmulas que se han provisto en esta sección, convierta diversos valores de presión sonora en Pa a dB SPL y viceversa. b) Derive las fórmulas necesarias para convertir valores de intensidad acústica en dB SIL a W/m2. LECTURA OBLIGATORIA

Miyara, F. (2013), “Capítulo 3”, en: Ruido, Arte y Sociedad. UNR Editora, Rosario.

2.3. Sistema auditivo periférico humano Para poder explicar algunos de los procesos de percepción sonora humana, es imprescindible conocer las características del sistema auditivo periférico humano. Actualmente, sin embargo, se ha demostrado que la percepción sonora no depende solamente del sistema auditivo periférico, sino también de funciones de alto nivel que realiza nuestro cerebro. El sistema auditivo periférico humano se integra por dos conjuntos iguales de órganos pequeños que se ubican a ambos lados de la cabeza. Se divide en tres partes a los efectos de su estudio: oído externo, oído medio y oído interno. En lo que sigue, se tratarán las características principales de cada una de esas tres partes, como así también las subpartes que las integran y sus funciones más básicas.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

56

PARA AMPLIAR

Sistema auditivo periférico humano http://www.fairview.org/healthlibrary/Article/83594

2.3.1. Oído externo El oído externo junto con la cabeza y el torso superior forman un sistema que, básicamente, transmite al tímpano las ondas acústicas. Se compone del pabellón auricular y el conducto auditivo.

Se ampliará este aspecto en la sección de audición espacial.

El pabellón auricular es una estructura de cartílagos con circunvoluciones de forma bastante compleja. Básicamente, su función es análoga a la de un filtro direccional que ayuda a localizar las fuentes sonoras, especialmente en el plano medio y frontal. El canal auditivo es una cavidad con forma cilíndrica de aproximadamente 7*26 mm, y una superficie de 1 cm3. Conjuntamente con el pabellon auricular atenúa las frecuencias bajas y las altas con un énfasis en 2800 Hz aproximadamente. Veremos más adelante que esta característica condiciona fuertemente nuestra percepción de la sonoridad.Atenúa las frecuencias bajas y las altas con un énfasis en 2800 Hz aproximadamente. Veremos más adelante que esta característica condiciona fuertemente nuestra percepción de la sonoridad.

En el siguiente enlace puede obtenerse una ilustración del oído externo http://www.asha.org/public/hearing/Outer-Ear/

2.3.2. Oído medio El oído medio está ubicado en una cavidad del hueso temporal denominada caja timpánica. Tiene por función principal poner en rango (“amplificar”) la energía acústica que llega al tímpano y transmitirla al oído interno. Tiene tres componentes básicos: tímpano, cadena de huesecillos y conducto auditivo. • El tímpano es una membrana de 0.6 cm2 aproximadamente que se encuentra entre el final del canal auditivo y el oído medio. Transmite las ondas sonoras al oído medio. • La cadena de huesecillos es un sistema de tres huesos conectados por sus ligamentos y músculos de control. Se denominan Martillo, Yunque y

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

57

Estribo. Funcionan como un control de ganancia variable y transmiten las vibraciones amplificadas o no. Su acción de amplificación puede variar en un rango de entre 20 y 30 dB SPL aproximadamente. • El conducto auditivo (llamado también Trompa de Eustaquio) es un conducto que conecta a la cavidad del oído medio con la cavidad nasofaríngea. Permite equilibrar la presión atmosférica entre las paredes externa e interna del tímpano. La presión atmosférica externa es estática y se iguala con la interna gracias al conducto auditivo, que deja entrar el aire. El conducto auditivo se abre cuando bostezamos, masticamos o tragamos. • Las ventanas oval y redonda son el vínculo entre el oído medio y el oído interno.

2. Investigue qué relación hay entre la función de equilibrio de presiones que permite el conducto auditivo y la sensación de “oídos tapados” que se produce cuando el oyente está en un avión que cambia de altitud rápidamente. ¿Se le ocurre qué causa esta molestia y por qué, por ejemplo, mascar chicle la elimina? En el siguiente enlace puede obtenerse una ilustración del oído medio http://www.asha.org/public/hearing/Middle-Ear/

2.3.3. Oído interno El oído interno ocupa una cavidad del hueso temporal denominada laberinto óseo. Tiene por función principal transformar las vibraciones mecánicas en impulsos nerviosos y transmitirlos al cerebro. Se compone de tres partes: vestíbulo, canales semicirculares y caracol. • El vestíbulo es una cavidad dividida en dos partes (Utrículo y Sáculo) que conecta el oído medio con el interno. • Los canales semicirculares son tres conductos semicirculares en cuadratura que no tienen una función específica en la percepción sonora, sino que son responsables de nuestra sensación de equilibrio. • El caracol o coclea está conectado al nervio auditivo (octavo par craneal) que se divide en dos partes, responsables cada una de ellas de la transmisión de datos relacionados con la audición y el equilibrio.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

58

- La cóclea es un órgano que forma una espiral de dos vueltas y media (aproximadamente 35 mm de largo) y tiene una base (membrana basilar) en la que se apoya el órgano de Corti. El órgano de Corti contiene las células ciliadas que transforman las vibraciones mecánicas del oído medio en impulsos nerviosos. La cóclea es tanto un órgano transmisor de señales eléctricas al cerebro, como receptor de señales provenientes de este, dado que posee dos tipos de células dedicadas respectivamente a cada una de esas funciones. - El órgano de Corti se ubica por encima de la membrana basilar. La membrana basilar es más angosta y rígida en su base que en su fin o Apex (más ancho y elástico). Por ello, desde el Apex o punta (frecuencias bajas), va cambiando la respuesta a frecuencia hacia la base (frecuencias altas).

En el siguiente enlace puede obtenerse una ilustración del oído interno. http://www.asha.org/public/hearing/Inner-Ear/

LECTURA RECOMENDADA

Basso, G. (2006), “Capítulo I”, en: Percepción Auditiva. Colección Música y Ciencia. UNQ, Bernal, Argentina.

2.4. Percepción de la sonoridad Según Basso (2006): “(…) la sonoridad es el rasgo de la sensación auditiva por el que los sonidos se pueden ordenar en una escala que se extiende del silencio a lo muy sonoro”. Como la altura, la sonoridad es una sensación y, por lo tanto, su percepción se investiga a partir de estudios estadísticos del resultado de la experimentación con sujetos. Se ha comprobado, además, que si bien la sonoridad varía de manera proporcional a la intensidad o presión de la onda sonora, lo hace de una manera muy compleja en la que tienen gran influencia muchas otras características de la señal acústica (como su espectro, frecuencia y duración). La discusión que sigue intenta presentar un resumen de tales particularidades.

2.4.1. Umbrales absolutos de audibilidad Son las mínimas presiones o intensidades sonoras audibles. Se consideran dos tipos de umbrales, según la forma de medición:

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

59

1- La MAP (Mínima Presión Audible) se mide por medio de auriculares. 2- La MAF (Mínimo Campo Audible) se mide por medio de altoparlantes. Para la medición del MAP o MAF con propósitos clínicos, se toma habitualmente como estímulo una sinusoide a 1000 Hz, realizando distintas audiciones a medida que se va disminuyendo su intensidad, hasta que el sujeto de experimentación determine que ya no puede oír. Inicialmente, se pensó que las MAP y MAF no variaban con la frecuencia del estímulo usado, pero luego se comprobó que no es así, ambas varían de acuerdo con la frecuencia de la señal sinusoidal que se utilice como estímulo. Los experimentos dieron como resultado curvas como las que se ilustra en la imagen siguiente, en las que se grafican las MAP y MAF en función de la frecuencia del estímulo. Puede apreciarse que las curvas se corresponden muy bien con la inversa de la curva de la función de transferencia del oído medio. En la práctica médica, se considera que los oyentes que, para oír el estímulo, necesitan un nivel de hasta 20 dB por encima al de los niveles de la ilustración siguiente, tienen una audibilidad normal. La capacidad de audibilidad disminuye con la edad, pero también en función de la exposición excesiva a señales acústicas de alta intensidad.

Imagen en donde se ilustran las curvas mínimas intensidades audibles de MAP y MAF en función de la frecuencia de la señal sinusoidal empleada como estímulo.

3. Obtenga alguna imagen de la función de transferencia del oído medio y compárela con la imagen anterior para comprobar en qué medida son aproximadamente inversas.

2.4.2 Escalas relativas y absolutas de sonoridad Lo desarrollado en el apartado anterior y su relación con la estructura y fisiología de nuestro aparato auditivo (principalmente el oído externo), confirman que, como ya se adelantó, la sensación de sonoridad depende fuertemente del estímulo sonoro usado en su medición. Si se escucha una sinusoide de 1000 Hz de frecuencia a 40 dB y luego una sinusoide de 10000 Hz también a 40 dB de intensidad, se comprobará que la sensación de sonoridad no es igual en ambas. Concretamente, en este caso, la de 1000 Hz nos dará una sensación de mayor sonoridad. Los investigadores en percepción sonora

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

60

buscaron, entonces, la manera en que esta relación –sonoridad versus frecuencia– podría describirse o medirse. Para la descripción de la percepción de sonoridad se utilizaron dos estrategias: las medidas relativas (que dan como resultado la escala de fones) y las medidas absolutas (que dan como resultado la escala de sones). Las medidas relativas se obtienen midiendo el nivel de sonoridad en relación con una sinusoide de 1000 Hz. Se solicita a un oyente que determine si la sonoridad de una señal, de frecuencia variable e intensidad N, es igual a la de una señal sinusoidal de 1000 Hz a un determinado nivel de intensidad N. Los resultados de estas encuestas a muchos oyentes son promediados luego para obtener estas curvas, que se denominan también curvas isófonas y unen los distintos puntos que poseen igual sonoridad tomando como referencia al estímulo sinusoidal de 1000 Hz en diferentes valores de intensidad o presión sonora a lo largo de las frecuencias audibles.

Ilustración de las curvas isófonas, según estudios de Fletcher y Munson.

LEER CON ATENCIÓN

Surge así una unidad de medida relativa de la sonoridad denominada fon. Se dice que una señal sonora tiene una sonoridad de N fones cuando su sonoridad equivale a la de una señal sinusoidal a 1000 Hz a una intensidad de N dB.

Los contornos de igual sonoridad (que se mostraron en la figura anterior) resultarán ligeramente diferentes según los investigadores que los diseñaron, pero mantienen sus características generales. Según Basso (2006), realizando un análisis general de las curvas de igual sonoridad puede inferirse que: 1- La sensibilidad decrece a medida que nos alejamos de la zona central del espectro hacia las altas y bajas frecuencias. Es necesario aplicar más energía en la región grave que en la media para obtener el mismo resultado auditivo. 2- Para sonoridades intermedias, entre 60 y 70 fones, es menor la diferencia de sensibilidad auditiva en función de la frecuencia. 3- Las curvas de nivel, para altas sonoridades, son prácticamente

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

61

planas: nuestro oído responde de manera similar en todo el rango audible a consecuencia de la atenuación provista por los mecanismos de protección auditiva. 4- Existe una zona de máxima sensibilidad entre los 2.500 y los 3.500 Hz. (Basso, 2006). La escala de fones, derivada de las curvas de igual sonoridad anteriormente presentadas, no nos permite responder, por ejemplo, a la pregunta sobre cuánto más o menos sonoridad tiene una señal acústica comparada con otra de distinta frecuencia. Dado que la sonoridad en fones solo compara señales de igual sonoridad (es relativa), Stevens (1959) definió una nueva unidad, el son, intentando medirla directamente, o sea, de manera absoluta. Las características de esta unidad son las siguientes: 1. Es una unidad lineal: un sonido de 1 son posee el doble de sonoridad que uno de 0.5 son, y uno de cuatro sones el cuádruple. 2. Se toma como referencia, otra vez, una señal sinusoidal de 1000 Hz y 40 dB (40 fones) para la sonoridad de 1 Son. A través de sus investigaciones, Stevens llegó a la siguiente relación entre la sonoridad S y la intensidad I: S = k I0.3 [sones] En donde k es una constante que depende de otros factores que tienen que ver con las condiciones experimentales. Además de que su validez puede demostrarse solo en sonidos sinusoidales de más de 40 dB de intensidad, se ha comprobado que esta relación varía considerablemente según los individuos. Según esta relación, a un aumento de 10 dB en el estímulo le corresponde aproximadamente el doble de la sonoridad en sones.

2.4.3. Otros aspectos destacables de la percepción de la sonoridad La Diferencia Apenas Perceptible de intensidad (DAP, DL o JND, esta última por la expresión inglesa Just Noticeable Difference), se llama también limen de intensidad. Consiste en la diferencia de nivel a partir de la cual los oyentes pueden diferenciar la sonoridad de dos señales. Por supuesto, tal diferencia se ha investigado también a partir del proceso estadístico de respuestas de muchos oyentes. Según Basso (2006) las formas más comunes de expresar la DAP son:

DL = DI/I (Conocida como fracción de Weber) DL = 10 log (DI/I) La misma, expresada en una escala de dB.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

62

En ambas, I es la intensidad de la señal de base (el pedestal) y DI la intensidad del menor incremento detectable por el oyente. Se ha determinado mediante experimentación que, en el ruido de banda ancha, y dentro del rango de 20 a 100 dB, DL varía aproximadamente entre 0.5 y 1 dB. PARA REFLEXIONAR

Nótese que, nuevamente, las medidas estadísticas que se presentaron respecto del Limen o DAP de intensidad dependen del estímulo utilizado, en este caso, ruido de banda ancha. Otro aspecto importante a tener en cuenta involucra la influencia de la duración del estímulo en la percepción de la sonoridad. Hasta aproximadamente los 0.5 segundos de duración del estímulo, según Roederer (1997), la sonoridad crece de manera directamente proporcional a esta duración, más allá de los 0.5 segundos, la duración no afecta la percepción de su sonoridad, salvo que tenga varios minutos de continuidad. En este caso, se produce un proceso de atenuación de la sonoridad denominado habitualmente “adaptación auditiva”.

2.4.4. Medidores de nivel sonoro Para aplicaciones prácticas, médicas y legales, es imprescindible contar con medidores de nivel de presión sonora. Sin embargo, dado que el grado de molestia o contaminación que las ondas acústicas producen es dependiente de la sensación de sonoridad (además de otros factores socioculturales), y que esta es muy dependiente de la frecuencia, la aplicación de tales mediciones se torna problemática. Los sonidos de la vida cotidiana no son sinusoidales, sino comúnmente de banda ancha y variada y por ello, generalmente los medidores de presión sonora tienen un banco de filtros en la etapa de entrada que permite medir la señal acústica tal como llega al micrófono –respuesta plana o lineal– o compensada según cierto patrón espectral. Los filtros de compensación hacen que el medidor “escuche” de acuerdo con los siguientes patrones: 1. Un medidor de nivel sonoro de compensación “A”, ecualiza la señal de entrada de acuerdo con el contorno de sonoridad de 40 fones. Se usa generalmente para sonidos de bajo nivel. 2. La compensación “B” ecualiza la señal de entrada de acuerdo con el contorno de 70 fones. Se usa generalmente para sonidos de nivel medio. 3. La compensación “C” deja a la señal de entrada prácticamente inalterada, dado que ecualiza la señal de entrada de acuerdo con el contorno de 100 fones. Se usa generalmente para sonidos de nivel alto. Nótese que las

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

63

curvas de igual sonoridad muestran que, en altos niveles, la variación de la sonoridad en función de la frecuencia no es muy grande. Casi toda la legislación de acústica ambiental se especifica en decibeles con la compensación de tipo A. Debido a los factores intervinientes en la percepción de la sonoridad, tales como la frecuencia, duración y naturaleza de las señales sonoras (continuidad, uniformidad, dispersión y naturaleza espectral, etc.), los medidores de presión sonora no son del todo eficaces para determinar la molestia o daño acústico. Actualmente, existen también medidores de sonoridad directamente en sones.

LECTURA RECOMENDADA

Una excelente presentación sobre el ruido y sus efectos negativos, que ilustra la percepción del sonido y sus relaciones con las molestias y daños que produce, se encuentra en los capítulos V y VI del libro Ruido, Arte y Sociedad (Miyara, 2013).

2.5. Percepción de altura De manera análoga a la sonoridad, la altura es el atributo perceptual que nos hace diferenciar dos señales de igual sonoridad, pero distinta frecuencia. Si bien se relaciona con la frecuencia, interactúa también con la sonoridad y el timbre de una manera compleja.

2.5.1. Limen de frecuencia El limen es la DAP (Diferencia Apenas Perceptible) en frecuencia. Se obtiene con juicios de oyentes que son expuestos a estímulos sucesivos de igual frecuencia, uno de ellos queda invariante en frecuencia, mientras que el otro se va modificando gradualmente hasta que el oyente determina que la altura de ambos estímulos es distinta. Se observó mediante experimentación que la DAP varía de acuerdo con la frecuencia del estímulo invariante. De manera general, para sonidos sinusoidales, la DAP en frecuencia se mantiene cercana a 1 Hz si se usan estímulos por debajo de 1000 Hz y crece gradualmente a partir de allí. Por ejemplo, para diferenciar la altura de dos señales cercanas a 4000 Hz, necesitamos que exista, al menos, una diferencia aproximada de 10 Hz entre ellas. Por encima de 5000 Hz, la DAP aumenta más rápidamente, indicando que necesitamos montos de cambio de frecuencia (DF) aun mayores a 10 Hz para diferenciar la altura de los dos estímulos. Más arriba de los 10000 Hz, nuestra habilidad para discriminar la altura entre señales acústicas de diferentes frecuencias es prácticamente nula.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

64

PARA REFLEXIONAR

Usando como estímulo señales con varios parciales ordenados armónicamente (es decir cuyos parciales tienen frecuencias en relaciones de múltiplos enteros del más bajo), nuestra habilidad de discriminación en altura es muy superior, pudiendo detectar diferencias de hasta 0.1 Hz. Esto explica, por ejemplo, que los instrumentos musicales (para música basada en sus comienzos, principalmente en la discriminación de frecuencia), se hayan diseñado para producir sonidos con espectros de tales características.

2.5.2. Bandas críticas A los efectos de analizar el contenido espectral de una señal sonora, el sistema auditivo la divide en regiones llamadas bandas críticas. Esto produce varias consecuencias importantes tanto en la discriminación de estratos sonoros, como en la percepción de la sonoridad de la señal involucrada. Una banda crítica funciona como una especie de filtro pasa-banda de ancho determinado, que utiliza nuestro sistema auditivo para analizar una región del espectro de la señal sonora. Existen dos conceptos fundamentales relacionados con las bandas críticas: • Frecuencia Central (FC): la frecuencia que está en el centro de la BC de análisis. • ERB: la extensión de la BC a ambos lados de la FC. Su nombre viene de Ancho de Banda Rectangular Equivalente (del inglés Equivalent Rectangular Band). Ambas, FC y ERB, se miden en Hz y no son fijas, sino que se desplazan y varían en ancho de acuerdo con su frecuencia central. El cálculo para la ERB, según Glasberg y Moore (1990), es el siguiente: ERB = 24.7 (0.00437 f + 1) donde f es la FC de la banda en Hz.

La aplicación de la fórmula anterior a diversas frecuencias produce: FC=100.00 Hz FC =200.00 Hz FC =500.00 Hz FC =1000.00 Hz FC =2000.00 Hz

Técnicas de sonido digital

ERB = 35.49 Hz ERB = 46.29 Hz ERB = 78.67 Hz ERB = 132.64 Hz ERB = 240.58 Hz

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

65

FC =5000.00 Hz ERB = 564.39 Hz FC =10000.00 Hz ERB = 1104.09 Hz Obsérvese que, como era de esperarse, el ERB crece paulatinamente en función de la FC. Tal crecimiento no es proporcional, por ejemplo, en el caso de FC=100 Hz el ERB es igual aproximadamente a un 30 % de FC y, en el caso de FC=10000 Hz, el ERB es igual aproximadamente a un 10 % de FC. Un importante fenómeno de percepción sonora vinculado con las bandas críticas es el llamado enmascaramiento. Cuando dos señales (una llamada señal enmascarada y la otra señal máscara, esta última de igual o mayor intensidad que la primera) se presentan simultáneamente, y las frecuencias de ambas caen dentro de la misma banda crítica, la señal Máscara dificulta la audibilidad (“enmascara”) de la señal enmascarada. En la actualidad se sabe que el enmascaramiento ocurre también fuera de la banda crítica, pero en una proporción menor. También, que no solo se produce entre los distintos componentes de una señal sonora, sino entre señales sucesivas. Tanto el enmascaramiento simultáneo, como sucesivo, son una función de la relación de frecuencia entre la señal máscara y la enmascarada y sus intensidades relativas. Otro aspecto importante que está relacionado con las bandas críticas es su relación con la percepción de la sonoridad de una señal acústica de espectro complejo y las posibilidades de modificación de esta a través del agregado de más parciales. En general, puede decirse que para una cantidad de energía dada, la sonoridad es mayor si la energía se reparte sobre distintas bandas críticas, en vez de que si se concentra en una sola de ellas.

PARA AMPLIAR

Un tratamiento muy detallado de tal aspecto, que permite calcular la tasa de enmascaramiento de un parcial respecto de otro (SMR o Signal to Masking Ratio) se encuentra en Zwicker y Fastl (1990). TEXTO APARTE

Las técnicas de compresión de señales digitales de audio denominadas lossy (a pérdida) tales como MPEG Layer 3 (denominada comúnmente MP3) son aplicaciones destacables del fenómeno del enmascaramiento. Básicamente, funcionan con la supresión o representación de menor calidad de aquellos parciales que se encuentren severamente enmascarados, por considerarlos información “redundante”. Naturalmente, esto produce un ahorro de recursos de almacenamiento digital al costo de una disminución de la calidad.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

66

Lo antedicho tiene muchas e importantes consecuencias en la práctica musical como en la ingeniería de audio. Por ejemplo, que las señales sonoras de banda ancha tienden a percibirse como de mayor sonoridad. Los buenos intérpretes saben sacar partido de esto último cuando, al no poder aumentar más la intensidad, aumentan la sensación de sonoridad a través de producir sonidos más “brillantes” (por ejemplo, de banda más ancha). Otro ejemplo lo constituye la “duplicación en octavas” de una nota, que es mucho más eficaz que la duplicación al unísono por las razones que se explicaron (la duplicación en octavas, reparte la energía en diferentes bandas, mientras que la del unísono no lo hace).

2.5.3. Altura tonal y temperamento igual

En la siguiente unidad se tratarán con más detalle las características de tales sonidos tónicos.

La altura tonal ha sido definida como “aquel atributo de la sensación auditiva en términos del cual los sonidos pueden ser ordenados en una escala musical” (American Standards Association, 1960). Para poder percibir la altura tonal, es necesario que una señal sonora tenga un espectro tónico, en el sentido en que se pueda identificar su altura fundamental. De manera análoga a la sonoridad, las variaciones de altura tonal se perciben como proporcionales a los cambios de frecuencia. Existen, sin embargo, algunas particularidades. En la notación (y en mucha de la teoría) de la música occidental se asume la llamada “identidad de octava”. Por esta asunción, un sonido cuya frecuencia es del doble o la mitad que la de otro es considerado “el mismo sonido, transportado una octava hacia arriba o hacia abajo”, respectivamente. Este es el origen de las notas musicales y el denominado “temperamento igual”. El temperamento igual consiste en la división de la octava en 12 partes consideradas perceptivamente como iguales. Se toma como referencia el llamado LA Central, o La 440, porque corresponde a un LA de 440 Hz. Los doce grados cromáticos o doce notas, en notación latina, son: DO DO# RE RE# MI FA FA# SOL SOL# LA LA# SI

El # se lee como “sostenido”.

A la diferencia de altura entre dos grados cromáticos sucesivos se la denomina semitono. Por ejemplo, entre DO y DO# hay un semitono y entre DO y SOL hay 7 semitonos. En virtud de la equivalencia de octava, este sistema es módulo-12, quiere decir que es cíclico, con un ciclo igual a 12. Para obtener la frecuencia de cualquiera de las notas, se puede usar la siguiente ecuación: f= 440 * 2S/12 En donde f es la frecuencia que se desea obtener y S es la cantidad de semi-

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

67

tonos (grados cromáticos) hacia arriba o hacia abajo del LA central.

La frecuencia de un DO debajo del LA central se obtiene: f= 440 * 2-9/12 = 440* 2-0.75 =440*0.59946=261.6 Hz

PARA AMPLIAR

También existe una unidad que divide a cada Semitono en 100 partes de acuerdo con la misma escala logarítmica. Tal unidad se denomina cent. Subir o bajar la frecuencia de un sonido por 1200 cents equivale a subir o bajar su frecuencia una octava. Para hacer referencia a una nota en particular dentro del sistema temperado, se usa su nombre y un índice acústico que indica la octava a la que pertenece. Existen varios índices acústicos, pero uno de los más corrientemente utilizados es el que establece el índice de 4 para el “Do Central” (llamado índice registral internacional). De acuerdo con este índice, el “La 440” (de 440 Hz) se denominaría La4. Pero en la música por computadoras, la Norma MIDI (Musical Instruments Digital Interface), utiliza el índice 5 para indicar el Do central (es decir, usa el llamado índice registral de Riemann).

5. Partiendo de un DO5 (de acuerdo con el índice registral internacional), calcule las frecuencias del mismo y de los 11 grados cromáticos que le siguen hasta el DO6.

2.6. Percepción espacial de sonido La percepción espacial del sonido involucra tres aspectos fundamentales: • Percepción de la ubicación de la fuente sonora (ángulo y distancia). • Percepción de la direccionalidad de la fuente sonora. • Percepción del ambiente acústico. Se tratarán solo los rasgos fundamentales del primer aspecto.

2.6.1. Percepción de la localización de la fuente sonora La percepción de la localización de las fuentes sonoras es una capacidad de nuestro sistema auditivo que utilizamos de manera frecuente en nuestra vida cotidiana. Si cerramos nuestros ojos y nos sentamos, por ejemplo, en un banco de una plaza, comenzaremos a advertir cómo, a través de nuestra

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

68

capacidad de escuchar podemos, no solo identificar fuentes sonoras, sino también saber en qué lugar están ubicadas o de qué forma se mueven. Y, lo que es más importante, hasta podemos llegar a detectar la ubicación de fuentes sonoras que están fuera de nuestro campo visual. El estudio de la localización de fuentes sonoras se divide en localización angular (o dirección) y percepción de distancia. Nuestra percepción de la localización de las fuentes sonoras depende de rasgos de la señal acústica que se denominan indicios de localización y también de cómo decodificamos dichos indicios. El hecho de que el sistema auditivo humano se integre por dos conjuntos iguales de órganos ubicados simétricamente a ambos lados de nuestra cabeza es un factor que posibilita la comparación de las dos señales que entran a cada uno de ellos, proveyendo así indicios muy importantes que se denominan binaurales o interaurales. Sin embargo, estos indicios no son los únicos que usa nuestro sistema auditivo en la localización de sonido.

Localización angular ITD (del inglés, Interaural Time Difference, diferencia interaural de tiempo): la diferencia en el tiempo de arribo de la señal a los oídos, orienta en la ubicación de la fuente sonora en el ángulo horizontal. Para sonidos estrictamente sinusoidales, y a partir de aproximadamente 1500 Hz, su prominencia disminuye. Esto se debe a la confusión en la comparación de fases a altas frecuencias. Este límite varía de acuerdo con las características espectrales y el tipo de comienzo de las señales involucradas. IID (del inglés, Interaural Intensity Difference, diferencia interaural de intensidad): la diferencia en la intensidad de la señal en los oídos orienta en la ubicación de la fuente sonora en el ángulo horizontal. Disminuye a partir de 1500 Hz hacia abajo, y por debajo de aproximadamente 500 Hz prácticamente no opera. Esto se debe a la difracción de las frecuencias más bajas alrededor de la cabeza. PARA AMPLIAR

En el ángulo horizontal se obtiene la mayor discriminación cuando el oyente enfrenta a la fuente sonora (aproximadamente 1°). Se pierde precisión a medida que este ángulo se dirige hacia ambos lados de la cabeza (esto es de 90º a 0º derecha y de 90º a 180º izquierda). Indicios espectrales binaurales: cuando se comparan los espectros de la señal entrante en cada uno de los oídos, se descubren significativas diferencias entre estos. Estas diferencias se deben al efecto complejo de “filtrado” debido a la acción del torso superior, cuello, cabeza y, particularmente en este caso, los pabellones auditivos de los oyentes en función del ángulo de incidencia del frente de onda. Las diferencias espectrales binaurales son

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

69

usadas por el sistema auditivo para la determinación de la posición de la fuente acústica en tres dimensiones (particularmente, en el plano medio y en la discriminación frente-atrás, que es en donde los indicios de ITD e IID son ineficaces).

Percepción de la distancia de la fuente sonora La percepción de la distancia de la fuente sonora involucra la consideración de cuatro indicios principales: intensidad del sonido, proporción entre la señal reverberada y la señal directa, absorción de altas frecuencias y efecto de proximidad. • Intensidad del sonido. La intensidad de una señal acústica en un punto determinado de audición disminuye o aumenta de manera inversamente proporcional al cuadrado de la distancia entre la localización de la fuente y ese punto. Esto implica que, por ejemplo, una señal acústica que llega con una intensidad de 120 dB a un punto de audición situado a un metro de esta, llegará a ese punto con una intensidad de 108 dB (12 dB menos), si la fuente se desplaza a 2 metros del punto de audición, y con una intensidad de 96 dB (24 dB menos), si se emite a 4 metros del punto de audición. • Proporción entre la señal reverberada y la señal directa. Cuando una fuente acústica se encuentra en un recinto cerrado, además de su señal directa se producen otras por la reflexión de esta en los elementos físicos del recinto. A estas últimas se las denomina reverberación. Como vimos, la señal directa llega al punto de audición con una intensidad que es proporcional a la distancia que lo separa de la fuente. No ocurre así con la señal reverberada, que llega al punto de audición con una energía más o menos constante aunque la distancia entre la fuente y este cambie. Por lo tanto, lo que cambia cuando una fuente acústica que emite una señal de la misma energía se aleja o acerca al punto de audición es la proporción entre la señal directa y la señal reverberada. Este es el principal indicio responsable para la evaluación de la distancia en ambientes con reverberación. • Absorción de altas frecuencias. Debido a la absorción de los gases y la humedad del aire, la energía acústica de los componentes de alta frecuencia es atenuada de manera directamente proporcional a la distancia. Este efecto es similar a un filtro “pasa-bajos”, y es considerado relevante únicamente para distancias superiores a 30 metros. • Efecto de proximidad. Una atenuación similar a la explicada en el punto anterior ocurre cuando la fuente acústica se aproxima mucho a un oído. Se oye un aumento relativo de las bajas frecuencias que se suele denominar “efecto de proximidad”.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

70

PARA AMPLIAR

Una explicación de las causas de este fenómeno se encuentra en Basso y Di Liscia (2009), Música y Espacio, Ciencia, Tecnología y Estética. Editorial de la Universidad Nacional de Quilmes, Bernal.

LECTURA OBLIGATORIA

Basso, G.

y

Di Liscia, O (2009). “Audición Espacial de sonido:

conceptos básicos y estado actual de la cuestión”, en Música y Espacio, Ciencia, Tecnología y Estética. Editorial de la Universidad Nacional de Quilmes, Bernal, pp. 23-40.

Referencias bibliográficas Basso, G. y Di Liscia, O. P. (2009), “Audición espacial: conceptos básicos y estado actual de la cuestión”, en: Música y espacio: Ciencia, tecnología y estética, Colección Música y Ciencia. Editorial UNQ, Bernal. Basso, G. (2006), Percepción Auditiva, Colección Música y Ciencia. Editorial UNQ, Bernal. Glassberg, B. y Moore, B. (1990), “Derivation of auditory filters shape from notched noise data”. Hearing Research (47). Estados Unidos. Miyara, F. (2013), Ruido, Arte y Sociedad. UNR Editora, Rosario. Moore, F. (1990), Elements of Computer Music. Prentice-Hall, New Jersey. Stevens, S. (1959), “On the validity of loudness scale”. JASA (31). Estados Unidos. Roederer, J. (1997), Acústica y Psicoacústica de la Música. Ricordi, Buenos Aires. Zwicker, E. Berlin.

y

Fastl, H., (1990), Psychoacoustics Facts and Models. Springler,

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

71

3 Características perceptivas del timbre

Objetivos • Que el estudiante explore la problemática de la percepción del timbre. • Que el estudiante comprenda las diferentes categorías en las que los atributos del timbre pueden agruparse. • Que el estudiante reconozca auditivamente los atributos perceptivos del timbre. • Que el estudiante sea capaz de analizar y asociar auditivamente diversos sonidos individuales en los términos desarrollados en la presente unidad.

3.1. Introducción Existen muchas definiciones del timbre de un sonido. Una de ellas, muy difundida, corresponde al apartado de Acústica de la American Standards Asociation:

[…] timbre es el atributo de la sensación auditiva en términos del cual un oyente puede juzgar que dos sonidos similares, con igual sonoridad y altura tonal, son diferentes. (AASA, 1960, traducción de Gustavo Basso).

Esta definición ha sido sumamente criticada por su vaguedad y carácter negativo: define lo que el timbre no es y no lo que es. Diversos investigadores estudiaron el timbre con distintos propósitos. Por ejemplo, Albert Bregman (1994) lo hizo con el fin de determinar su función en el análisis de la escena sonora; Risset y Wessel (1999) a los efectos de verificar la eficacia de métodos digitales de síntesis en la simulación de instrumentos acústicos; y Marco Stroppa (1983) para analizar la función del timbre en la composición musical. Albert Bregman (1994) opina que, ante la dificultad de definir con precisión el concepto de timbre, tal vez se lo deba dejar de lado y estudiar un grupo de

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

72

Véase: Schaeffer (1966), Capítulo IV, pp 221-223.

rasgos o indicadores que suelen asociarse a este, como por ejemplo, el brillo u opacidad espectral, la cualidad espectral o el tipo de comienzo del sonido. Basso (2006) agrega que el timbre es un rasgo multidimensional, ya que no es posible ordenar los sonidos de menor a mayor en una sola dimensión tímbrica. Asimismo, este autor destaca que confinar el concepto de timbre a los sonidos individuales trae aun mayores dificultades en su definición, y que sería más adecuado extender su estudio a “objetos sonoros” que abarquen secuencias de distintos sonidos que conforman una unidad perceptiva, tales como los de un tren en marcha, el ruido de la lluvia sobre un techo, etcétera. En esta unidad se tratarán únicamente las características del timbre de sonidos individuales. Sin embargo, algunas de ellas son fácilmente trasladables al análisis de “objetos” o “eventos” sonoros de carácter más general. Dichas características se han determinado con base en las referencias que se citan, intentando unificar y ordenar varios estudios y criterios presentes en aquellas. Las características, o rasgos del timbre de sonidos individuales, se pueden agrupar en las siguientes categorías: • • • •

Relacionadas Relacionadas Relacionadas Relacionadas

con con con con

el la la la

espectro. cualidad de superficie. envolvente dinámica. cualidad espacial, o espacialidad.

LEER CON ATENCIÓN

Antes de tratarlas en detalle, se debe aclarar que cada una de estas características puede presentarse de manera invariante o cambiante. En general, los sonidos con características invariantes solo pueden producirse con medios electrónicos, mientras que los producidos por fuentes acústicas de la naturaleza o de instrumentos mecánicos tienen características cambiantes. También es muy común que en un mismo sonido convivan, en diferentes proporciones, distintas características. Por ejemplo, si bien los sonidos normales de los instrumentos tradicionales tienen un espectro de tipo armónico, también suelen incluir una porción de ruido, sobre todo en su comienzo. En resumen, cada una de las características que se tratarán se puede presentar en un determinado sonido de manera: a. Estática o variable: una característica se mantiene o cambia en el transcurso del sonido, transformándose en otra. b. Única o múltiple: un sonido posee una única característica o bien regiones en las que se manifiestan simultáneamente dos o más características distintas.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

73

3.2. Espectro El espectro de un sonido es una característica que surge a partir del número y la relación de frecuencia e intensidad de los diferentes parciales que lo constituyen. De acuerdo con el espectro, se pueden proponer las siguientes categorías y subcategorías espectrales.

3.2.1. Cualidad espectral La cualidad espectral surge de las relaciones de frecuencia de los parciales que constituyen un sonido. Se pueden establecer las siguientes subcategorías de cualidad espectral.

Sonido puro (sinusoidal) Un solo componente sinusoidal. Los sonidos estrictamente sinusoidales son teóricos (corresponden a una ecuación que asocia los cambios de amplitud de una onda con la función seno). La mejor aproximación a estos sonidos solo se puede producir con medios electroacústicos.

Armónica Varios componentes sinusoidales cuyas frecuencias están en relación de múltiplos enteros de una frecuencia fundamental dentro del rango de frecuencias audibles.

Por ejemplo, un sonido constituido por cuatro parciales sinusoidales cuyas frecuencias son: 440 Hz, 1320 Hz, 2200 Hz y 2640 Hz tiene un espectro armónico, dado que las frecuencias de sus parciales surgen de: 440*1 (Fundamental), 440*3, 440*5 y 440*6.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

74

Los sonidos de emisión normal de los instrumentos musicales tradicionales de viento y cuerda (tales como flauta, trompeta, piano, etc.) tienden a escucharse con una cualidad espectral armónica, dado que las frecuencias de sus parciales se encuentran aproximadamente en relación armónica y fluctúan dentro de rangos muy pequeños. Los sonidos de cualidad espectral armónica estricta solo pueden producirse por medios electrónicos.

Inarmónica Varios componentes sinusoidales cuyas frecuencias no están en relación de múltiplos enteros de una frecuencia fundamental dentro del rango audible.

Por ejemplo, un sonido constituido por cuatro parciales sinusoidales cuyas frecuencias son: 440 Hz, 1300 Hz, 2166 Hz y 3735 Hz, no tiene un espectro armónico, dado que las frecuencias de sus parciales no surgen de la multiplicación de ningún número común (un divisor común de todas ellas) que se encuentre en el rango de frecuencias audibles. En general, los sonidos producidos por instrumentos de percusión de metal (triángulos, crótalos, campanas, etc.) tienen una cualidad espectral inarmónica.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

75

Ruido Cuando los parciales son muchos, no están en relación armónica y cambian de manera muy desordenada y rápida, se produce un sonido con la cualidad espectral de ruido. En general, los sonidos producidos por instrumentos de percusión de parches o de madera y muchos sonidos de la naturaleza (truenos, explosiones, viento, etc.) tienen cualidad espectral de ruido.

Cualidades espectrales variables y múltiples Ya se mencionó que es muy común que un mismo sonido tenga, de manera simultánea o sucesiva, diferentes regiones con distintas cualidades espectrales. La proporción con que cada cualidad se manifieste inducirá a los oyentes a decidir cuál es la cualidad espectral dominante.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

76

Por ejemplo, los sonidos de emisión normal de los instrumentos de la orquesta llamados maderas (flauta, oboe, clarinete y fagot) tienen, en mayor o menor medida, una parte con cualidad espectral armónica y una, mucho menos importante, con cualidad espectral de ruido, por lo que generalmente se los clasifica dentro de los sonidos con cualidad espectral armónica.

Algunos sonidos de instrumentos de percusión de metal, tales como los platillos, poseen regiones con cualidad espectral inarmónica, pero también alguna porción menos importante de ruido. Los siguientes ejemplos dan cuenta de lo antedicho.

Se presenta un sonido de emisión normal de un fagot tocando un DO4 y luego dos sonidos que fueron obtenidos mediante análisis en los que el primero es la parte que tiene espectro armónico y el segundo es el que tiene espectro de ruido. Nótese que este último tiene mayor intensidad –como es de esperarse y ya se mencionó– en su comienzo. En este caso, conviven simultáneamente dos cualidades espectrales.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

77

Se presenta un sonido tomado de un oboe tocando un LA5 que en su parte inicial (aproximadamente en los 4 primeros segundos) tiene un espectro armónico y, a partir de allí se transforma en otro sonido que tiene un espectro inarmónico. Estos sonidos no son habituales en la emisión normal de los instrumentos musicales, generalmente se producen con técnicas especiales o por medio de procesos de audio digital que se tratarán más adelante.

3.2.2. Balance espectral El balance espectral depende de las relaciones de intensidad de los parciales que componen un sonido. Como es lógico, cada sonido tiene un balance espectral propio, pero de manera general pueden establecerse ciertas categorías, tomando como base determinadas regiones del continuo audible de frecuencia, como ser: uniforme, brillante, opaco, resonante y selectivo.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

78

Uniforme Energía uniformemente repartida en todo el ancho de la banda.

Brillante Con énfasis de energía en la región de altas frecuencias.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

79

Opaco Poca energía en la región de altas frecuencias.

Resonante Con énfasis en una región central de frecuencias.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

80

Selectivo De acuerdo con el orden de los parciales, por ejemplo, los clarinetes producen sonidos que tienen un énfasis en los parciales impares.

PARA REFLEXIONAR

Los sonidos de emisión normal de los instrumentos musicales tradicionales de viento y cuerda (tales como flauta, trompeta, piano, etc.) se caracterizan, en general, por un decaimiento de la energía de sus parciales en relación inversa con la frecuencia fundamental de la nota que producen. Lo mismo ocurre con determinados sonidos producidos por medios electrónicos, como las ondas diente de sierra, triangular y cuadrada. Ciertos tipos de ruido que se usan como señales de prueba tienen balances espectrales específicos de tipo decreciente en función de la frecuencia, estos son: • Ruido blanco: igual energía en toda la banda de frecuencia. • Ruido rosa: intensidad del ruido decreciente, escalada por 1/f. • Ruido marrón: intensidad del ruido decreciente, escalada por 1/f2.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

81

Variaciones en el balance espectral El balance espectral se modifica durante el transcurso de los sonidos acústicos y solo es posible mantenerlo invariante en sonidos producidos por síntesis. Mediante cambios drásticos de balance espectral se pueden conseguir sonidos muy distintos y, más aún, que den la sensación en los oyentes de pertenecer a fuentes sonoras diferentes.

A continuación se presenta un ejemplo de sonido en el que el balance espectral cambia de manera notable. Se trata de un sonido de una flauta tocando un LA5. En la primera y última parte este sonido presenta un balance espectral que es propio de la flauta, mientras que en la parte central, el balance espectral de sus parciales lo asemeja a un clarinete. Esto ocurre a causa de que, en la parte central, la intensidad de los parciales impares resulta enfatizada por sobre la de los parciales pares mediante un filtro.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

82

Un ejemplo muy corriente de cambio de balance espectral es el efecto conocido como wah-wah, muy característico en el jazz (con instrumentos tales como la trompeta o el trombón). Se produce por el uso de un dispositivo llamado sordina que obstruye parcialmente el pabellón del instrumento, atenuando la intensidad de los parciales más altos. Al tocar una nota inicialmente con sordina y, en el transcurso de esta, retirar la sordina gradualmente, el sonido producido comienza con muy poca intensidad en los parciales agudos y luego se va modificando al retirar la sordina, con un efecto que recuerda al paso desde la vocal “u” (más opaca) al de la “a” (más brillante), de aquí su nombre.

3.2.3. Tonicidad La tonicidad depende del grado en que un determinado sonido manifiesta una frecuencia fundamental audible. La cualidad de tonicidad se ubica en un continuo que va desde muy alta (tónico), media y muy baja o nula (no tónica).

PARA REFLEXIONAR

Los sonidos de cualidad espectral armónica son, por lo general, muy tónicos. Sin embargo, algunos de estos, cuyas frecuencias fundamentales son muy bajas o muy altas o bien poseen un balance espectral específico, pueden tener una tonicidad media o nula. Los sonidos de emisión “normal” de los instrumentos musicales tradicionales de viento y cuerda (tales como flauta, trompeta, piano, etc.) poseen un alto grado de tonicidad. Los sonidos inarmónicos y ruidos no son, por lo general, tónicos.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

83

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

84

Tonicidad variable Se presenta a continuación un ejemplo en el que la tonicidad de un sonido cambia en su transcurso. En este caso, es el resultado del paso gradual de la cualidad espectral de ruido (que no es tónico) a la de ruido coloreado en el que se enfatizan regiones de frecuencias que están en relación armónica, lo que produce un sonido tónico. Las partes no tónicas están al comienzo y final y la parte tónica en el centro. El sonido fue producido por medio de síntesis.

3.2.4. Casos corrientes de variabilidad de las características espectrales Ya se mencionó que las tres características espectrales que se explicaron (cualidad espectral, balance espectral y tonicidad) pueden presentarse de manera estática o cambiante. Además, se han presentado algunos ejemplos de lo antedicho. A modo de repaso, algunos casos típicos de esto son: a. El paso de un espectro de ruido a un espectro armónico. b. El paso de un espectro de ruido a uno inarmónico. c. Los cambios de balance espectral (brillanteàopaco, uniformeàresonante, etcétera). d. El paso de tonicidad alta a baja o viceversa.

3.3. Cualidad de superficie Esta cualidad depende de la existencia de alteraciones periódicas o semiperiódicas en amplitud o frecuencia con una periodicidad aproximada de entre 1 a 0,05 segundos. En la práctica musical, cuando estas alteraciones se producen sobre la frecuencia se denominan vibrato, y cuando se producen sobre la amplitud se denominan trémolo. Algunas veces la presencia de parciales con frecuencias muy cercanas generan batidos que se traducen en una mayor o menor sensación de rugosidad del sonido.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

85

PARA AMPLIAR

En las alteraciones de amplitud o de frecuencia, existen tres características: • Profundidad es la desviación de la frecuencia promedio o la amplitud promedio del sonido hacia arriba y/o hacia abajo. Mayor desviación produce una mayor sensación de rugosidad. • Frecuencia es la periodicidad con que se producen las alteraciones de amplitud y/o frecuencia. Como ya se mencionó está en el rango aproximado de 1 Hz a 20 Hz. Cuando la periodicidad de las alteraciones es muy baja (aproximadamente mayor a 1 segundo), ya no se perciben como “cualidad de superficie” y, en cambio, como modificaciones en la envolvente dinámica (si las alteraciones son de la amplitud) o como alteraciones en la fundamental o en el centroide de frecuencia del sonido involucrado (si las alteraciones son en la frecuencia). • Evolución es la función que regula de qué manera se producen las alteraciones de amplitud o frecuencia. Puede producir cambios muy abruptos, casi instantáneos, o graduales y suaves. La cualidad de rugosidad se ubica en un continuo que va desde muy alta (rugoso) a muy baja o nula (liso).

3.3.1. Sonidos lisos: sin alteraciones de amplitud y/o frecuencia Los sonidos completamente “lisos” se pueden producir únicamente con medios electrónicos. Los sonidos de emisión normal de instrumentos de viento, tal como el que se presenta a continuación, pueden tener pequeñas alteraciones en su transcurso que no son suficientes como para calificarlos de “rugosos”.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

86

3.3.2. Sonidos rugosos La cualidad de rugosidad depende, en general, de la profundidad y la velocidad de las modulaciones en amplitud y/o frecuencia, pero, en muchos casos, una silueta de modulación marcada (por ejemplo, una onda cuadrada) produce una mayor sensación de rugosidad que una más suave.

Fluctuaciones en amplitud (trémolo o modulación en amplitud) Se presenta a continuación un ejemplo con modulación en amplitud cuya velocidad cambia, aumentando y decreciendo, mientras que la profundidad de la modulación se mantiene constante.

Fluctuaciones en frecuencia (vibrato o modulación en frecuencia) Se presenta a continuación un ejemplo con modulación en frecuencia cuya velocidad cambia, aumentando y decreciendo, mientras que la profundidad de la modulación se mantiene constante.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

87

Combinaciones de fluctuaciones en amplitud y frecuencia Son muy comunes en la emisión normal de los instrumentos acústicos que producen sonidos continuantes (cuerdas con arco, vientos, etc.) y en la voz cantada.

3.3.3. Variabilidad de la cualidad de superficie De manera análoga a lo explicado para el caso de las cualidades espectrales, aquí pueden presentarse cualidades de superficie que sean estáticas o cambiantes.

Ejemplos típicos de esto son: • Alteraciones en la profundidad de la rugosidad (modulación en

amplitud), la región de mayor profundidad de la modulación se encuentra en la parte central del sonido.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

88

• Alteraciones en la profundidad de la rugosidad (modulación en frecuencia), la región de mayor profundidad de la modulación se encuentra en la parte central del sonido.

• Alteraciones en la velocidad de la modulación en amplitud, la región de mayor velocidad de la modulación se encuentra en la parte central del sonido.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

89

• Alteraciones en la velocidad de la modulación en frecuencia, la región de mayor velocidad de la modulación se encuentra en la parte central del sonido.

3.4. Envolvente dinámica La envolvente dinámica es la función que regula la intensidad general del sonido. Si bien cada sonido tiene una envolvente dinámica propia y única, existen algunas que constituyen esquemas bastante comunes y se pueden agrupar en diferentes categorías, como ser: estacionaria, impulsiva, creciente, decreciente, percusiva, ataque-decaimiento-cuerpo-extinción.

Estacionaria (continua sin cambios)

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

90

Impulsiva (muy breve sin cambios)

Creciente (Fade in)

Decreciente (Fade out)

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

91

Percusiva (ataque-extinción)

Ataque-decaimiento-cuerpo-extinción (ADSR) Esta envolvente dinámica es muy característica en los sonidos continuos de emisión normal en los instrumentos tradicionales de cuerda frotada y viento. Su acrónimo ADSR proviene del inglés: Attack–Decay–Sustain–Release.

3.5. Cualidad espacial La cualidad espacial del sonido se relaciona con cuatro atributos principales: localización, movimiento, entorno y ancho. Se tratarán aquí solo los tres primeros. LEER CON ATENCIÓN

• La localización es el punto del espacio físico en el que nuestro sistema auditivo establece que se encuentra posicionada la fuente sonora que produce el sonido. Cuando esta localización no es fija, sino cambiante, se infiere que la fuente sonora se encuentra en movimiento. • El entorno es el lugar en donde se encuentra la fuente sonora que produce el sonido. Las características de los entornos modifican de manera muy significativa la forma en que un sonido es percibido. Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

92

3.5.1. Localización Dos aspectos complementarios, pero distinguibles, de la localización son la dirección y la distancia. Se tratan por separado a continuación

Dirección Para la determinación de la dirección desde la que una fuente emite sonido se pueden usar dos ángulos: a. El ángulo horizontal, o acimut, a partir del que se determina si la fuente está a la derecha, izquierda, atrás o adelante del oyente. b. El ángulo de elevación, a partir del que se determina si la fuente está arriba o abajo del oyente. PARA REFLEXIONAR

Es posible imaginar la dirección de la localización como una esfera cuyo radio es la unidad y la superficie de la que la fuente sonora se mueve. La cabeza del oyente se encontraría en el centro de tal esfera imaginaria. Entonces, se podría pensar en tres categorías generales de dirección: a. Derecha-izquierda. b. Atrás-adelante. c. Arriba-abajo.

Distancia Este aspecto establece a qué distancia se encuentra la fuente del oyente. En la esfera imaginaria descripta anteriormente, la distancia estaría representada como su radio.

Rrepresentación geométrica del espacio



Técnicas de sonido digital

Fuente: Basso y Di Liscia (2009)

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

93

3.5.2. Movimiento Cuando la fuente sonora cambia de posición, se infiere que está en movimiento. El movimiento es muy común en las fuentes sonoras de la vida real (¡nosotros mismos somos una fuente sonora en continuo movimiento!) y muy poco común en los sonidos producidos por instrumentos musicales.

Fuente sonora estática En el siguiente ejemplo se presenta una grabación de una voz femenina que dice la palabra “music”. Es fácil observar que las envolventes de amplitud de los dos canales de audio son idénticas, indicando que la fuente no cambió su ubicación y aparentará estar en el frente del oyente.

Fuente sonora dinámica Fuente con movimiento aparente en el ángulo horizontal (acimut) El siguiente ejemplo presenta tres sonidos de una fuente que se encuentra respectivamente a la derecha, al centro y a la izquierda del oyente. Para poder apreciar claramente su efecto, el oyente se tiene que ubicar de manera equidistante de los altoparlantes, o bien debe escucharse con auriculares.

Fuente con movimiento aparente en distancia

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

94

El ejemplo presenta varios sonidos breves que simulan una fuente muy cercana que se aleja progresivamente y luego vuelve a acercarse. En estos casos, y cuando se trata de fuentes en recintos cerrados, la proporción entre el sonido directo y la reverberación constituye una pista muy importante para orientar a los oyentes en la apreciación de la distancia.

3.5.3. Entorno Cuando una fuente sonora emite un sonido, produce una onda directa que, en su difusión, puede encontrarse con obstáculos (elementos físicos tales como las paredes, techo y piso de una habitación). Esto produce copias (reflexiones) de la onda directa que se van haciendo cada vez más numerosas y se escuchan como una especie de “aureola sonora” de esta. A este conjunto de reflexiones se lo denomina reverberación. La imagen muestra, en su parte superior, un esquema de las reflexiones del sonido directo producido por una fuente sonora y las reflexiones de este que llegan a un oyente ubicado en un punto de un recinto. En la parte inferior se muestra una representación del tiempo de arribo de los distintos ecos.

Fuente: Basso (2006)

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

95

PARA REFLEXIONAR

• Los entornos abiertos, o los entornos cerrados que están

tratados acústicamente para tales fines (con materiales muy absorbentes, que evitan las reflexiones), no producen reverberación. • La reverberación modifica significativamente las características de los sonidos. En general, los sonidos “secos” son poco reales y desagradables, por lo que en las salas musicales se recomienda un monto razonable de reverberación. Sin embargo, la excesiva reverberación puede motivar que los sonidos se confundan, dificultando la audición clara de una sucesión de ellos (en el caso de la voz puede dificultar la inteligibilidad). • La reverberación es como la “huella digital” de un recinto o entorno y tiene muchas características que han sido extensamente investigadas por los expertos en acústica arquitectónica. Para los fines de este estudio, simplemente se pretenderá que se diferencien los sonidos secos (sin reverberación) de los reverberados.

Reverberante (recinto cerrado) En el siguiente ejemplo se presenta una serie de sonidos individuales con comienzos muy marcados que permiten apreciar una serie de ecos muy cercanos en el tiempo. Dichos ecos, como ya se explicó, se producen por la reflexión de la onda directa sobre las paredes, techo y piso u otros objetos de un recinto.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

96

Seco (espacio abierto o cámara anecoica) En el siguiente ejemplo se presenta la misma serie de sonidos individuales que en el anterior, pero esta vez no se escuchan los ecos luego de cada comienzo de sonido. Esto indica que tal fuente de sonido se registró, o aparenta estar en un entorno abierto en el que no hay objetos sobre los que las ondas se reflejen y produzcan ecos.

1. Buscar diferentes tipos de sonidos y analizarlos, usando la taxonomía que se ha desarrollado en esta unidad. Puede usarse el siguiente método para cada sonido: • Utilizar una planilla (ver abajo) para cada sonido a analizar. • Tildar los campos que correspondan. • En los casos de “invariante” y “única” se deberá seleccionar una sola característica. • En los casos de “cambiante” o “múltiple” se deberá seleccionar más de una característica. TEXTO APARTE

Cuando una cualidad cambia, puede hacerlo muchas veces y con distintos desarrollos temporales para cada cambio (no como en los ejemplos simples que se han presentado en los que, por ejemplo, un sonido comienza como liso, se transforma en rugoso y vuelve a liso). Asimismo, dos o más cualidades distintas pueden cambiar en un mismo sonido y no necesariamente hacerlo sincronizadamente. Por ejemplo, en un sonido el balance espectral puede variar de opaco a brillante en un tiempo distinto del tiempo en el que su cualidad de superficie varíe de liso a rugoso.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

97

2. Una vez realizado el análisis de un número significativo (entre 10 a 30 aproximadamente) de los sonidos de la actividad anterior, conformar diferentes subgrupos de los mismos de acuerdo con similitudes o características en común. Para hacerlo se pueden tener en cuenta las siguientes categorías: a. Sonidos con cualidades cambiantes / sonidos con cualidades invariantes. b. Sonidos con cualidades únicas / sonidos con cualidades múltiples. c. Diferentes afinidades por cualidades compartidas. 1. Sonidos con el mismo tipo de cualidad espectral. 2. Sonidos con el mismo tipo de balance espectral. 3. Sonidos con el mismo tipo de tonicidad. 4. Sonidos lisos / sonidos rugosos. 5. Sonidos con el mismo tipo de envolvente dinámica. 6. Sonidos secos / sonidos reverberados.

LEER CON ATENCIÓN

Esta actividad revelará que entre distintos sonidos pueden establecerse relaciones múltiples. Esto significa que un sonido (A) puede ser similar a otro (B) por afinidad de sus cualidades espectrales y, a la vez, similar a otro sonido distinto (C) por poseer una envolvente parecida, y, a la vez, similar a otro sonido distinto (D) por poseer una granularidad o rugosidad afín, y así sucesivamente. Tales posibilidades de múltiples relaciones entre sonidos a través de diferentes rasgos del timbre constituiría una consecuencia de lo expuesto en la introducción de esta unidad sobre el carácter multidimensional

LECTURA RECOMENDADA

Basso, G. (2006). “Capítulo VI”, en Percepción Auditiva.

Colección Música y Ciencia. UNQ, Bernal, Argentina.

Saitta, C. (2002). “El sonido”, en La banda sonora: apuntes

para el diseño de la banda sonora en los lenguajes audiovisuales. FADU, UBA. Buenos Aires.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

98

Referencias Bibliográficas Basso, G.

y Di liscia, O. (2009), “Audición espacial: conceptos básicos y estado actual de la cuestión”, en: Música y espacio: Ciencia, tecnología y estética. Colección Música y Ciencia. Editorial de la Universidad Nacional de Quilmes, Bernal.

Basso, G. (2009), Percepción Auditiva. Colección Música y Ciencia. Editorial de la

Universidad Nacional de Quilmes, Bernal.

Bregman, A. (1994), Auditory Scene Analysis. MIT Press, Cambridge. Risset, J. y Wessel, D. (1999), “Exploration of timbre by analysis and synthesis”,

en The Psychology of Music. Academic Press, San Diego. Schaeffer, P. (1966), Traité des objects musicaux. Du Seuil, París. Stroppa, M. (1983), L´esplorazione e la manipolazione del timbro, en LIMB. Venecia.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

99

4 Características perceptivas de las secuencias sonoras Objetivos • Que el estudiante explore la problemática de la percepción de las secuencias sonoras. • Que el estudiante comprenda las diferentes categorías en las que los atributos de las secuencias sonoras pueden agruparse. • Que el estudiante reconozca auditivamente los atributos perceptivos de las secuencias sonoras. • Que el estudiante sea capaz de analizar y asociar auditivamente diversas secuencias sonoras en los términos desarrollados en la presente unidad.

4.1. Introducción Los sonidos que se trataron en la unidad anterior se agrupan de manera simultánea y/o sucesiva en secuencias sonoras. Las hemos denominado de esta manera porque que no siempre las secuencias sonoras constituyen secuencias musicales. Una secuencia sonora puede ser, por ejemplo, una voz hablando, o un montaje en el que se representa una escena donde existen varios planos, como un hablante, música de fondo, ruido de ambiente, etcétera. La variedad y complejidad de las características de las secuencias sonoras han motivado que sean objeto de estudio de especialistas en percepción sonora y música. Para los alcances de este curso, se han seleccionado solo algunos rasgos simples de las secuencias que, sin embargo, están vinculados con sensaciones de suspensión/resolución o avance/detención en el flujo sonoro con las que todos los oyentes están familiarizados intuitivamente, aun sin saberlo.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

100

LEER CON ATENCIÓN

De manera similar al caso de los sonidos individuales, las características de las secuencias sonoras pueden presentarse de manera: A- Estática: la característica se mantiene invariante o cambia muy poco durante el transcurso de la secuencia. B- Cambiante: la característica cambia durante la secuencia. O bien, de manera: A- Única: una secuencia sonora tiene varios planos todos con la misma característica. B- Múltiple: una secuencia sonora tiene varios planos con distintas características.

4.2. Velocidad La velocidad de las secuencias sonoras depende de su densidad temporal, que es la cantidad de sonidos que comienzan por unidad de tiempo. Si muchos sonidos aparecen en una unidad de tiempo dada, se crea una sensación de mayor velocidad en la secuencia, si existen pocos sonidos, se crea una sensación de menor velocidad. La densidad temporal se puede medir tomando una unidad de tiempo como referencia y contando cuántos sonidos comienzan en esa unidad de tiempo. Pero la velocidad, como sensación, no puede ser objetivamente medida. Se puede decir que una secuencia sonora es “más rápida” o “menos rápida” que otra, sobre todo en casos muy extremos. En secuencias de densidad media y muy irregulares (ver característica siguiente), la sensación de velocidad puede ser ambigua. Por otro lado, nuestro sistema perceptivo está sujeto a límites temporales. Si una secuencia tiene aproximadamente entre 15 a 20 sonidos por segundo, tenderemos a escucharla no ya como una secuencia de sonidos individuales sino como un sonido individual largo y granulado. Por otro lado, si una secuencia tiene comienzos de sonido a intervalos de aproximadamente 8 a 10 segundos, perderemos la sensación de sucesión o secuencia sonora y escucharemos a los sonidos que la componen como eventos aislados.

Baja Velocidad Media Alta

Ejemplo de secuencia con velocidad baja

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

101

Ejemplo de secuencia con velocidad media

Ejemplo de secuencia con velocidad alta

También es muy común encontrar secuencias sonoras que cambian su velocidad de manera gradual (aceleración o desaceleración gradual). Como la que se presenta en este ejemplo.

PARA AMPLIAR

Se considerarán dos casos de especial interés: a. Distintos estratos: cuando en una secuencia existen varios estratos o planos, se puede considerar la densidad temporal resultante de la superposición de estos planos o la densidad temporal de cada estrato. Ejemplo de secuencia con varios estratos b. Otro caso interesante es el de una secuencia que presenta grupos rápidos de sonidos separados por silencios largos. El intervalo temporal o lapso entre los comienzos de los grupos determinará una densidad temporal baja, pero los intervalos temporales dentro de los grupos producirán una densidad temporal alta. Ejemplo de secuencia con grupos de sonidos rápidos separados por lapsos largos

4.3. Variedad en las duraciones La variedad de las duraciones de una secuencia sonora depende de la similitud de los lapsos o intervalos temporales entre los tiempos de comienzo de cada uno de los sonidos que la integran. Se pueden diferenciar tres casos principales: • una secuencia homogénea o regular se produce cuando los sonidos se presentan a intervalos temporales iguales (o con diferencias mínimas que son imperceptibles),

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

102

• una secuencia heterogénea o irregular se produce cuando los sonidos no se presentan a intervalos temporales iguales, • existe un caso en el que se combinan la variedad con la repetición, que es el caso de la repetición de un determinado diseño, o patrón de duraciones (en música se denomina ostinatto). Es interesante notar que la diferencia entre la homogeneidad y heterogeneidad es generalmente muy ostensible, pero mientras que las secuencias homogéneas o regulares solo se diferencian entre sí por su densidad temporal (el lapso entre dos cualquiera de sus componentes), existen secuencias irregulares con muy diversos grados de irregularidad que no son sencillos de evaluar ni de categorizar. Homogénea (Regular) Variedad de las Heterogénea (Irregular) duraciones Repetición de diseño (Ostinatto)

Ejemplo de secuencia homogénea

Ejemplo de secuencia heterogénea

Ejemplo de secuencia con repetición de un patrón (ostinatto)

LEER CON ATENCIÓN

De entre la gran variedad de transformaciones graduales, se destacará el caso de secuencias en las que los intervalos temporales entre sonidos cambien de irregulares a regulares, o viceversa.

Ejemplo de secuencia con alteraciones en la variedad de las duraciones

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

103

4.4 Articulación La articulación depende de cómo se vinculan los sonidos que conforman la secuencia. Es discontinua cuando entre los sonidos existe un silencio y continua cuando antes de que un sonido termine, comienza otro. Existen muchos grados de discontinuidad o continuidad, dependiendo respectivamente de la duración de los silencios que separan cada sonido y de la duración de la parte en que el sonido anterior se continúa sobre el nuevo que comienza (solapamiento).

Articulación

Discontinua (separación) Continua (solapamiento)

Ejemplo de secuencia con articulación discontinua

Ejemplo de secuencia con articulación continua

LEER CON ATENCIÓN

Es importante destacar que cuando se habla de “silencio” entre los sonidos, este no es un silencio absoluto, sino la ausencia de sonido en un mismo estrato. Secuencias sonoras con varios estratos o planos (por ejemplo, varios instrumentos tocando cada uno una melodía distinta) pueden tener distintas articulaciones. Sería como si escucháramos al mismo tiempo los dos ejemplos anteriores. Ejemplo de secuencia con un plano en el que haya articulación continua y un plano en el que hay articulación discontinua.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

104

4.5 Diseño de registro El diseño de registro depende de la evolución de las relaciones de altura entre los sonidos que conforman la secuencia. En la música, los diseños de registro (o contornos) pueden ser sumamente variados. Si bien cada sucesión tiene un diseño de registro que le es propio, se mencionarán tres casos que son muy comunes: • estático (los sonidos no cambian de altura, o cambian muy poco en torno a una o dos alturas principales), • no-direccional (los sonidos cambian de altura sin una tendencia determinada, de manera alternada) y • direccional (los sonidos cambian de altura con una tendencia determinada). Dentro de esta última categoría, son especialmente frecuentes en la música clásica y tradicional los diseños de tipo ascendente (el diseño termina en sonidos más altos que los del comienzo), descendente (viceversa) y en arco (ascendente-descendente o descendente-ascendente). Debe aclararse, además, que los diseños direccionales no necesariamente tienen que ser monotónicos (por ejemplo, siempre siguen una determinada dirección en todos los pasos), sino que se tiene en cuenta la tendencia general de la sucesión.

Estático Diseño de No-direccional registro Direccional

Ejemplo de secuencia con diseño de registro estático

Ejemplo de secuencia con diseño de registro no-direccional

Ejemplo de secuencia con diseño de registro direccional

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

105

4.6 Diseño de sonoridad El diseño de intensidad depende de la evolución de la relación de sonoridad entre los sonidos que conforman la secuencia. Las categorías más comunes son análogas a las del diseño de registro. En música, las evoluciones de sonoridad direccionales que son crecientes se denominan crescendo, y las decrecientes diminuendo. Estas se indican con esas palabras, o bien con signos especiales llamados reguladores (crescendo y sus combinaciones). En las secuencias crecientes o decrecientes en sonoridad, se suelen denominar respectivamente fade in y fade out.

Estático Diseño de No-direccional sonoridad Direccional

Ejemplo de secuencia con diseño de sonoridad estático

Ejemplo de secuencia con diseño de sonoridad no-direccional

Ejemplo de secuencia con diseño de sonoridad direccional

TEXTO APARTE

En los montajes sonoros de más de un plano (típicamente dos) es común utilizar como recurso de unión un fade in en un plano (el que se abandona) y un fade out en el otro (el nuevo).

Ejemplo de secuencia de dos planos con diseños de sonoridad direccionales opuestos (fade in-fade out).

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

106

4.7. Textura Un enfoque de interés sobre este tema se puede encontrar en Meyer (1956) pp. 185 a 196.

La textura depende de la relación entre los planos sonoros o estratos de una secuencia. Concretamente, es el número de planos sonoros, su interrelación y su jerarquía. Existen músicas y secuencias sonoras que presentan una sola textura durante todo su transcurso y otras que cambian de textura. La textura es un tipo de organización complejo y multidimensional (en el sentido en que depende de la interacción de varios tipos de organización sonora). Típicamente, se presentan cinco tipos de texturas: a. Monodia: se puede comparar al primer plano en una fotografía o pintura. Se trata de un solo estrato sonoro.

Ejemplo de textura monódica

b. Fondo-figura: se puede comparar a una figura-fondo en una fotografía o pintura. En su forma más simple se constituye de un plano principal y uno secundario. Típicamente, en la música, una melodía con un acompañamiento, pero también podría ser una secuencia sonora de un locutor hablando con una música de fondo. Existen muchas y muy ricas variantes de esta textura, porque puede haber más de un personaje y más de un plano secundario o de acompañamiento.

Ejemplo de textura fondo-figura

c. Homoritmia: varias figuras sincronizadas temporalmente. Por ejemplo, cuando varias melodías ejecutadas por varias voces siguen el mismo intervalo temporal (muy común en los corales para voces). Pero también puede darse en recitados simultáneos o en secuencias con instrumentos de percusión, etcétera.

Ejemplo de textura homorítmica

d. Polifonía: varias figuras, todas ellas con un grado aproximado de importancia, como en un retrato colectivo. En música se denomina también contrapunto. Un ejemplo musical muy común y paradójico son los cánones, que son piezas musicales a varias voces en las que cada voz canta la misma melodía (o la misma melodía con variantes) pero desfasada temporalmente. En una escena sonora, una polifonía puede estar constituida por diversos planos sonoros independientes. La localización espacial de cada plano puede ayudar mucho a su diferenciación e independencia.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

107

Ejemplo de textura polifónica

e. Heterofonía: se produce cuando se presentan varios planos distintos, pero son muy parecidos y no están sincronizados. Se percibe como una “masa sonora” en movimiento y si bien se detecta la presencia de varios estratos, no es posible individualizar de manera precisa ninguno de ellos. Es muy común en ciertas músicas primitivas o tradicionales tocadas con muchos instrumentos iguales de manera no sincronizada, pero también en la música moderna. Un buen ejemplo de heterofonía en una secuencia sonora no-musical sería una gran cantidad de gente hablando simultáneamente, en donde se distinguen distintas fuentes sonoras, pero no se puede individualizar ninguna.

Pie: Ejemplo de textura heterofónica

TEXTO APARTE

Es interesante destacar que son posibles, y muy comunes, combinaciones de los tipos de textura b, c y d con planos o estratos sonoros de muy diversos grados de variedad y jerarquía. Por ejemplo, en la música Barroca eran muy comunes las obras en las que un instrumento (el clavecín o laúd) realizaba un plano de acompañamiento con acordes sobre un bajo tocado por una viola da gamba y dos o tres instrumentos (como por ejemplo, violín, oboe, flauta, etc.) realizaban melodías en contrapunto (polifonía).

Monodia Fondo-figura Textura Homoritmia Polifonía Heterofonía

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

108

4.8. Variedad de fuentes sonoras Depende de qué tan distintas sean las fuentes sonoras que participan en una secuencia. No es necesario que haya varios planos para que haya varias fuentes sonoras. Asimismo, no debe confundirse la variedad de fuentes participantes en una secuencia con la multiplicidad de planos o voces en la textura. Por ejemplo, un piano solo o una guitarra, que constituyen una sola fuente sonora, pueden hacer cualquiera de las texturas (monodia, melodía con acompañamiento, homoritmia, contrapunto). Por otro lado, varias fuentes iguales (por ejemplo, violines tocando al unísono o voces) pueden hacer una sola melodía o estrato sonoro. PARA REFLEXIONAR

La similitud de las fuentes sonoras tiene muchos grados y matices. Se pueden producir situaciones en las que sea difícil o ambiguo para el oyente no adiestrado reconocer si se trata de varias fuentes “distintas”: por ejemplo, en un cuarteto de cuerdas, los oyentes tenderán a decir que se trata de varias fuentes iguales. También pasaría lo mismo con un cuarteto vocal o un coro.

Una sola fuente Vairedad de fuentes Iguales sonoras Varias fuentes Distintas

Ejemplo de secuencia con una sola fuente sonora

Ejemplo de secuencia con varias fuentes sonoras iguales

Ejemplo de secuencia con varias fuentes sonoras distintas

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

109

PARA REFLEXIONAR

Las características de las secuencias sonoras que se han tratado son relativamente sencillas de percibir auditivamente y de conceptualizar. En los ejemplos que se presentaron se ha intentado (toda vez que ha sido posible) trabajar solo la característica que se trataba, dejando a las otras en un plano neutro. Sin embargo, en las secuencias sonoras y, sobre todo, en la música de calidad, varias de estas características interactúan de manera convergente y sincronizada (por ejemplo, una secuencia sonora que tiene un diseño de registro orientado, ascendente mientras que su diseño de sonoridad es orientado pero decreciente). Esta interacción puede producir diversos resultados sonoros que van desde lo muy obvio hasta lo completamente ambiguo y es una de las principales fuentes de la riqueza expresiva de la música y los montajes de sonido.

1. Obtenga diversas secuencias sonoras, ya sean musicales o no. Por ejemplo, dentro de estas últimas, puede usar fragmentos de una grabación de la banda de un comercial de TV o radio, o la banda sonora de una película. Se recomienda una duración aproximada de entre 5 a 15 segundos por secuencia. En esta primera actividad, use solo secuencias de un solo plano a los efectos de familiarizarse más fácilmente con sus características. Analice dichas secuencias sonoras, usando la siguiente plantilla: Baja Velocidad Fija Media Alta Variable

Variedad Fija de las duraciones

Homogénea (Regular) Heterogénea (Irregular) Repetición de diseño (Ostinatto)

Variable

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

110

Única Articulación

Discontinua (separación) Continua (Solapamiento)

Múltiple

Estático Diseño Fijo No-direccional de Registro Direccional Cambiante

Estático Diseño Fijo No-direccional de Sonoridad Direccional Cambiante

Una sola fuente Variedad de Fuentes Iguales Sonoras Varias fuentes Distintas

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

111

2. Obtenga diversas secuencias sonoras, ya sea musicales o no. Por ejemplo, dentro de estas últimas, puede usar fragmentos de una grabación de la banda de un comercial de TV o radio, o la banda sonora de una película. Se recomienda una duración aproximada de entre 5 a 15 segundos por secuencia. Seleccione secuencias de varios planos y determine, en primer lugar: a. Cantidad de planos sonoros. Por ejemplo, en un comercial típico de radio en donde hay música de fondo y la voz del locutor, los planos son dos. b. Identifique auditivamente cada plano sonoro y su interacción con los demás. Determine el tipo de textura con base en el cuadro siguiente. c. Analice cada uno de los planos con las plantillas de la anterior actividad.

Monodia Fondo-figura Textura Homoritmia Polifonía Heterofonía

3. Una vez realizado el análisis de un número significativo (entre 10 a 30 aproximadamente) de las secuencias de la actividad anterior, conforme diferentes subgrupos de las mismas de acuerdo con similitudes o características en común. Para hacerlo, puede tener en cuenta las siguientes categorías (se proporcionan solo algunas como ejemplo): a. Secuencias con un solo plano-Secuencias con varios planos. b. Secuencias con velocidad fija-Secuencias con velocidad cambiante. c. Secuencias con velocidades promedio similares. d. Secuencias con variedad en las duraciones similares. e. Secuencias con variedad en las duraciones similares. Etc.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

112

Referencias Bibliográficas Meyer, L. (1956), Emotion and meaning in music. Chicago University Press. Chicago, USA.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

113

5 Codificación digital de sonido

Objetivos • Introducir al estudiante en los principales conceptos del audio digital. • Que el estudiante comprenda los procesos de digitalización de sonido. • Que el estudiante comprenda las principales características, codificación y almacenamiento de la señal digital de sonido.

5.1. Introducción En esta unidad se estudiarán cuáles son los procesos esenciales para representar y almacenar una señal sonora empleando medios digitales. Al pasar de un medio a otro, siempre hay que tener en cuenta que se está trabajando con distintas representaciones del fenómeno acústico y que inevitablemente estas representaciones afectan la manera en que se lo comprende y manipula. Entender los principios de la codificación digital de sonido es entender la materia con la que se trabaja para poder efectuar mejor una determinada labor.

5.2. La cadena electroacústica y su inclusión en la cadena acústica Como se estudió en unidades anteriores, una señal acústica es un fenómeno físico que consiste en la propagación de variaciones de presión en un medio determinado, generalmente el aire, que son percibidas por nuestro sistema auditivo como sonido. Para poder representar y trabajar este fenómeno acústico con medios electrónicos y digitales es necesario transformarlo de diversas maneras. Primero, una señal acústica se puede medir y transformar en energía eléctrica mediante micrófonos. Un micrófono es un transductor que transforma la energía acústica en energía eléctrica la cual se propaga como variaciones de voltaje a través de cables y circuitos. Una vez que las variaciones de presión sonora fueron transformadas en variaciones de voltaje es posible aplicarles el proceso de digitalización, el cual consiste en medir y transformar nuevamente la señal eléctrica en una señal digital. Este proceso es también reversible puesto que si tenemos una señal digital la podemos

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

114

volver a transformar en corriente eléctrica para luego convertirla nuevamente en energía acústica.

En el extremo izquierdo se representa una fuente que genera una señal acústica. Esta es captada por el micrófono y convertida en variaciones de voltaje que luego son transformadas por el ADC en una señal digital. La señal digital generada puede ser procesada o simplemente almacenada para luego ser reconvertida en voltaje mediante el ADC. Luego de esto, la señal analógica es transformada en energía acústica mediante un parlante.

5.3. Conversión analógica-digital (ADC) Para transformar una señal eléctrica en una señal digital se emplea un conversor analógico-digital (ADC por las siglas en inglés de Analog to Digital Converter). De manera simplificada, la principal función de este conversor es la de discretizar una señal continua/analógica mediante el muestreo. El muestreo consiste en tomar muestras, a períodos de tiempo constantes, de las variaciones de voltaje que llegan al conversor y asignarle a cada una un valor de amplitud proporcional al voltaje muestreado a cada instante. LEER CON ATENCIÓN

El muestreo de señales de audio se suele denominar también sampling o sampleo por su denominación en inglés. No debe confundirse el sampleo de una señal son los “samples” de un banco de sonido. En la práctica, estos términos pueden referirse tanto al proceso de muestreo como a sonidos grabados y agrupados en bancos para luego ser reproducidos, pero en este último caso el término hace referencia a un sonido completo grabado y almacenado, y no al proceso de generar

Una muestra sería (como) la fotografía de un instante de la amplitud que tiene un determinado voltaje. A esa amplitud muestreada temporalmente se le asigna un valor discreto, en números binarios, mediante el proceso de cuantización.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

115

En la figura se muestran los procesos básicos que se realizan al muestrear una señal. Primero se le aplica un filtro pasa bajos a la señal eléctrica para “simplificar” la señal analógica en los momentos que no va a ser “fotografiada”. Es decir, se eliminan los componentes de frecuencias que están por sobre la frecuencia máxima representable por el sistema discreto. La frecuencia con la que se toman las muestras de amplitud se denomina frecuencia de muestreo y, como se verá más adelante, determina los límites de la información que se puede representar de forma discreta. Luego de convertir una señal analógica en digital es posible almacenarla y/o procesarla de diversas maneras empleando programas informáticos. Una de las ventajas que tienen los soportes de representación y almacenamiento binarios es que la señal, una vez convertida y almacenada, no se degrada con el paso del tiempo. La otra gran ventaja es que se pueden emplear los recursos computacionales para trabajar sobre la señal de manera rápida y eficiente.

5.4. Conversión digital-analógica (DAC) La conversión de una señal digital en una señal analógica se realiza mediante el empleo de un conversor (digital-analógico DAC por las siglas en inglés de Digital to Analog Converter) que convierte una señal discreta, representada como una sucesión de tiempo constante de valores de amplitud, en una señal eléctrica continua.

Como se muestra en la figura, la señal representada digitalmente es convertida a valores equivalentes de voltaje. Sin embargo, el voltaje generado, aunque ya es una señal continua, cambia abruptamente a frecuencia de muestreo. Estos cambios abruptos hacen que se alteren las cualidades tímbricas de la señal representada, es por eso que se emplea un filtro analógico pasa bajos al voltaje de salida para “reconstruir” los instantes intermedios perdidos en el proceso de discretización. La frecuencia de corte del filtro de salida está en la frecuencia de Teorema de Nyquist para eliminar solo los artefactos de la señal eléctrica generada que no formaron parte del proceso de muestreo.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

116

5.5. Características y parámetros de la señal digital Una señal analógica es continua, es decir que contiene infinitos valores. Cuando se muestrea una señal continua se la está convirtiendo en una señal discreta la cual contiene una cantidad finita de valores posibles. Si bien ambos tipos de señales comparten las mismas cualidades, estas no se comportan ni física ni matemáticamente de la misma manera. Es por eso que para su estudio se emplean las matemáticas discretas. Para digitalizar una señal continua es necesario especificar ciertos parámetros que son empleados por el ADC para representar digitalmente una señal. Los dos parámetros principales son la frecuencia de muestreo y la resolución en bits. La frecuencia de muestreo define hasta qué frecuencia (espectralmente hablando) es posible representar, mientras que la resolución en bits define el rango dinámico y la calidad de la señal muestreada. Estas variables pueden generar distintos tipos de errores que se subsanan de diversas maneras como se verá a continuación.

5.6. Frecuencia de muestreo e intervalo de muestreo La frecuencia de muestreo es la cantidad de muestras de amplitud que se toman por segundo y se denomina simbólicamente con las letras mayúsculas SR (o simplemente R). Su unidad de medida es el Hertz (Hz) en cantidad de muestras sobre segundo (M/s). En audio digital se emplean distintas frecuencias de muestreo según la resolución temporal que se quiera emplear para representar una señal acústica. Mientras mayor sea la frecuencia de muestreo, mayor será la resolución de la señal representada, pero también se incrementará la cantidad de datos necesarios para su almacenamiento y el ancho de banda necesario para su transmisión. PARA AMPLIAR

Las frecuencias de muestreo más comunes son: 8000 Hz, 11025 Hz 16000 Hz, 22050 Hz, 32000 Hz, 44100 Hz, 48000 Hz, 96000 Hz y 196000 Hz. Las frecuencias más bajas se suelen emplear para la transmisión de datos de voz y las más altas para la grabación de sonido profesional. Por ejemplo, la frecuencia de muestreo estándar empleada por los CD de audio es de 44100 Hz. El intervalo de muestreo es el recíproco de la frecuencia de muestreo, es decir 1/SR, lo que equivale al período, expresado en segundos, al que se toman las muestras. Por ejemplo, si tenemos una frecuencia de muestreo de 8000 Hz, el período de muestreo será de 1/8000 = 0.000125 segundos. La fórmula matemática empleada para la conversión es P = 1/SR de la cual podemos deducir que SR = 1/P si quisiéramos calcular la frecuencia de muestreo de

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

117

un período de tiempo P. Al intervalo de muestreo se lo suele llamar período de muestreo y se lo denomina con la letra P mayúscula. Al trabajar con audio digital el período se puede medir en cantidad de muestras en relación con la frecuencia de muestreo, usando la regla de tres simple. Como la duración de una muestra es de 1/SR, si se quiere saber cuánto duran una cantidad M de muestras se multiplica el período de muestreo por la cantidad de muestras, lo que resulta en 1/SR * M = M/SR = D, siendo D la duración de la cantidad de muestras.

5.7. Teorema de Nyquist Mediante una señal temporalmente discreta no es posible representar infinitos valores de frecuencias altas porque no es posible tomar muestras a períodos infinitamente pequeños. Por lo tanto, la frecuencia más alta que se puede representar depende de la frecuencia de muestreo que se emplee para discretizar la señal. El teorema de Nyquist define formalmente cuál es la frecuencia máxima que se puede representar digitalmente a determinada frecuencia de muestreo, a esta frecuencia máxima se la denomina frecuencia de Nyquist. La frecuencia de Nyquist (N) equivale a N = SR/2 y define que para una determinada SR, la máxima frecuencia que se puede representar es la mitad de SR. Por ejemplo, a una SR de 44100 Hz, la máxima frecuencia que se puede representar es 44100/2 = 22050 Hz. Si se quisieran muestrear o generar frecuencias mayores a la frecuencia de Nyquist se genera un fenómeno denominado aliasing. El teorema de Nyquist sostiene que un movimiento oscilatorio se puede representar con un mínimo de dos muestras, una para el semiciclo positivo y otra para el negativo.

En los gráficos A, B y C de la figura se muestra solo un ciclo de un movimiento sinusoidal a frecuencia de Nyquist. Dos muestras discretas de un ciclo en A, convertidas en una función continua en B que luego de pasar por el filtro pasa bajos, dan como resultado la forma de onda en C.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

Harry Nyquist fue el primero en conjeturar este hecho en 1928 que luego fuera demostrado formalmente por Claude E. Shannon en 1949.

118

Digitalmente podría parecer que la forma de onda que se está representando es una onda cuadrada, sin embargo al pasar por el filtro pasa bajos luego de la conversión digital-analógica, todos los componentes que estén por sobre la frecuencia de Nyquist se eliminan dando como resultado una sinusoide.

5.8. Aliasing El aliasing se produce cuando existen componentes de frecuencias “falsas” que no forman parte de la señal original y que se crearon debido al error de representar frecuencias mayores a la frecuencia de Nyquist. En relación con el muestreo, una señal continua puede ser: sobremuestreada, cuando la cantidad de muestras es más que suficiente para representar una determinada frecuencia; críticamente-muestreada, cuando la cantidad de muestras es la mínima posible para representar el período de una frecuencia; y submuestreada, cuando la cantidad de muestras tomadas es insuficiente para representar correctamente una frecuencia.

En la figura se muestran los tres casos posibles. Las líneas verticales son el momento en que se toma cada muestra en relación con la señal de entrada. En el gráfico superior se muestra una sinusoide sobremuestreada, en el gráfico intermedio una señal críticamente-muestreada y en el gráfico inferior una señal submuestreada (color negro) y el componente “alias” que se genera al tomar muestras de diferentes ciclos. Una señal sobremuestreada es el caso ideal para representar un movimiento oscilatorio simple, puesto que se dispone con seguridad de la cantidad de muestras necesarias por ciclo para representar correctamente la señal.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

119

Cualquier componente en frecuencia que esté por debajo de la frecuencia de Nyquist será sobremuestreado y, por lo tanto, podrá ser representado de una manera más fiel con respecto a la señal analógica. Cuando una señal está críticamente muestreada, por ejemplo una señal a frecuencia de Nyquist, se pueden producir errores en la representación de la amplitud o la fase resultante de la señal según sea la fase de la señal original en relación con la toma de las muestras.

En la figura se muestra en negro una forma de onda analógica que al ser críticamente muestreada cambia de amplitud y fase. La onda resultante se muestra en rojo. Cuando una señal está submuestreada es cuando se produce el aliasing. Puesto que no fueron suficientes las muestras tomadas para representar un movimiento oscilatorio determinado, el muestreo comienza a tomar muestras de distintos períodos de la señal lo que hace que se genere un movimiento oscilatorio distinto al original, de frecuencia más baja. La frecuencia de un componente alias fr se puede calcular a partir de la frecuencia original del componente f y la frecuencia de muestreo R con base en la siguiente fórmula: fr = f - (int (2 f / R)) R (int() significa tomar la parte entera de la expresión entre paréntesis). Los efectos del aliasing según Moore (1990) pueden clasificarse en tres tipos: 1. Distorsión de la amplitud real de los componentes: los componentes falsos (alias) pueden coincidir con los reales, modificando su amplitud y, por lo tanto la forma de onda total. 2. Batidos y distorsión no–lineal: los componentes falsos pueden ubicarse en frecuencias cercanas a las de los reales, produciendo batidos y distorsiones. 3. Frecuencias inferiores con movimientos divergentes (“heterodyning”): en los casos en los que la señal tenga componentes submuestreados con glissandos, se producirán componentes falsos con glissandos en el sentido contrario.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

120

5.9. Cuantización Al muestrear una señal continua no solo se está discretizando su cualidad temporal (los valores sucesivos que se toman en cuenta) sino también los valores de amplitud, que serían los valores correspondientes al eje de las ordenadas cuando representamos la forma de onda. A este proceso se lo denomina cuantización de la señal. La cuantización, a diferencia del muestreo en frecuencia, no es reversible puesto que se pierde información respecto de la señal original que se transforma en ruido de cuantización como se verá a continuación.

5.9.1. Resolución en bits La resolución en bits de una señal digital determina la precisión con que se representan estos valores de amplitud tomados por muestra. Define el rango dinámico, entendido como la distancia entre la amplitud máxima y mínima de la señal digitalizada según la cantidad de valores distintos que se puedan representa TEXTO APARTE

En el sistema binario, un bit puede representar dos valores (cero o uno), dos bits agrupados pueden representar cuatro valores distintos, tres bits pueden representar ocho valores distintos, etc. De manera general, una cantidad N de bits pueden representar 2N cantidad de valores distintos.

Por ejemplo, si quisiéramos cuantizar una señal con una resolución de 4 bits, la amplitud de cada muestra debe ser encasillada, según su valor de voltaje sea más aproximado, dentro de uno de entre 16 valores distintos (24 = 16).

En la figura se muestra una señal continua en negro y superpuesta en rojo la misma señal pero cuantizada a un determinado período de muestreo. Mientras más lejano sea el recorrido de la señal continua con respecto a los puntos rojos de las líneas horizontales mayor será el error de cuantización.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

121

TEXTO APARTE

Aunque se puede implementar de diferentes maneras, la codificación binaria comúnmente empleada por los conversores analógico-digitales es el complemento a dos puesto que facilita las operaciones realizadas por los procesadores. Sin embargo, tiene la desventaja de que el rango numérico es asimétrico teniendo un valor numérico más para los números negativos.

Además del rango dinámico, el proceso de cuantización afecta la forma de onda resultante puesto que los infinitos valores de amplitud posibles en un señal continua son asignados a una cantidad finita de números binarios. Al transformar variaciones de voltaje (amplitud de una señal continua) en valores discretos (amplitud de una señal digital) se produce un redondeo. Los valores continuos que caen dentro del rango de dos valores discretos son asignados al valor discreto más próximo perdiéndose precisión en la representación de la amplitud. A mayor resolución en bits, mayor será la resolución con que se representan las variaciones de amplitud de la señal. Según se redondee hacia arriba o hacia abajo, en comparación con la señal analógica, la señal digital resultante contiene pequeños saltos. La amplitud máxima de estos saltos está definida por la resolución en bits y equivale a la mitad de la amplitud representable entre dos valores (1 bit). La dirección de estos saltos no es previsible y depende de si el redondeo es ascendente o descendente. En el gráfico anterior se puede observar cómo los puntos rojos que representan el valor digital de la señal no coinciden exactamente con la señal analógica, quedando por arriba o por abajo, más o menos cerca del valor original. Estos saltos generan lo que se denomina ruido de cuantización, el cual acompaña las variaciones de amplitud de la señal y se vuelve audible en el procesos de conversión digital-analógica posterior.

5.9.2. Cuantización uniforme Existen varias maneras de cuantizar una señal según como se distribuyan la cantidad de valores distintos, de manera uniforme o no uniforme, al representar la amplitud de una muestra. La cuantización uniforme distribuye de manera equidistante los distintos valores de amplitud posibles determinados por la resolución en bits. Esto hace que se tenga la misma resolución al representar tanto sonidos de alta como de baja amplitud.

5.9.3. Relación señal-error de cuantización El ruido generado por el error de cuantización hace que la señal se distorsione más o menos según su amplitud. Para señales de muy baja amplitud el ruido de cuantización enmascara la señal representada. A este límite de

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

122

enmascaramiento se le llama piso de ruido, toda señal cuya amplitud esté próxima a este se verá degrada por el proceso de cuantización. La relación entre el piso de ruido y la señal representada se denomina SQNR (por Signal to Quantization error Noise Ratio en inglés). La relación SQNR es la que determina el rango dinámico de las señales que se pueden representar dentro de una resolución en bits determinada. Para determinar esta relación se emplea la siguiente fórmula: SQNR = 20 * log10 2n , siendo n la resolución en bits. Esta fórmula nos da el rango dinámico en dB y de ella podemos aproximar que cada un bit de precisión que se agrega a la resolución, el rango dinámico representable se incrementa en 6dB aproximadamente. Por esto último podemos simplificar de manera práctica, y decir que SQNR = 6dB * n, siendo n nuevamente la cantidad de bits. La resolución estándar de un CDA es de 16 bits lo que da un rango dinámico aproximado de 96dB. La SQNR es una proporción que relaciona el ruido de cuantización con la amplitud de la señal representada, en el caso anterior sería con una señal de amplitud máxima. Pero si queremos saber cuál es la SQNR para señales de menor amplitud podemos usar la fórmula aproximada: SQNR = 6dB * n + S, donde S es la amplitud efectiva en cantidad de dBfs. Por ejemplo, si tenemos una señal a -18dBfs y una resolución de 16 bits la relación señal/ruido de esta señal en particular sería SQNR = 6dB * 16 + (-18) = 96dB - 18 = 72dB. Esto es útil para saber cuán degradada puede estar una señal grabada a cierta amplitud puesto que si el nivel de grabación fue muy bajo, luego no será posible amplificarla sin aumentar también el ruido de cuantización.

5.9.4. Cuantización no-uniforme En relación con el desarrollo de las telecomunicaciones fueron desarrolladas dos técnicas de cuantización no lineal implementadas en las normas Mu-Law y A-Law. Ambas son versiones ligeramente distintas de un mismo procedimiento de conversión analógica–digital no lineal empleado para luego comprimir las señales de audio a ser transmitidas. Estas técnicas emplean en el proceso de muestreo una mayor resolución para representar los valores de amplitud cercanos a cero (de la cantidad de bits disponibles se emplean más para representar valores pequeños) y una menor resolución para los valores de amplitud cercanos al máximo.

La grilla de líneas puenteadas esquematiza el proceso de cuantización no lineal en relación con una señal de gran amplitud.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

123

La distribución de los valores de amplitud de una señal cuantizada de esta manera no es pareja a lo largo del rango dinámico. Tener un mayor grado de precisión para los componentes de baja amplitud implica menor precisión para los componentes de mayor amplitud. La cuantización no lineal disminuye el ruido de cuantización en bajas amplitudes, donde es más audible, pero lo incrementa cuando la señal es de mayor amplitud. Esto es preferible puesto que los sonidos de mayor amplitud tienden a enmascarar el ruido de cuantización. Sin embargo, el desarrollo de esta técnica de cuantización se basa en que las señales de voz hablada se desarrollan comúnmente a valores de baja amplitud, lo que permite tener una buena calidad de sonido para el rango dinámico de la voz hablada y, a la vez, permitir la codificación de sonidos de mayor amplitud.

5.9.5. Dithering El ruido de cuantización “acompaña” espectralmente a la señal digitalizada según varíe su amplitud. Esto hace que se generen bandas de ruido a medida que la energía de la señal disminuye y produce un efecto, preceptivamente muy notable, denominado distorsión armónica. Para evitar este fenómeno se usa el dithering que consiste en aplicar ruido blanco de baja amplitud antes de la conversión analógica-digital, lo que hace que el error de cuantización no varíe espectralmente junto con las variaciones de la señal de entrada. El ruido blanco hace que el error de cuantización adquiera una función de distribución de probabilidades uniforme sin importar las características de la señal de entrada esto es lo que garantiza que no se produzca una distorsión variable que sería mucho más audible. El dithering también hace que los efectos del ruido de cuantización sean menos notorios puesto que al generar un ruido estacionario constante, e igual para todo el rango dinámico, el piso de ruido se vuelve mucho menos perceptible.

5.10. Codificación y almacenamiento de la señal digital Una señal digital se codifica como una sucesión de valores binarios, según sea la resolución en bits, la cantidad de bytes necesarios para cada muestra varía. Por ejemplo, una señal mono de 16 bits se representa como una sucesión de valores de 3 bytes. Si la señal fuera estéreo o multicanal, los grupos de bytes que representan una muestra de cada canal se entrelazan. Es decir que no se almacena la sucesión de valores del canal 1, luego la del canal 2, etc, sino que se almacena una muestra de cada canal (c) como: c1, c2, …, cn, c1, c2, …, cn, etc. Al conjunto que se genera de una muestra de cada canal se la suele llamar frame, que sería como el corte vertical de las señales superpuestas.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

124

Según la codificación empleada, el conjunto de bytes que almacenan el valor de una muestra puede ser entendido como números enteros, con o sin signo, o como números de punto flotante. En las aplicaciones para audio digital se suele usar la representación “normalizada” en punto flotante en la cual el rango de valores va de -1 a 1, lo cual simplifica las operaciones matemáticas que usualmente se efectúan sobre una señal de audio. Las señales almacenadas o generadas digitalmente deben poder ser decodificadas de manera adecuada por los programas y el hardware, es por eso que es necesario especificar el formato de codificación empleado en cada etapa.

5.10.1. Archivos de sonido con formato Para especificar la codificación de una señal digital almacenada en disco se emplean formatos de archivo. Los formatos de archivos se componen generalmente de un encabezado (header en inglés) y luego los valores de amplitud de la señal almacenada. El encabezado especifica el formato de codificación, como pueden ser: el formato binario empleado, la frecuencia de muestreo, la resolución en bits y la cantidad de canales.

En el siguiente enlace se puede encontrar una de las mejores referencias sobre los distintos formatos de archivos digitales de audio. http://www.digitalpreservation.gov/formats/fdd/sound_fdd.shtml

La codificación digital que venimos analizando es la que corresponde a los archivos de audio sin compresión, es decir, que almacenan la información como fuera sampleada por el conversor analógico-digital. Como se vio anteriormente, es posible variar la frecuencia de muestreo y la resolución en bits. Al aumentar la calidad de audio, se incrementa directamente el tamaño de los archivos; lo que conlleva un aumento en la capacidad de procesamiento del sistema y en la cantidad de espacio necesario para el almacenamiento.

Al trabajar con archivos de audio se suele tener la necesidad de prever la cantidad de espacio necesario para el almacenamiento y el ancho de banda necesarios para su transmisión en tiempo real. Si tomamos, por ejemplo, un archivo de audio estéreo, muestreado a 44100 Hz y con una resolución de 16 bits podemos calcular la cantidad de bits por segundo que requiere su representación de la siguiente manera: canales * resolución * R / segundo, en concreto sería 2 * 16 bits * 44100 / s = 1411200 bits/s. Si lo pasamos a kbits (dividimos por 1000) serían 1411.2 kbits/s. Si quisiéramos saber cuánto pesa un minuto de audio en este formato la cuenta sería 2 * 16 bits * 44100 * 60 / 8 / 10242 = 10.0936 Mb aproximadamente.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

125

LEER CON ATENCIÓN

Cuando se habla de transferencia de datos en bits las unidades que se emplean son decimales, un kilo bit son 1000 bits. En cambio, cuando se refiere a espacio de almacenamiento se suele medir en bytes y las unidades de agrupamiento están en binario, por eso dividimos por 8 (1 byte = 8 bits) y luego por 10242 = (210)2. Los resultados anteriores demuestran que se necesita una cantidad considerable de bits tanto para transmitir como para almacenar información de audio digital. Por este motivo es que se desarrollaron diversos algoritmos de compresión de audio con y sin pérdida. La compresión sin pérdida se suele usar para el audio en alta calidad aunque la relación de peso entre el audio comprimido y el original no es tan eficiente como la que se logra con la compresión a pérdida. La compresión de audio con pérdida emplea diversos algoritmos basados en la codificación perceptual del sonido (PAC por Perceptual Audio Coding en inglés) y son los formatos más usados para almacenar música en dispositivos móviles y la transmisión de audio a través de internet. La codificación perceptual es una manera muy eficiente de reducir el espacio de almacenamiento y el ancho de banda necesario (Kbits/s) para transmitir sonido a costa de la pérdida de calidad y fidelidad del sonido con respecto al original. El formato mp3, por ejemplo, define el grado de compresión de los archivos según su tasa de transferencia, la cual va generalmente desde los 8 kbps a los 320 kbps. Si comparamos con los 1411.2 kbps necesarios para transmitir el audio sin comprimir de nuestro ejemplo anterior, la razón de compresión estaría entre 1/176.4 y 1/4.41. Teniendo en cuenta que mientras mayor sea la compresión más se perjudica la calidad del audio, no todas las tasas de transferencia son aceptables para determinados usos. Por ejemplo, para la transmisión de música en formato mp3, se puede considerar aceptable una compresión de hasta 128 kbps lo cual da una razón de 1/11.025. Si la señal se comprime aún más, no solo se pierde información sino que se empiezan a escuchar artefactos característicos del proceso de compresión, los cuales distorsionan (modifican) la información original. El mayor problema de la compresión con pérdida es que no es un proceso reversible, una vez que la señal fue comprimida hay información que fue descartada o simplificada y, por lo tanto, no puede volver a reconstruirse el audio original.

5.10.2. Archivos de sonido sin formato Un archivo sin formato contiene solamente los valores “crudos” (raw en inglés) de amplitud, sin especificar la frecuencia de muestreo ni la resolución en bits. Para poder leer un archivo raw es necesario saber de antemano cómo fue generado.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

Las características de percepción sonora que son generalmente explotadas por las técnicas de compresión a pérdida se explicaron brevemente en la Unidad 2.

126

En general, los archivos sin formato son empleados internamente por los editores de audio para manipular la información sin necesidad de estar cambiando el formato constantemente. Los archivos de audio se leen una vez y se convierte al sistema de representación empleado por el programa que guarda estos datos en archivos temporales. Hay casos en los que nos podemos encontrar con información de audio cuyo formato no está especificado, por ejemplo archivos temporales o con el encabezado dañado. En estos casos, la única manera de averiguar el formato de la información es importarlos especificando manualmente la frecuencia de muestreo y la resolución en bits, e ir buscando los valores correctos para luego guardarlos con el formato adecuado. Generalmente, los archivos sin formato contienen información sin compresión que puede ser exportada intencionalmente para procesar la señal con otros programas que no lean archivos de audio, por ejemplo cuando se trabaja programando a bajo nivel, si se quiere desarrollar un programa simple que implemente un determinado algoritmo. Si se tratase de archivos dañados con compresión es mucho más difícil reconstruir la información de manera adecuada, por lo que sería necesario recurrir a un software desarrollado específicamente para tal fin. LECTURA RECOMENDADA

Moore, F. (1990), “Capítulo II”, en Elements of Computer

Music. Prentice-Hall, Nueva Jersey, pp. 27-61.

Referencias Bibliográficas Moore, F. (1990), Elements of Computer Music. Prentice-Hall, Nueva Jersey. Painter, T. (2000), Perceptual Coding of Digital Audio. Actas de la IEEE, Volume:88, Issue: 4, pg. 451-515. Goldberg, R. (2000), A Practical Handbook of Speech Coder. Randy Goldberg Ed. CRC Press LLC, Boca Raton. Zölzer, U. (1998), Digital Audio Signal Processing. John Wiley & Sons LTD., Baffins Lane, Chichester.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

127

6 Principios básicos de análisis de sonido digital

Objetivos • Que el estudiante comprenda los principales recursos de análisis de las señales digitales. • Que el estudiante comprenda las distintas formas de representación de las señales digitales de sonido y de cómo estas facilitan el análisis de distintos parámetros.

6.1. Introducción Históricamente, el sonido se estudia con distintas herramientas de análisis provenientes de campos como la física y las matemáticas. Gracias al avance de los recursos computacionales, se hizo posible el desarrollo de algoritmos que facilitaron los cálculos necesitados por estas herramientas. Puesto que se obtienen resultados en tiempos notablemente menores a los requeridos cuando se realizaban los cálculos manualmente, el empleo de estos recursos matemáticos se potenció de manera inimaginable desde mediados del siglo XX. Gracias a esto, surgieron nuevas formas de visualización y manipulación de los datos y se aceleró el desarrollo de herramientas de análisis específicas, pero sobre todo se hizo posible el análisis empírico de la gran variedad de eventos sonoros cotidianos, desde la voz hablada hasta el timbre de los instrumentos de la orquesta. El sonido pudo ser estudiado por primera vez en la historia como un objeto delimitado y tangible. En esta unidad se explicarán tanto las representaciones como las herramientas de análisis básicas a partir de las cuales es posible estudiar y comprender el fenómeno sonoro en general, así como las cualidades específicas de los recursos empleados.

6.2. Análisis de la forma de onda digital A la representación de los sucesivos valores de amplitud en función del tiempo, se la llama representación temporal o forma de onda. En el eje de las ordenadas se representan los cambios de presión sonora/voltaje en valores de amplitud entre un mínimo y un máximo soportados por el sistema. Usualmente la amplitud de una señal se mide en valores normalizados entre -1 y

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

128

1, siendo 0 el valor que representa el estado de reposo o silencio también llamado DC (por Direct Current en inglés) en relación con su origen en los sistemas analógicos. Al trabajar con señales digitales siempre es necesario analizar sus características para poder procesarlas o simplemente reproducirlas de manera adecuada. Se pueden conocer además de su duración, su comportamiento en amplitud, sus cualidades espectrales (componentes en frecuencia), su máxima amplitud en un momento determinado, si fue grabada de manera correcta, etc. A continuación se verán algunas de las técnicas fundamentales disponibles para obtener información sobre las señales digitales de audio.

6.2.1. Amplitud de pico máxima y mínima De una señal almacenada digitalmente se pueden determinar sus valores máximos y mínimos analizando una cantidad arbitraria de muestras. La amplitud pico es la muestra que contiene el mayor valor de amplitud de la serie, puede ser un valor único o que aparezca repetido en distintos momentos, pero siempre hace referencia al valor máximo que aparece dentro de la cantidad de muestras analizadas. Como la amplitud de la señal se mide desde su estado de reposo (0) hasta su punto máximo de elongación, ya sea positivo (1) o negativo (-1), para determinar la amplitud máxima se toma el valor absoluto de las muestras. La amplitud pico se puede expresar en dBfs o en amplitud normalizada. TEXTO APARTE

En el audio digital la amplitud máxima que puede tener una señal está definida por la resolución en bits en relación con la SQNR. Es por esta razón que en lugar de emplearse una escala en decibeles ascendente, como en el caso de los dBspl, se emplea una escala descendente que toma como valor de referencia la amplitud máxima que una sinusoide puede adquirir. 0 dBfs es el máximo valor de amplitud soportado por una resolución n de bits y a partir de este la amplitud puede descender hasta el piso de ruido del sistema (tantos dB como la SQNR lo permita). LEER CON ATENCIÓN

Matemáticamente es importante poder medir las señales periódicas de distintas maneras. Por ejemplo, además de la amplitud pico, dentro de un período se puede medir la amplitud de pico a pico, es decir, la distancia que hay entre el máximo valor positivo y el máximo valor negativo, también se puede medir la potencia según su media cuadrática (como se verá más adelante). Sin embargo, cuando se refiere a la amplitud de una señal acústica generalmente se está refiriendo a su amplitud pico.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

129

Analizar la amplitud máxima de una señal es útil para determinar su rango dinámico y poder ajustar proporcionalmente su amplitud. En audio digital, normalizar una señal de audio es un procedimiento que implica determinar la amplitud máxima de la señal y a partir de ella modificar proporcionalmente todos los valores de amplitud, ya sea para atenuar la señal o para amplificarla a un nivel determinado. Un caso particular de normalización, al que comúnmente se refiere simplemente como normalización, implica determinar la amplitud máxima para amplificar la señal al máximo posible sin que ninguna muestra quede fuera de rango. Sin embargo, se puede pretender normalizar distintas señales de audio a un valor de referencia arbitrario, el cual puede atenuar algunas señales y amplificar otras, para luego mezclarlas. Normalizar una señal no es más que escalar su amplitud, es decir, multiplicar la señal por una constante obtenida según el valor de amplitud pico. Para escalar una señal no es necesario determinar el valor máximo, se puede hacer empíricamente subiendo o bajando el volumen, pero normalizar una señal implica tomar un valor como referencia.

PARA REFLEXIONAR

En los archivos estéreo o multicanal se normaliza al mayor valor entre todos los canales para evitar que queden muestras fuera de rango. Si se tomara como referencia la amplitud máxima de un solo canal, la cual puede ser menor que en algún otro, al amplificar el resto de los canales podrían quedar muestras fuera de rango o, en el caso inverso, al atenuar el resto de los canales sus señales podrían quedar a cero o un

6.2.2. Muestras fuera de rango Cuando la amplitud de una señal muestreada excede los valores máximos que la resolución en bits puede representar, se produce el truncamiento de la señal. Las muestras que quedan fuera de rango pasan a tomar el valor máximo o mínimo. Esto hace que se pierda información que no es posible recuperar luego y, además, cambia las cualidades espectrales de la señal representada, generando distorsión. Temporalmente, la señal se ve con sus picos truncados todos al mismo nivel, espectralmente esta forma de onda genera componentes de ruido que no forman parte de la señal original. Una manera de detectar muestras fuera de rango es comprobar si existen muestras sucesivas iguales al límite de los valores representables. En un caso extremo como el de una sola muestra a máxima amplitud no es posible determinar si la señal fue truncada o si fue normalizada. Muchos editores de audio y software para síntesis de sonido representan los valores de amplitud en punto flotante con una resolución de 32 bits por razones de simplicidad y eficiencia. Con esta representación se pueden generar

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

130

valores que superen el rango -1, 1, pero luego, al exportar la señal en un formato estándar, las muestras que queden fuera de rango serán truncadas. Es posible, sin embargo, guardar los valores de amplitud con una resolución de 32 bits, pero en alguna etapa posterior, según el medio de reproducción usado, debe normalizarse la señal para que no se produzca el truncamiento.

6.2.3. Desviaciones del DC DC es el acrónimo en inglés de Direct Current que refiere al estado de reposo del sistema. En la representación digital de una señal de audio el DC equivale al silencio, es una señal constante de amplitud cero. Debido al mal funcionamiento de un micrófono, una placa de audio o como resultado del procesamiento de una señal, pueden producirse desviaciones del DC, llamadas en inglés DC offset o DC bias. Estas desviaciones hacen que toda la señal quede desplazada con respecto del cero. Las desviaciones del DC son indeseables por varias razones. Por un lado, acotan el rango dinámico posible de la señal, si quisiéramos normalizar una señal con DC offset los valores de amplitud pico registrados serían mayores a los de una señal sin corrimiento. Por otra parte, una señal desplazada del punto de reposo genera clicks al ser mezclada con otras señales o al comienzo de su reproducción. En cuanto al funcionamiento de los aparatos eléctricos, una señal con DC offset hace que el sistema no funcione dentro de sus valores de operación, lo que puede deteriorar el equipamiento o la calidad del audio. Espectralmente una señal con desviación del DC contiene energía en 0 Hz. Temporalmente esto se puede entender como si hubiera un movimiento oscilatorio de frecuencia cero. Incluso debido a oscilaciones de baja frecuencia (próximas a 0 Hz) se produce un desvío del DC que varía lentamente. Para determinar si una señal está “balanceada” respecto del DC, es decir que no hay desviaciones del DC, lo que se hace es tomar el valor promedio de todas las muestras analizadas, el cual debe ser igual (o muy próximo) a cero. Esto es porque los semiciclos de un movimiento oscilatorio cambian de signo al pasar por el estado de reposo. Debido a estas características, para eliminar las desviaciones del DC se pueden emplear dos métodos distintos según resulte más conveniente para el procesamiento. Si disponemos de la totalidad de la señal, se puede comprobar si la señal está balanceada obteniendo el promedio de sus valores de amplitud, si este difiere de cero, el valor obtenido se toma como la cantidad de desplazamiento con respecto al DC que debe ser restado a todos los valores de la señal. Otra manera de cancelar las desviaciones del DC, que es útil cuando se producen en partes de la señal, pero no en toda o si estamos procesando sonido en tiempo real, es emplear un filtro pasa altos que atenúe la energía presente cercana a los 0 Hz.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

131

6.2.4. Potencia RMS La amplitud promedio de una señal se mide como potencia RMS (por Root Mean Square en inglés). En castellano a esta medida se la denomina media cuadrática, sin embargo está muy difundido en ingeniería de sonido, como sucede con la mayoría de los términos que se vienen utilizando, el empleo de su denominación anglosajona. Su nombre es una síntesis de las operaciones matemáticas que se realizan para obtener dicho valor. Su traducción del inglés sería algo así como “raíz cuadrada del promedio de los cuadrados [de las amplitudes]”. La potencia RMS se emplea en matemáticas e ingeniería eléctrica para calcular la magnitud de un movimiento oscilatorio, el cual contiene tanto valores positivos como negativos. La potencia RMS es una medida estadística útil puesto que refleja de manera más homogénea la relación de energía entre distintas señales sin verse afectada por sus formas de onda particulares.

6.3. Análisis espectral de la señal digital Las señales digitales pueden ser representadas y analizadas espectralmente mediante un recurso matemático desarrollado por el físico-matemático Joseph Fourier en el siglo XIX. Este recurso, denominado matemáticamente transformada, se encarga de trocar la información espectral contenida en el dominio temporal al dominio de las frecuencias para obtener una mejor representación del aspecto analizado. Según el teorema de Fourier:

Toda función periódica de período P puede descomponerse en una suma de sinusoides armónicas, de amplitudes y fases adecuadas, cuyo primer armónico o fundamental posea período P. (Basso, 2001). El enunciado nos dice que si tomamos un ciclo de una señal periódica podemos obtener, mediante este procedimiento matemático, la amplitud y fase de cada uno de sus componentes, puesto que toda señal periódica puede ser entendida como un movimiento armónico complejo, es decir, la suma de infinitos movimientos sinusoidales en relación armónica. El primer valor es llamado frecuencia fundamental (o primer armónico) y las sucesivas frecuencias son llamadas parciales armónicos (frecuentemente llamados de manera indistinta como parciales o armónicos). La transformada de Fourier se encarga de realizar el procedimiento inverso. Dado un movimiento armónico complejo, nos dice cuáles son los componentes armónicos presentes y cuáles son sus amplitudes y fases.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

132

En los gráficos temporales (fila de arriba) los componentes armónicos se manifiestan en la forma de onda, la cual se vuelve más compleja a medida que se incrementa la cantidad de componentes. Sin embargo, es prácticamente imposible darse cuenta qué componentes están presentes y con qué amplitud. En los gráficos espectrales (fila de abajo), en cambio, se pueden apreciar claramente los componentes armónicos presentes y sus respectivas amplitudes.

LEER CON ATENCIÓN

En el gráfico temporal, el eje de las abscisas, que en matemática refiere al dominio de una función, representa el tiempo mientras que en el gráfico espectral el dominio pasa a ser la frecuencia de los componentes armónicos. El tiempo está ausente en el gráfico espectral puesto que representa el espectro contenido dentro de un período temporal.

La transformada de Fourier es una herramienta de análisis muy útil debido a que su forma de representar las cualidades internas de un sonido se relaciona de forma más directa con la manera en la que se percibe el sonido.

6.3.1. Transformada de Fourier discreta (DFT) e inversa (IDFT) Matemáticamente, la Transformada de Fourier es un proceso continuo, es decir, que está definido para todos los valores sin importar qué tan pequeños o grandes puedan ser, y se basa además en la idealización matemática de un movimiento armónico cuya duración es infinita. Sin embargo, las señales digitales son discretas por definición y, por lo tanto, no pueden representar infinitos

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

133

valores. Es por esto que en lugar de aplicarse la transformada continua se aplica la formulación matemática discreta del mismo proceso y pasa a llamarse en consecuencia Transformada Discreta de Fourier (DFT por sus siglas en inglés: Discrete Fourier Transform). La transformada es un proceso reversible, esto quiere decir que si la aplicamos a una forma de onda y obtenemos los datos espectrales, con base en estos podemos volver a reconstruir la forma de onda original sin perder información. Incluso es posible modificar el sonido empleando la representación espectral para luego reconstruirlo con estas modificaciones. Esto resulta útil para la construcción de ecualizadores gráficos (empleados para balancear espectralmente una señal), para filtrar o realzar componentes específicos del espectro o incluso para generar modificaciones espectrales que transformen las cualidades de la señal original en algo totalmente diferente.

6.3.2. Transformada de Fourier discreta rápida (FFT) e inversa (IFFT) La DFT es un proceso matemático relativamente sencillo pero que implica el empleo reiterado de operaciones simples y la manipulación de una gran cantidad de datos y, por lo tanto, requiere cierta cantidad de recursos computacionales. Para poder efectuar la DFT de forma prácticamente útil se desarrolló un algoritmo que reduce la capacidad de cómputo necesaria y posibilita su cálculo en menor tiempo. A este algoritmo se los denomina Transformada Rápida de Fourier (FFT por sus siglas en inglés: Fast Fourier Transform). Sin embargo, lo que se gana en eficiencia se pierde en precisión. Para que el algoritmo pueda procesar los datos de forma rápida es necesario restringir los valores posibles de ciertos parámetros. Al ser un algoritmo digital que emplea el sistema binario, los tamaños de las ventanas de análisis están restringidos a las potencias de base 2, es decir 21 = 2; 22 = 4; 23 = 8; 24 = 16; etc. Esto restringe a su vez las posibles frecuencias de análisis que además de afectar la precisión con la que se representa el espectro genera artefactos de análisis como se explica a continuación.

6.3.4. Parámetros básicos de la FFT Tanto la FT como la DFT son procedimientos matemáticos que están definidos de manera general (o podría decirse ideal), esto quiere decir que no están acotados temporalmente. Sin embargo, en la práctica es necesario adoptar límites temporales puesto que los sonidos que podemos percibir, grabar y manipular son finitos. Es por esto que para aplicar la DFT mediante el algoritmo FFT es necesario definir ciertos parámetros. El primer parámetro, que generalmente viene predefinido en la señal de audio

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

134

almacenada digitalmente, es la frecuencia de muestreo. A mayor frecuencia de muestreo vamos a obtener una mayor precisión temporal en general. El segundo parámetro que surge ya directamente en relación con el análisis de Fourier es el tamaño de la ventana de análisis. La ventana de análisis es un período temporal que se toma, en cantidad de muestras, de una porción de la señal a analizar. Se llama ventana por analogía al efecto visual que produce una ventana cuando se mira un paisaje desde dentro de una habitación, lo que podemos ver del horizonte está acotado a la imagen que podemos percibir a través de la pared. La relación entre la frecuencia de muestreo y el tamaño de la ventana de análisis determina otro parámetro que es la frecuencia de análisis. La frecuencia de análisis es la frecuencia fundamental de la serie armónica (también referida como serie de Fourier) y corresponde al recíproco del período definido por la ventana de análisis. Si W es la cantidad de muestras que toma la ventana de análisis y R es la frecuencia de muestreo entonces T = W/R es el período de la ventana de análisis en segundos. Como la frecuencia y el período son inversos, la frecuencia de análisis resultante es fa = 1/T. Si juntamos las operaciones en una sola ecuación y simplificamos nos queda fa = 1/T = 1 / (W/R) = R/W.

Por ejemplo, si tenemos una frecuencia de muestreo R = 44100 y una ventana de análisis de 512 muestras la frecuencia de análisis es 44100/512 = 86.1328125. Este valor a la vez será la resolución en frecuencia puesto que la serie de Fourier se incrementará en bandas que son múltiplos enteros de la frecuencia de análisis hasta la frecuencia de Nyquist. La cantidad de componentes parciales (bins en inglés) que se pueden analizar es la mitad del tamaño de la ventana de análisis. Por ejemplo, 512/2 = 256 que van desde los 0 Hz hasta la frecuencia de Nyquist (R/2). De cada bin se puede obtener tanto la amplitud como la fase aunque el valor que se usa para graficar el espectro es solo la amplitud.

PARA AMPLIAR

A cada parcial de la serie armónica la transformada de Fourier lo representa con un número imaginario del cual se puede obtener la amplitud, al calcular la magnitud del número, y la fase, al calcular el ángulo. Esto tiene sus fundamentos en las propiedades matemáticas del análisis de Fourier las cuales quedan fuera del alcance de este curso, si se desea ampliar sobre el tema se pueden consultar los libros de Moore (1990) y Basso (2001).

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

135

En el gráfico de la izquierda se muestra un período de un movimiento armónico complejo, compuesto de tres armónicos de amplitud decreciente (cada uno tiene la mitad de la amplitud del anterior), que dura exactamente 512 muestras con una frecuencia de muestreo de 44100 Hz. Esas 512 muestras son tomadas como la ventana de análisis de la FFT que da como resultado el gráfico de la derecha. Preste especial atención a la “dominio” que es diferente en ambos casos. En el gráfico de la izquierda se representa la amplitud en función del tiempo mientras que en el gráfico de la derecha se representa la amplitud en función de la frecuencia (el tiempo está ausente puesto que se representa el espectro contenido en las 512 muestras de la ventana). Este es un ejemplo elaborado especialmente para demostrar cómo se pasa de un dominio a otro, en la práctica es poco probable que los valores coincidan exactamente.

6.3.5. Resolución en frecuencia y resolución temporal Al incrementarse el tamaño de la ventana de análisis disminuye la frecuencia de análisis y, por lo tanto, la serie de Fourier crece a pasos más pequeños, siempre desde 0 Hz hasta la frecuencia de Nyquist. Esto produce una mayor resolución en frecuencia al costo de sacrificar la resolución temporal. Al ser más grande la ventana de análisis, el período de tiempo que pasa entre análisis consecutivos es mayor. Si por el contrario queremos una mayor resolución temporal, para poder ver como varía el espectro entre instantes pequeños, tendremos que achicar la ventana de análisis y perder resolución en frecuencia. Didácticamente, esto puede ser entendido de otra manera, como si el análisis de Fourier fuera el espectro promedio de una determinada cantidad de muestras. No obstante ello, como veremos más adelante, el análisis de Fourier presupone que la ventana de análisis es un período completo de un solo movimiento armónico. Al emplear la FFT, los límites en el tamaño de la ventana están definidos de manera práctica entre 8 y 32768 muestras (entre 23 y 215), siendo las ventanas más usadas las de 256, 512, 1024 y 2048 muestras, según se prefiera mayor resolución temporal o de bandas de frecuencia. Sin embargo,

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

136

la relación inversa entre resolución en frecuencia y resolución temporal es una característica intrínseca del análisis de Fourier que se explica mediante el principio de incertidumbre. Para ampliar véase Basso, 2001

6.3.6. Artefactos de análisis y ventanas de suavizamiento Como se dijo anteriormente, el análisis de Fourier presupone que la ventana de análisis es un período completo de un solo movimiento armónico. Esto implica que al analizar espectralmente fragmentos de señales complejas o que no coincidan con el período de análisis, los resultados no van a ser ideales. Por una parte, la energía de los componentes en frecuencia del fragmento analizado que no coincidan exactamente con la serie de Fourier definida por la ventana de análisis, será distribuida en las bandas laterales. Esto genera “ruido visual” en la representación espectral. Por la otra, al reconstruir la señal mediante al IFFT, la energía distribuida en las bandas reconstruye de manera precisa la forma de onda original.

Análisis espectral de una sinusoide de 440 Hz generada a una frecuencia de muestreo de 44100 Hz, la amplitud (eje de las ordenadas) está medida en decibeles. La ventana de análisis utilizada es de 512 muestras. Como la frecuencia de la sinusoide no es múltiplo de la frecuencia de análisis, la energía se distribuye en las bandas laterales. La frecuencia de análisis es de 86.1328125 Hz y el múltiplo más cercano es 430.6640625 Hz. Otro problema que surge al tomar arbitrariamente una parte de una señal para ser analizada es que se generan discontinuidades desde el punto de vista del análisis. Como la ventana de análisis entiende su contenido como si fuera un ciclo de una señal periódica, al recortar la señal mediante la ventana de análisis, el ciclo que se genera usualmente tiene un salto abrupto entre el final y el inicio que genera componentes espectrales agudos y ruido en el análisis.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

137

Para la transformada de Fourier es como si la información contenida en la ventana de análisis fuera un ciclo de una señal periódica y, por lo tanto, la señal que estaría analizando sería como la que se muestra. Las líneas punteadas delimitan la ventana de análisis que toma una cantidad de muestras que no coincide con el período de una señal sinusoidal. En la figura se repite la ventana de análisis cuatro veces para ilustrar la discontinuidad que se genera. Para solucionar el problema de la discontinuidad que se produce al recortar una señal se aplican ventanas de suavizamiento. Las ventanas de suavizamiento son envolventes dinámicas que multiplican la señal capturada por la ventana de análisis antes de ser analizada. Estas envolventes hacen que los valores de amplitud próximos al inicio y al final de la forma de onda analizada sean coincidentes o que no se produzcan saltos abruptos. Existen distintos tipos de ventanas de suavizamiento que hacen que disminuyan los artefactos de análisis de diversas maneras. Las más usadas se llaman Hanning, Hamming, Blackman y Blackman-Harris, en honor a sus creadores. También es común que los programas permitan usar una ventana de suavizamiento rectangular, lo que equivale a no usar ninguna ventana.

Distintas ventanas de suavizamiento de uso frecuente Las ventanas Hanning y Blackman hacen que las muestras iniciales de la señal analizada sean cero, aunque similares son funciones distintas que alteran sutilmente los resultados del análisis. La ventana Hamming, a diferencia de las anteriores, no hace que las muestras iniciales y finales lleguen a cero.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

138

LEER CON ATENCIÓN

En la práctica suele referirse a las ventanas de suavizamiento indistintamente como ventanas de análisis. Esto puede llevar a confusiones puesto que son dos conceptos distintos, la ventana de análisis es la cantidad de muestras que se toman para el análisis mientras que la ventana de suavizamiento es una función envolvente que se aplica al fragmento de la señal antes de ser analizado.

6.3.7. Análisis de espectros cambiantes mediante ventanas deslizantes Hasta ahora se ha visto el análisis espectral de pequeñas porciones de una señal. Si se quisiera analizar la evolución espectral de una señal de mayor duración sería necesario emplear sucesivas ventanas a medida que se avanza en la forma de onda. Se denomina a este recurso ventana deslizante y puede implementarse de varias maneras. La manera más sencilla sería yuxtaponer sucesivas ventanas y sobre la base de esto ir analizando los cambios de ventana en ventana. De esta forma, la resolución temporal del análisis de cambios espectrales está determinada por la duración de la ventana. Una técnica empleada para aumentar la resolución temporal sin disminuir el tamaño de la ventana es emplear ventanas solapadas, es decir, que la siguiente ventana de análisis se superponga con la ventana previa una cierta cantidad de tiempo. Esto hace que la duración del espectro “promedio” visualizado sea más pequeña y las muestras espectrales sucesivas estén más juntas. El solapamiento se mide como factor (porcentaje de ventana solapada) puesto que el tamaño de la ventana de análisis deslizante puede ser variado. Un porcentaje de solapamiento típico es el 75%, quiere decir que la siguiente ventana de análisis comienza luego de transcurrido un cuarto de la ventana anterior. Por ejemplo, si N es el tamaño de la ventana en muestras, la siguiente ventana de análisis comenzará N/4 muestras después. Para lograr resultados óptimos de análisis según la señal que se quiera analizar, es necesario realizar un compromiso entre el tamaño de la ventana de análisis y el factor de solapamiento. Ajustando adecuadamente estos parámetros se puede lograr una resolución aceptable tanto en tiempo como en frecuencia.

6.3.8. Gráficos de espectros Los datos obtenidos mediante el análisis espectral con ventana deslizante

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

139

se suelen representar gráficamente de dos maneras. Una forma es hacer un gráfico tridimensional, usualmente con el eje horizontal representando la frecuencia; el vertical, la amplitud; y el eje de profundidad, el tiempo. Otra forma de representar los datos es mediante el empleo de dos dimensiones espaciales, horizontal para el tiempo, vertical para las bandas espectrales y una tercera dimensión, que emplea una escala de colores o matices de grises, para representar la energía presente en cada banda. A este último tipo de representación se lo denomina espectrograma. Ambas representaciones tienen sus ventajas y desventajas, el gráfico tridimensional es más preciso si se quieren visualizar los datos como funciones pero requiere mayor capacidad gráfica. Este es, tal vez, el más adecuado para observar variaciones rápidas del espectro en una señal que representa un solo sonido. Es más fácil ver la amplitud de cada componente espectral con relación a los demás.

Gráfico tridimensional

En cambio, el espectrograma representa el espectro de una manera más tradicional en cuanto a la concepción de altura musical ya que muestra la frecuencia en función del tiempo. Esto hace que sea más fácil visualizar el recorrido de distintos componentes espectrales. Su principal desventaja es que, al emplear colores o matices para representar la amplitud, esta queda expresada con menor precisión.

Espectrograma

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

140

Referencias Bibliográficas Basso, G. (2001), Análisis Espectral: La transformada de Fourier en la Música.

Colección Universitaria. Ediciones Al Margen, Coeditor Editorial de la UNLP, La Plata.

Moore, F. (1990), Elements of Computer Music, Prentice-Hall, Nueva Jersey.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

141

7 Editores y multipistas de audio

Objetivos • Que el estudiante conozca las principales aplicaciones informáticas para el manejo de señales de audio digital. • Que el estudiante adquiera los conocimientos necesarios para seleccionar la aplicación óptima al momento de abordar un proyecto de audio digital. • Que el estudiante adquiera los conocimientos necesarios para iniciarse en el uso de aplicaciones dedicadas al audio digital.

7.1. Presentación Existen varias herramientas informáticas para operar con señales de audio en el dominio digital. Las dos principales categorías de software dedicado al sonido son: Editores de Audio y Multipistas. Hoy en día, esas categorías pueden resultar ambiguas en la práctica (ya que algunos programas cubren ambas), pero para fines didácticos será útil abordarlas de este modo. Esta categorización al protagonista de la misa. Inicialmente el software para trabajar con audio operaba sobre un único archivo a la vez. Posteriormente, mientras que el software precursor se continuaba mejorando, comenzó a desarrollarse otro tipo de software orientado a la grabación simultánea de varias fuentes sonoras al mismo tiempo, trasladando al ámbito digital la práctica de grabación en múltiples canales de audio que emplean los estudios profesionales con equipamiento analógico y heredando así la denominación de “multipista”. En conclusión, la diferencia fundamental entre ambas categorías es la posibilidad de trabajar con un único archivo de audio de manera exclusiva (Editores) o varios en simultáneo (Multipistas) y como consecuencia los diferentes tipos de operaciones posibles para cada caso.

Si el lector no posee una librería propia de archivos de audio, se le recomienda el sitio , desde el cual puede descargar archivos de audio de libre distribución para realizar prácticas de los temas abordados en esta unidad.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

142

7.2. Editores de audio Los editores de audio están desarrollados para operar sobre un único archivo, de uno o más canales. Este tipo de software se caracterizó inicialmente por ofrecer procesos de edición destructivos. Lo que significa que los procesos se realizan sobre los archivos de audio, destruyendo los viejos datos y reemplazándolos con los nuevos procesados. Este tratamiento se realiza en tiempo diferido: el usuario escucha el archivo de audio que desea procesar, define el proceso a realizar, el software procesa el archivo de audio y, una vez concluida la operación, el usuario puede escuchar la nueva versión del audio procesado. Otro modo de trabajo alternativo es el denominado en tiempo real. Mediante el proceso en tiempo real es posible modificar una señal de audio durante su reproducción; permitiendo así ajustar los parámetros de un proceso al mismo tiempo que se escuchan sus efectos sobre la señal de audio afectada. Si bien la modalidad de trabajar con procesos destructivos es otra de las características que inicialmente definieron la categoría editor de audio, en esta unidad solo se abordan las características generales del software y recién en la próxima unidad profundizaremos en los diferentes procesos que se pueden realizar a los archivos de audio. Con el fin de esclarecer los contenidos teóricos sobre esta categoría de software, se ejemplificará cada explicación a partir de Ocenaudio, editor de audio seleccionado para tal fin por ser de distribución libre y estar disponible para los tres principales sistemas operativos de la actualidad (Win / Mac / Linux).

Captura de pantalla del software Ocenaudio

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

143

Para descargar Ocenaudio visite .

7.2.1. El espacio de trabajo en los editores de audio Como la mayoría del software actual, los editores tienen una barra superior con el menú de herramientas. Allí la opción File > Open, que permite cargar un archivo de audio sobre el cual operar. En la actualidad, la mayoría de los editores pueden abrir una gran cantidad de formatos de audio. Entre ellos, los más usados son WAV, AIFF, MP3, etcétera.

Barra de menú

Debajo de esa barra superior, los editores suelen tener una barra de íconos con las herramientas comúnmente usadas y, en muchos casos, con los controles de reproducción del audio. Para visualizar la barra de controles de reproducción de Ocenaudio, acceder a la opción de menú: View > Show Toolbar.

Barra de controles de reproducción

En el espacio central de su ventana, encontramos el área de trabajo, zona en la que se visualizará la forma de onda del archivo de audio sobre el cual se trabaje. Otra de las partes importantes de la interfaz gráfica de los editores de audio, es el medidor de nivel de la señal de audio, ubicada en este caso en el lateral derecho (en otras aplicaciones se la puede llegar a encontrar al pie de la pantalla)

Área de trabajo y medidor de nivel de amplitud

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

144

7.2.2. Configuración de los dispositivos de audio Si la computadora en la cual se ejecuta el software tiene instalada solo una placa de audio, por lo general el editor no necesitará ninguna configuración especial, pero dado el caso en el que existe más de una placa de audio instalada, se deberá indicar cuál de ellas se utilizará para la reproducción y captura (grabación) de audio. En el caso de Ocenaudio, esa selección se realizará mediante la opción del menú Edit, luego Preferences; y en la ventana de preferencias, dentro de la sección General. La elección de la placa de sonido de reproducción de audio es en el menú desplegable Playback Device/Options y la de captura mediante el desplegable de Record Device/Options.

Ventana de configuración de dispositivos de audio

7.2.3. Vistas de forma de onda y de espectro: configuración y uso Como se mencionó anteriormente, en el área central del software podremos visualizar la forma de onda del archivo de audio activo. El eje horizontal es el correspondiente al tiempo y el vertical a la amplitud. Por defecto, el eje de tiempo suele estar medido en segundos, aunque puede ser cambiado por la unidad de muestras (u otras unidades). En Ocenaudio, ese cambio se puede realizar mediante la opción del menú View > Display time format > Samples. Respecto del eje vertical, la unidad por defecto suele ser en decibeles aunque también se puede representar la amplitud en valores porcentuales. En Ocenaudio, la unidad por defecto es el valor de la muestra, para cambiarla

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

145

se debe hacer mediante la opción del menú View > Vertical Scale Format > Decibeles.

Cursor de tiempo

Ubicada sobre la representación de la forma de onda del archivo de audio, existe una línea vertical llamada cursor. El cursor indica la actual posición temporal de trabajo sobre el archivo. Esto significa que si presionamos el botón de reproducción Play, el archivo de audio comenzará a ejecutarse desde esa posición

Botón de play

Inicialmente, al abrir un archivo de audio, el cursor estará ubicado al inicio del mismo. Haciendo clic sobre cualquier parte del archivo se podrá reasignar la posición del cursor. Esta será importante cuando se realicen procesos sobre el archivo de audio. Además de la posición de reproducción y de ser el punto de partida para los procesos que se verán más adelante, el cursor servirá como centro para la herramienta de zoom temporal.

Botón de zoom

Ocenaudio tiene un área llamada Navigator, que si bien es útil, no es habitual en el resto de los editores en plaza. Esta ofrece una visualización de la forma de onda total de archivo activo con la zona actual de trabajo, para así ofrecer una referencia contextual temporal cuando se esté trabajando con la herramienta de zoom.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

146

Señal de audio con vista aumentada por zoom, en la parte superior, el área Navigator

Otra opción común en la mayoría de los editores de audio, es la posibilidad de visualizar el espectro de la señal en vez de su forma de onda (Waveform). En el caso del Ocenaudio, esa posibilidad se habilita mediante la opción del menú: View > Spectral View. Además, este software permite también mostrar ambas visualizaciones en simultáneo, mediante la opción del menú View > Waveform & Spectral View.

Vista de forma de onda

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

147

Vista de espectro

Vista dual, Forma de onda + Espectro

Para la utilización de la vista espectral es importante configurar las opciones de análisis según las características del audio a representar (tener como referencia los contenidos abordados en la Unidad 5. Para ello se debe acceder a la configuración mediante la opción de menú: Edit > Preferences y luego ir a la sección Spectogram.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

148

Ventana de configuración de la vista espectral

7.2.4. Gestión de archivos de sonido Como se mencionó en el apartado 7.2.1, la barra de menú permite abrir archivos de audio. También desde allí, algunos editores, como es el caso de Ocenaudio, permiten generar una nueva copia de un archivo abierto, mediante la opción File> Duplicate. Una vez generada una copia de un archivo, es posible guardarla no solo con un nombre distinto, sino también con un formato de archivo diferente. Para eso, acceder a la opción File > Save o Save as. La ventana flotante que permite indicar la ruta y nombre del nuevo archivo, también permite elegir el nuevo formato. Generalmente, las opciones de ese listado varían según cada editor, pero siempre incluyen los principales formatos y extensiones, como WAV (PCM Linear), MP3 (MPEG Layer 3) y AIFF (Audio Interchange File Format), entre otros. En algunos editores, la ventana de diálogo para guardar archivos en diferentes formatos puede tener mayor cantidad de opciones de configuración. En particular, Ocenaudio, para acceder a mayores especificaciones de codificación del archivo de audio, ofrece la opción de menú File > Export.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

149

Ventana de exportación

7.2.5. Principales editores de audio comerciales y de dominio público A continuación, un listado de los principales editores de audio disponibles en plaza, con algunos breves comentarios sobre ellos.

Sony Sound Forge Originalmente desarrollado por la empresa Sonic Foundry y comprado por Sony en 2003, es uno de los que conserva su comportamiento tradicional de editor de audio, al mismo tiempo que mantiene una interfaz sobria (quizás la más simple de todas). Su distribución es de licencia propietaria y es desarrollado para los sistemas operativos Microsoft Windows y Apple MacOs.

Captura de pantalla de Sony Sound Forge

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

150

Adobe Audition Adobe Audition es la evolución de su antecesor Cool Edit desarrollado por la empresa Syntrillium Software, vendido en 2003 a la empresa Adobe, quien cambió el nombre por el actual. Este software presenta uno de los casos de mayor ambigüedad en cuanto a las categorías, ya que ofrece ambos modos de trabajo, como editor de audio y como multipista. Su distribución es de licencia propietaria y es desarrollado para los sistemas operativos Microsoft Windows y Apple MacOs.

Captura de pantalla de Adobe Audition

WaveLab Es el editor de audio desarrollado por la empresa Steinberg (propiedad de Yamaha, desde 2004), conocida por los populares Nuendo y Cubase, además de haber desarrollado el protocolo VST. Su editor, WaveLab, está en el mercado desde 1995 y ofrece una interfaz clásica, similar a la del Sound Forge, manteniendo en vigencia la categoría de editor de audio a pesar de ofrecer herramientas que permiten realizar montajes multipistas (pero sin la comodidad y fluidez de trabajo que ofrecen los multipistas). Su distribución es de licencia propietaria y es desarrollado para los sistemas operativos Microsoft Windows y Apple MacOs.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

151

Captura de pantalla de WaveLab

Audacity Es uno de los editores de audio más populares, por ser el de mejor solidez y con mayores prestaciones entre los distribuidos bajo licencia GNU, siendo el más usado en las distribuciones de Linux. Está disponible desde el año 2000 y es uno de los pocos cross-platform para los tres principales sistemas operativos (WIN, MAC y Linux). Lamentablemente, tanto su interfaz gráfica como su particular modo de operar no son amigables (user friendly), no obstante ofrece un gran potencial y la posibilidad de trabajar en un modo multipista.

Captura de pantalla de Audacity

Este software se distribuye gratuitamente para los tres principales sistemas operativosy se puede descargar del sitio .

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

152

Oceanaudio El software utilizado como referencia en esta unidad didáctica es un editor de audio de distribución gratuita, de reciente publicación y disponible para los tres principales sistemas operativos (WIN, MAC y Linux). Fue elegido para esta instancia por su interfaz simple y moderna, entre otras carcaterísticas.

Captura de pantalla de Ocenaudio

Ocenaudio se puede descargar del sitio .

7.3. Multipistas Como se aclaró anteriormente, el software multipista hereda su finalidad del equipamiento de los estudios de grabación. Por tal motivo, a la vez de servir de inspiración para su rótulo, también toma de su antecedente parte de la estructura funcional, su organización y estética. La amplia mayoría del software multpista recrea las herramientas de estudio incluyendo un área donde se administran los archivos de audio grabados, una etapa de procesos sobre esas grabaciones y una tercera etapa de mezcla (el mixer o mezclador). Otra de las particularidades de estas aplicaciones es que incorporan la articulación con el protocolo MIDI (del inglés, Musical Instrument Digital Interface, Interface Digital de Instrumental Musical). Aunque en esta unidad teórica no se tratará su uso, es pertinente señalar esta característica que ofrecen los multipistas; advirtiendo tan solo que dicho protocolo es empleado para la composición musical y la interconexión de cierto equipamiento dedicado.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

153

Para el desarrollo de estos contenidos sobre multipistas, se utilizará como modelo el software REAPER. Si bien este no ofrece una distribución libre, sí ofrece la posibilidad de uso gratuito, a modo de prueba, al mismo tiempo que presenta un potencial a nivel profesional, igual o superior a los estándares en plaza.

Para descargar este multipista visite .

7.3.1. Espacio de trabajo. Parte 1: General El espacio de trabajo en el software multipista no está tan estandarizado como en el caso de los editores. Los diferentes desarrolladores suelen variar el diseño y la distribución de las secciones de la interfaz, a pesar de que las herramientas disponibles suelen ser siempre las mismas. No obstante, en la mayoría de los casos, encontramos la clásica barra de menú en la parte superior. Debajo de ella suele haber una barra de íconos de herramientas, en la que se encuentran los controles de reproducción de audio (play, stop, etc.). En el caso de REAPER, los controles de reproducción están ubicados al pie del área principal de trabajo. Y en todos los casos, el área principal está destinada a la sección de pistas. Las pistas (o canales, según el software particular) son los espacios donde se alojarán las instancias (o clips) de los archivos de audio incorporados en el proyecto. El eje horizontal de esta sección representa el eje de tiempo y en la verticalidad se despliegan las diferentes pistas que permiten la simultaneidad temporal de diferentes señales de audio.

Captura de pantalla general del software multipista REAPER

7.3.2. Gestión de archivos de sonido, concepto de proyecto A diferencia de los editores, los multipistas trabajan a partir del concepto de proyecto. Un proyecto es una instancia de trabajo en la cual se define un lis-

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

154

tado de archivos de audio y un listado de operaciones realizadas sobre ellos. Toda esa información se almacena en los archivos de proyecto, también llamados sesiones, según el software multipista empleado. Estos archivos de proyecto no incluyen los archivos de audio utilizados, sino que hacen referencia a ellos en el lugar de la unidad de almacenamiento que estén ubicados al momento de agregarlos en el proyecto. Por eso, en algunos casos, los multipistas generan carpetas asociadas al proyecto para incluir allí una copia de los archivos empleados (o a las nuevas grabaciones de audio realizadas). REAPER, el multipista de referencia en esta unidad, no genera esas carpetas específicas con las copias de los archivos para cada proyecto, motivo por el cual se sugiere que el usuario la genere, y guarde en ella los archivos de audio que incluya en cada proyecto. Para insertar un archivo de audio en un proyecto nuevo, se debe acceder a la opción de menú Insert > Media File. Se aclara que los proyectos emplean instancias de los archivos de audio incluidos en ellos, ya que los multipistas no realizan procesos de audio destructivos sobre los archivos. Excepto en los casos específicos en los que se le indique al multipista que sí procese la instancia o clip de tal manera. En esos casos se generan nuevas copias de los archivos para aplicar los procesos de manera destructiva. A fines didácticos, no se profundizará en

En cambio, operan con referencias a ellos, las llamadas instancias, que funcionan como ventanas apuntando a una sección de los datos de los archivos almacenados en disco (o a su totalidad). En la captura a continuación se puede ver una pista de audio, donde se encuentran tres instancias de un mismo archivo. Estas instancias son idénticas en cuanto a la selección parcial del archivo original al cual hacen referencia pero cada una posicionada en un momento diferente en la línea de tiempo.

esos casos especiales.

Captura de software multipista con tres instancias de un mismo archivo de audio en una misma pista

En la parte superior de cada instancia se puede ver que el software indica el nombre del archivo al cual se apunta, en este caso: cymbal.wav. Sobre cada una de estas instancias es posible realizar procesos de manera no destructiva, los que serán aplicados sobre la señal de audio en tiempo real al momento que se reproduzca el audio del proyecto. A modo de ejemplo, en la captura a continuación, se presentan las mismas tres instancias de la captura anterior, pero en este caso con variaciones del nivel de la señal en cada una de ellas. Se insiste que estas variaciones, al no ser destructivas sino en tiempo real, no modifican el archivo original al que apuntan.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

155

Captura de software multipista con tres instancias de un mismo archivo de audio en una misma pista pero con diferentes niveles de intensidad

7.3.3. Espacio de trabajo. Parte 2: Pistas y Mezclador Además de los procesos individuales de cada instancia, los multipistas ofrecen la posibilidad de afectar en conjunto a todas las instancias incluidas en una única pista. Para esto, existen dos modos visualmente diferentes de modificar esos parámetros. Uno es mediante los controles desplegados a uno de los extremos de la pista, en el caso del REAPER en el extremo izquierdo (otros multipistas pueden tener estos controles en el lado derecho, como por ejemplo: Ableton Live).

Parámetros de control sobre procesos de una pista

Esos mismos parámetros de control allí presentes, también se pueden modificar desde el mezclador (o mixer) que todos los multipistas ofrecen. En las diferentes interfaces se puede ver el mezclador como una ventana flotante dentro de la ventana principal o bien, puede estar insertada de diferentes modos, como en el caso de REAPER que por defecto ubica el mezclador al pie de su ventana (ver captura de pantalla general en punto apartado 7.3.1. No obstante, este software también ofrece la posibilidad de visualizar el mezclador en una ventana flotante. Para acceder a esa modalidad, hacer click derecho sobre el mixer y tildar/destildar la opción “Dock Mixer in docker”.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

156

Ventana general de REAPER con el mezclador en modo de ventana flotante

Además de los procesos simples que se pueden aplicar a una pista, como el control de volumen, es posible emplear otros procesos más avanzados tanto desde el mezclador como desde los controles desplegados al lateral. Algunos de ellos serán tratados con profundidad en la Unidad 8. Por lo pronto, aquí se indicará solo la metodología que permita incorporar esos procesos en un proyecto. Para eso, se debe hacer clic sobre el botón de efectos, FX, disponible tanto en el módulo del lateral de la pista como en el correspondiente módulo de pista en el mezclador.

Botón de FX en módulo lateral de pista y en el mezclador

Este botón despliega una ventana flotante con el listado de procesos disponibles en el sistema. Una vez escogido el proceso deseado, presionar el botón Ok.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

157

Ventana emergente de selección de procesos para la cadena de cada pista

Luego de agregar el primer proceso, se visualiza otra ventana flotante, denominada sencillamente “FX”, en la que se encuentran todos los procesos que afectan al canal seleccionado. Cuando se utilizan varios procesos en simultáneo, en el orden secuencial que ofrece esta herramienta (uno a continuación del otro), se habla de Cadena de Efectos (FX Chain). Esa cadena es formada por todos los procesos que estén incorporados al canal seleccionado, listados en el lateral izquierdo de la ventana FX. En la parte inferior de ese lateral hay dos botones para añadir (Add) o eliminar (Remove) procesos de la cadena que afectan al canal.

La captura muestra la ventana flotante con una cadena de efectos de pista, en este caso los efectos de la cadena son tres: ReaEQ, ReaDelay y ReaVerbate.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

158

7.3.4. Configuración de los dispositivos de audio

Un driver, también conocido como Controlador de Dispositivo, es un programa utilizado como mediador entre un periférico específico y el sistema operativo. En la gran mayoría de los casos, son los fabricantes de periféricos quienes

Como para todo el software de audio, es importante definir la unidad de audio (placa de sonido) con la que trabajará el multipista para grabar y reproducir audio. Para esto, en REAPER se debe acceder a Options > Preferences, en el menú de la barra superior. Luego, en la ventana flotante, en el árbol del lateral izquierdo, buscar la opción Audio > Device. El campo Audio system define el tipo de driver a utilizar, según la placa de sonido que se desee utilizar con el multipista. En el entorno Windows se recomienda seleccionar el driver ASIO siempre que esté disponible para la unidad de audio a utilizar. Las demás opciones de configuración variarán según las características de cada unidad específica.

Ventana de configuración de dispositivos de audio

desarrollan y ofrecen al usuario los controladores específicos para que cada dispositivo pueda emplearse con los diferentes sistemas operativos.

7.3.5. Exportación del trabajo o Rendering Como se aclaró anteriormente, los trabajos realizados en multipistas, son denominados proyectos. Para extraer el resultado sonoro final realizado en un proyecto, es necesario un proceso de exportación, comúnmente llamado Rendering. Esto permite almacenar en un nuevo y único archivo de audio el resultado audible de un proyecto. Para esto, en REAPER se debe acceder a la opción del menú File > Render. Al desplegarse la ventana flotante se deben definir: - Tipo de exportación, Render. La opción Master Mix permite exportar en un único archivo correspondiente a la mezcla total, como se escucha al

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

159

reproducir el proyecto. - Sección a exportar, Render bounds. La opción Entire proyect permite exportar la totalidad de la duración del proyecto, otras opciones permiten exportar selecciones parciales. - Archivo de salida, Output. Se debe indicar el nombre (File name) y la ruta destino del archivo a generar (Directory). - Características del archivo de audio (Options). El proceso de exportación permite definir el formato del archivo de audio a generar, la frecuencia de sampleo (Samplig rate); la cantidad de canales de audio para archivos mono, estéreo o multicanal (Channels); Velocidad del proceso de exportación (Full-speed, es la configuración por defecto); Modo de trabajo del algoritmo de exportación (192pt - Slow como configuración por defecto); y opciones de agregado de Dither y Noise shaping. - Formato de Salida (Output format), generalmente WAV es el formato más utilizado y 16 bits la profundidad de bits (WAV bit depth) estándar según la calidad CD Audio.

Ventana de configuración de parámetros de exportación

Luego de definir las opciones, el botón Render 1 file permitirá iniciar el proceso de exportación.

Se recomienda consultar el manual de REAPER para ver los detalles de otros parámetros no detallados. El mismo se encuentra disponible para descarga libre en .

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

160

7.3.6. Principales multipistas de audio de dominio público y comerciales A continuación un listado de los principales multipistas de audio disponibles en plaza, con algunos breves comentarios sobre ellos.

Nuendo y Cubase Ambos software son muy similares y desarrollados por la empresa alemana Steinberg (subsidiaria de la compañía Yamaha desde 2004). La primera versión de Cubase data de 1989 y trabajaba solo con pistas MIDI en computadoras Atari. Años más tarde, en 1996, incorporó el uso del protocolo VST, marcando un estándar dentro del audio digital. Luego, la empresa comenzó a desarrollar la variante Nuendo, que ofrecía una alternativa muy similar pero con mayor cantidad de prestaciones específicas. La distribución de ambos es de licencia propietaria y están desarrollados para los sistemas operativos Microsoft Windows y Apple MacOs.

Captura de pantalla de Cubase

Pro Tools Desarrollado por la empresa estadounidense Avid/Digidesign, tuvo la particularidad de formar parte de un paquete de trabajo conjunto entre software y hardware diseñados específicamente para operar audio digital de manera exclusiva. Ese paquete logró imponerse como estándar en los estudios de grabación comerciales durante la segunda mitad de la década de 1990. Años después, la empresa abrió su exclusividad para permitir la compatibilidad con otras marcas. Su distribución es de licencia propietaria y es desarrollado para los sistemas operativos Microsoft Windows y Apple MacOs.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

161

Captura de pantalla de Pro Tools

Ableton Live Desde su nombre se puede deducir que está orientado al manejo de audio en tiempo real. Si bien ofrece todas las prestaciones de los softwares mutipistas, también brinda herramientas específicas para operar con loops, por lo que desde su desarrollo se evidencia su orientación hacia un tipo de uso específico. Es de origen alemán y su primera versión fue en 2001. Una de sus grandes desventajas es que no ofrece buses de audio muticanal (solo mono o estéreo).

Captura de pantalla de Ableton Live

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

162

REAPER Su nombre es el acrónimo formado a partir de la denominación en inglés: Rapid Environment for Audio Production, Engineering, and Recording. Este software se publicó en 2005 y ofrece una gran alternativa a los principales multipistas en plaza, por su potencial, versatilidad y bajo costo. Además, si bien su distribución es de licencia propietaria, ofrece la posibilidad de uso sin costo. Están disponibles las versiones para Microsoft Windows y Apple MacOs. Este software también puede ser ejecutado en Linux a través de Wine (modalidad de uso sugerida por su distribuidor).

Captura de pantalla de REAPER

Para la descarga gratuita de REAPER visite .

Ardour Siendo de distribución gratuita y Open Source es una alternativa destacada. En este caso solo está disponible para sistemas operativos unix-like (Mac y Linux). Una de sus principales desventajas es que no permite trabajar con videos en sincronía dentro de la sesión de mezcla.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

163

Captura de pantalla de Ardour

Para la descarga gratuita de Ardour visite .

Otras opciones de software multipista que cabe mencionar son: LogicPro, de la empresa Apple y disponible solo para MacOS; SONAR, de CakeWalk, Roland, disponible solo para Windows; Digital Performer desarrollado por la empresa Motu (Win y Mac); Studio One de Presonus (Win y Mac); y Sony Vegas Pro (software para edición de audio y video, solo para Windows).

1. Descargue el software empleado como modelo en esta unidad (el editor y el multipista), instálelos y configúrelos para poder reproducir audio adecuadamente.

2. Busque otras alternativas de software, instálelas, compare sus interfaces y funciones estructurales con las de los modelos utilizados en esta unidad. Presente un informe con las conclusiones de su relevamiento.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

164

Referencias Bibliográficas Bachmann, C., Heiko, B., Bröer, M., Pfeifer, S. (2008), Nuendo 4 Operation Manual [en línea]. En: Steinberg Media Technologies GmbH. Disponible en: [Consulta: 19/11/2013]. Francis, G. (2013), Up and Running: A REAPER User Guide v 4.52 [en línea]. En: Cockos Incorporated. Disponible en: . [Consulta: 19/11/2013]. Sony Creative Software Inc. (2009), Sound Forge Pro 10 User Manual [en línea]. En: Sony Creative Software Inc. Disponible en: . [Consulta: 19/11/2013].

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

165

8 Principios básicos de procesamiento de sonido digital Objetivos • Que el estudiante conozca los principales procesos para el manejo de señales de audio digital. • Que el estudiante adquiera los conocimientos necesarios para dominar las herramientas fundamentales de software destinado a operar audio digital.

8.1. Presentación En la Unidad 7, se ofreció una primera aproximación a dos de las principales categorías de software para el manejo de audio digital, editores y multipistas. En la presente unidad se tratarán varios de los procesos que esas categorías de software permiten realizar. La gran mayoría de estos procesos pueden ser realizados por ambas, sin embargo, dependiendo del caso, algunos procesos serán ejemplificados sobre editores y otros sobre multipistas; inclusive, algunos se detallarán para ambas opciones. Como modelo de editores de audio se tomará como referencia a Ocenaudio y Sound Forge Pro; y para los multipistas, REAPER.

Al igual que en la unidad anterior, si el lector no posee una librería propia de archivos de audio, se le recomienda el sitio , desde el cual puede descargar archivos de audio de libre distribución para realizar prácticas de los temas abordados.

8.2. Cambio de formatos y características de la señal digital En la Unidad 5 se exponen las características y parámetros de la señal digital, a continuación se detallará el modo en que las mismas pueden ser modificadas, alterando el formato de señales de audio digital.

8.2.1. Remuestreo y cambio de frecuencia de muestreo Existen dos procesos diferentes que se pueden realizar sobre la frecuencia de muestreo de una señal de audio, cada uno con resultados diferentes.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

166

Remuestreo Implica volver a realizar un nuevo proceso de muestreo (sampling o sampleo) de una señal de audio pero tomando las nuevas muestras a otra frecuencia de muestreo, diferente de la original. Para realizar una práctica de este proceso se recomienda abrir en el editor de audio un archivo cuya frecuencia de muestreo sea 44.100 hz. A modo de ejemplo, aquí se trabajará con una señal de audio de prueba, un barrido de frecuencias realizado por una señal sinusoidal, que nos permitirá ver información de audio en todo el espectro. En Ocenaudio, se accede al proceso de remuestreo mediante la opción de menú: Edit > Convert Sample Type.

Ventana de proceso de conversión de formato

La sección Channels de esta ventana será tratada más adelante en esta unidad.

Como primera prueba, se sugiere realizar el proceso hacia una frecuencia de muestreo mayor, en este caso, si tenemos una original de 44.100 hz, elegiremos 48.000 hz como nuevo valor. En las capturas a continuación podremos ver la señal original con límite de frecuencia superior en 22.050 hz. En la captura siguiente, la señal remuestreada expandió el límite de la frecuencia superior a 24.000 hz.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

167

Captura del espectro de un glissando generado por una onda senoidal desde 40 hz hasta 22.050 hz en una frecuencia de muestreo de 44.100 hz. La máxima frecuencia representada por la vista espectral es 22.050 hz.

Captura del espectro de un glissando generado por una onda senoidal desde 40 hz hasta 22.050 hz en una frecuencia de muestreo de 48.000 hz. La máxima frecuencia representada por la vista espectral es 24.000 hz.

Como este proceso es idéntico al que se realiza cuando se digitaliza una señal analógica, es importante tener en consideración el uso de un filtro antialias previo al remuestreo en el caso que la nueva frecuencia de muestreo sea inferior a la original (Ver Unidad 5). Según la información que ofrecen los desarrolladores de Ocenaudio (facilitada a través del contacto directo con los desarrolladores vía correo electrónico, ya que tal información aún no ha sido documentada públicamente), el proceso de remuestreo internamente aplica de manera automática un filtro antialias. No obstante, reconocen que el mismo filtro tiene ciertas limitaciones y no es óptimo para todo tipo de señales. Por tal motivo, en esta explicación, partiendo de la señal original en 44.100 hz, se le aplicará un filtro Pasa-bajo con límite en 11.025 hz para asegurar el

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

168

recorte espectral y luego remuestrearlo a un nuevo valor de sampling rate de 22.050 hz. Para acceder al filtro Pasa-bajos que ofrece Ocenaudio, utilizar la opción de menú: Effects > Filter > Lowpass Filter.

Captura de filtro Pasa-bajos (empelado como filtro antialias)

Luego de aplicar el filtro antialias, se puede procesar al remuestreo a 22.050 hz del mismo modo que al remuestrear a 48.000 hz. La dos capturas a continuación muestran la comparación del proceso de remuestreo recién desarrollado y el resultado del mismo si no es utilizado previamente un filtro antialias eficiente.

Captura de señal original con frecuencia de muestreo en 44.100 hz remuestreada a una frecuencia de muestreo de 22.050 hz con filtro antialias adicional.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

169

Captura de señal original con frecuencia de muestreo en 44.100 hz remuestreada a una frecuencia de muestreo de 22.050 hz sin un filtro antialias eficiente.

Cambio de frecuencia de muestreo El segundo proceso que se puede realizar sobre la frecuencia de muestreo es modificarla sin alterar los valores de las muestras, lo que sería un comportamiento similar a variar la velocidad de lectura de un tocadiscos o al de la reproducción de una cinta magnetofónica. Al modificar solo la indicación de velocidad de lectura de muestras de un archivo de audio digital, la misma información será reproducida más rápida o lentamente. Como consecuencia de ese proceso, variará la duración de la señal de audio y su espectro de la siguiente manera: Si la velocidad de muestreo es mayor, las mismas muestras se leen más rápido, la duración de la señal de audio es menor y el espectro es más agudo; si la velocidad de muestreo es menor, las muestras se leen más lentamente, la duración de la señal de audio es mayor y el espectro es más grave. Para realizar este proceso en Ocenaudio, se debe acceder a la opción de menú Edit > Adjust Sample Rate.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

170

Captura de la ventana de Ajuste de Sample Rate

Los ejemplos que siguen muestran una señal de audio cuya frecuencia original es de 44.100 hz y luego es cambiada a 22.050 hz. Señal de audio original, SR: 44.100 hz Señal de audio con cambio de frecuencia de muestro menor, SR: 22.050 hz

8.2.2. Cambio de resolución en bits Este proceso de recuantización suele realizarse para: • Reducir el espacio de almacenamiento de una señal (entendiendo que una menor resolución en bits representa menor cantidad de datos). • Masterizar un archivo de audio en alta resolución en bits para ser incluido en un CD Audio (profesionalmente, en la actualidad, se emplean archivos con 24 bits resolución, los CD Audio están estandarizados con una resolución de 16 bits). • Homogeneizar una colección de archivos de diferentes fuentes (en algunos proyectos de audio digital es necesario operar con archivos de igual formato, por lo que suele ser necesario ajustar la resolución en bits de archivos diferentes). Para realizar este proceso en Ocenaudio, se debe acceder a la opción de menú Effects > Specials > Apply Quantization y allí elegir la resolución y el método deseado.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

171

Captura del proceso de cambio de resolución en bits

Como se estudió en Unidad 5, para enmascarar el error de cuantización se utiliza una técnica llamada Dithering, que consiste en sumar una porción leve de ruido blanco a la señal digital. Para aplicar este proceso en Ocenaudio, se debe acceder a la opción de menú Effects > Specials > Add Random Noise. Este proceso permite, además, elegir el tipo de ruido y la intensidad con la que se lo agrega a la señal.

Captura de pantalla del proceso Dithering

8.2.3. Cambio de canales Según los mismos criterios por los cuales se utiliza el proceso de cambio de resolución en bits, también puede cambiarse la cantidad de canales de una señal de audio. Para realizar esto en Ocenaudio, se debe acceder a la misma opción de menú utilizada para remuestrear la señal, Edit > Convert Sample Type, pero en este caso se deberá utilizar la sección del lateral derecho, Channels, que permite convertir señales de audio mono en estéreo y viceversa, permitiendo también controlar la relación de mezclas de amplitud entre ambos canales en el caso de convertir una señal estéreo en mono. Otros editores ofrecen mayores posibilidades para trabajar con formatos de archivos para sistemas de espacialización de más de dos canales.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

172

Captura de la ventana flotante del proceso de cambio de canales (configuración en el lateral derecho de la ventana).

8.3. Procesos simples A diferencia de los anteriores, los procesos que se tratarán a continuación no operan sobre el formato de la señal de audio sino sobre su contenido. Si bien estos son procesos simples, suelen estar presentes en todo proyecto de audio digital, cualquiera sea su complejidad. Varios de estos procesos son de uso frecuente tanto en editores como en multipistas, motivo por el cual se los desarrollará para ambas alternativas.

8.3.1. Procesos simples en editores de audio Los procesos a continuación no son exclusivos de los editores de audio y suelen estar disponibles en los multipistas, pero dependiendo del tipo de proyecto (o la etapa del mismo) en que se trabaje, suele resultar conveniente utilizar un editor para realizarlos. Al mismo tiempo que, con fines didácticos, es deseable comenzar a estudiar estas herramientas en un entorno simple como el que ofrecen los editores.

Edición y mezcla Los procesos de edición y mezcla operan sobre el contenido secuencial o temporal de un señal. Son las operaciones que no son exclusivas de lo sonoro y que comúnmente son realizadas en casi todos los ámbitos de la informática, conocidas como: Copiar, Cortar y Pegar. En el audio digital y específicamente en editores, la opción Pegar presenta la variante de mezcla ya que permite pegar un elemento cortado sobre otro, posibilitando la coexistencia de ambos en el resultado final.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

173

Copiar / Cortar Para copiar o cortar una señal de audio, primero se debe seleccionar. En Ocenaudio, si se desea seleccionar la totalidad de la señal de audio, se puede utilizar la opción de menú Edit > Select All. Para selecciones parciales, se debe posicionar el cursor en el punto inicial o final de la sección con la que se desea operar, haciendo clic con el puntero sobre la forma de onda; y luego, manteniendo presionado el clic del puntero, deslizarlo hasta el otro extremo (final o inicial) de la sección que se desea seleccionar. Una vez seleccionada la señal de audio, se puede ajustar o modificar la misma con los controles que aparecen en los extremos de la selección, en la parte inferior de la forma de onda.

Captura de pantalla de Ocenaudio donde se pueden ver los punteros de selección.

Finalmente, realizando clic derecho sobre la selección, se puede elegir entre las operaciones copiar o cortar. Cabe aclarar que la diferencia entre ambas es que la primera, copiar, almacena en memoria temporaria una copia de la selección, sin alterar la continuidad de la señal, manteniendo intacta su evolución temporal. A diferencia del proceso de cortar que, además de alojar en memoria la sección de audio seleccionada, extrae la misma de la señal de audio, omitiendo esa sección y como consecuencia, reduciendo en tiempo la totalidad de la señal original.

Pegar El proceso de pegar consiste en insertar la señal de audio alojada en memoria (a partir de un proceso previo de copiado o cortado) en la posición que se encuentre el cursor. Esa inserción puede ser de dos modos diferentes: • Pegar (simple): el simple proceso de pegar inserta el audio en memoria a partir de la posición en la que se encuentra el cursor y desplaza en el tiempo la parte de la señal original que continuaba a esa posición. Para realizarlo se debe acceder a la opción de menú Edit > Paste (o clic derecho, Paste).

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

174

En el video se puede ver claramente cómo el proceso de Pegar simple interrumpe la continuidad de la señal de audio en el punto de inserción (posición del cursor). Referencias: clic Izquierdo = Asterisco Rojo / Clic Derecho = Asterisco Azul. • Pegar Especial (mezcla): el pegado especial, en cambio, permite superponer el audio alojado en memoria a la señal original, en la posición del cursor. Para esto es necesario indicar el nivel con el cual se suma (mezcla) la señal en memoria. Primero se debe seleccionar una fracción de la señal de audio en la que se desea pegar la señal en memoria, siendo importante el momento de inicio de la selección, pero sin importar la extensión de la misma. El punto de inicio de la selección será el punto en el cual se insertará el inicio de la señal en memoria. Luego, se accederá a la opción de menú Edit > Paste Special. En la ventana flotante se permitirá controlar el nivel de la mezcla de las señales.

En el video se puede ver claramente cómo el proceso de Pegar Especial no interrumpe la continuidad de la señal de audio sino que se superpone.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

175

Escalamiento de amplitud Mas allá de controlar el nivel de una señal en el momento de ser mezclada con otra (como se acaba de desarrollar en el punto anterior) pueden existir diferentes motivos por los cuales se desee modificar el nivel de una señal de audio. Para realizar este simple proceso, luego de seleccionar la región que se pretende afectar, se debe acceder a la opción de menú Effects > Amplitude > Gain.

Ventana del proceso de escalamiento de amplitud

Una modificación de la amplitud comúnmente utilizada es la que se realiza de manera no uniforme, en constante variación y es denominada de tipo Fade (fundido), con sus variantes Fade In (fundido de entrada) y Fade Out (fundido de salida o desvanecimiento). Para realizarlos en Ocenaudio, utilizar la opción de menú Effects > Amplitude > Fade In o Fade Out.

En el video se puede ver cómo aplicar un efecto de Fade In y Fade Out a una señal de ruido blanco.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

176

Normalización Este es un proceso utilizado para incrementar el nivel de una señal hasta el máximo posible según un umbral a definir por el usuario. Internamente, puede ser visto como definido por dos etapas. La primera, de análisis de la señal, muestra a muestra, para determinar el pico con mayor amplitud. Luego, una vez obtenido ese valor, se escala (amplía o atenúa) toda la señal, uniformemente, de manera que el valor pico alcance el umbral definido y el resto de la señal se altera proporcionalmente a ese pico. Algunos editores de audio, como el Ocenaudio, utilizan el umbral definido de manera fija, en 0 db. Para utilizar, ir a la opción de menú Effects > Normalize.

Modificaciones de frecuencia y duración Otro de los procesos simples comúnmente utilizados es el que altera el espectro de una señal de audio transportando todos sus componentes según un índice indicado por el usuario (por lo general en semitonos), denominado Pitch Shift (Variación de Altura o Tono). De esta manera, se puede obtener una versión más grave o más aguda de un mismo sonido. Cabe aclarar que los algoritmos implementados para este proceso, por su modo de operar, suelen tener efectos indeseados con algunas alteraciones tímbricas secundarias, que se potencian cuanto mayor sea el índice de transposición (ascendente o descendente). Al mismo tiempo, existen dos modalidades para este tipo de proceso: uno es el que solo realiza la transposición sin modificar la duración de la señal de audio; y el otro, justamente, el que extiende o comprime la duración de la señal, de manera proporcional al índice de transposición (imitando el comportamiento de sistemas analógicos, como se explicó en Cambio de frecuencia de muestreo). Cabe aclara que cuando se realiza una transposición ascendente de una señal de audio, existe la posibilidad de que sus componentes espectrales superen el límite de la frecuencia de Nyquist; por tal motivo, este proceso debe estar acompañado de un filtro anti alias. De manera similar a este proceso llamado Pitch Shift, existe un proceso que altera solo la duración de la señal, pero sin alterar su espectro y se lo denomina Time Stretch (Ajuste de Tiempo). En este caso los efectos indeseados en el espectro de la señal son aún más notorios.

Para referencias sobre Teorema de Nyquist ver Unidad 5.

Lamentablemente, la versión actual de Ocenaudio no ofrece la posibilidad de realizar estos procesos. Por tal motivo, se ejemplificará utilizando Sound Forge Pro, el editor de audio de la empresa Sony. Para el proceso de Pitch Shift, se debe acceder a la opción de menú: Effects > Pitch > Shift. La ventana flotante permite ajustar la desviación de altura en Semitonos, ascendentes (valores positivos) o descendentes (valores negativos). Además, ofrece una segunda instancia de ajuste en unidades de Cents. El proceso también permite un control de precisión para el algoritmo, mediante el parámetro Accuracy, con tres niveles posibles (de 1 a 3, de mayor

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

177

a menor). Cuando la variación de altura es ascendente, el proceso habilita la opción de activar un filtro anti alias, según preferencia del usuario. Otro de los parámetros de control ofrecidos es la posibilidad de conservar la duración de la señal original o de alterarla proporcionalmente a la variación de altura.

Ventana del proceso Pitch Shift en el editor Sound Forge Pro

A continuación se compara una señal de audio en su versión original y diferentes variaciones de altura, con o sin variación de duración.

Señal de audio original

Variación de altura descendente con variación de duración

Variación de altura descendente sin variación de duración

Variación de altura ascendente con variación de duración

Variación de altura ascendente sin variación de duración

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

178

Por otro lado, para realizar el proceso de Time Stretch (el que solo modifica la duración de una señal de audio sin alterar su altura) se debe acceder a la opción de menú Process > Time > Time Stretch.

Captura del proceso Time Stretch en Sound Forge Pro

El único parámetro de control de este proceso es el que define la nueva duración de la señal en valor porcentual, también representado en formato de tiempo.

A continuación se compara una señal de audio en su versión original y diferentes variaciones de duración.

Ejemplo de señal de audio de referencia

Señal de referencia procesada con Time Stretch, obteniendo una compresión temporal Señal de referencia procesada con Time Stretch, obteniendo una expansión temporal

8.3.2. Procesos simples en multipistas de audio Como se señaló en el apartado 8.3.1., los procesos simples pueden ser realizados tanto en editores como en multipistas. A continuación, se detallarán los de uso más frecuente en multipistas, con algunas variantes propias de estos entornos.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

179

Edición y mezcla

Véase apartado 7.3.

Ya vimos que los procesos elementales de la edición (copiar, cortar y pegar) son comunes a la mayoría del software actual, más allá de los dedicados propiamente al audio digital. La diferencia entre realizar estos procesos en un editor de audio y un multipistas radica en la particularidad de los segundos de trabajar con instancias de señales de audio, en vez de operar directamente sobre ellas. Al mismo tiempo, esta modalidad de trabajo ofrece otras particularidades ampliando las posibilidades de edición. Para operar con una instancia de una señal de audio en una pista es importante tener en cuenta la opción de Snap (encaje). Que fuerza la posición temporal de las instancias a valores de tiempo fijos. Con el fin deshabilitar ese ajuste en REAPER, se debe presionar el botón que tiene como ícono una imagen de un imán.

Estudiamos, además, que las instancias son como ventanas que apuntan a una señal original. Estas ventanas pueden cambiar sus dimensiones permitiendo mostrar la totalidad o una sección de la señal a la que apuntan. Para eso, se puede redimensionar una instancia, simplemente desplazando sus límites laterales. Si los límites se expanden, excediendo así la duración total de la señal apuntada, el multipistas ofrece la repetición de la misma señal, repetidas veces a modo de loop (bucle), hacia ambos extremos.

En el video se puede ver cómo se redimensiona una instancia. Cada instancia puede ser seleccionada, copiada y pegada cuantas veces se desee, en una misma o en diferentes pistas. El concepto de pegado especial que se utiliza para mezclar en un editor de audio, aquí queda obsoleto a partir de la articulación con pistas, empleadas justamente con ese fin: el de permitir superposiciones temporales de diferentes señales de audio.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

180

En el video se puede ver cómo se copia una instancia, luego se pega la copia en dos momentos y pistas diferentes y, finalmente, se redimensionan y superponen las copias temporalmente.

Escalamiento de amplitud Como se expuso en la Unidad 7, los multipistas ofrecen varias opciones para operar sobre la amplitud. Los dos modos principales son los que trabajan sobre la instancia o sobre la pista. - Escalamiento de amplitud de instancia

Para modificar la amplitud de toda una instancia, simplemente se debe posicionar el puntero del mouse sobre el límite superior de la misma y este se convertirá en una flecha de doble punta que permitirá controlar la amplitud. Otras opciones frecuentes para afectar la amplitud de instancias, son las envolventes de Fade In y Fade Out. Para esto se debe posicionar el puntero del mouse en los ángulos superiores derecho e izquierdo, y este cambiará por un ícono que refiere al proceso de Fade.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

181

Este video permite ver cómo se escala la amplitud general de una instancia y, posteriormente, se agregan fundidos de entrada y salida. - Escalamiento de amplitud de pista

Tal como vimos en la Unidad 7, el nivel de intensidad de una pista puede ser controlado desde el módulo lateral de la misma o desde el mezclador. Al mismo tiempo, los multipistas ofrecen la opción de trabajar con envolventes, las que permiten operar de manera dinámica sobre los parámetros de control de todos los procesos aplicados a una pista. Esto significa que, por ejemplo, se puede generar un registro de variación temporal del nivel de intensidad de una pista. Estas evoluciones dinámicas representadas por envolventes, se visualizan en la parte inferior de cada pista, siendo el margen superior correspondiente al máximo valor posible del parámetro que la envolvete controle; y el inferior, el mínimo valor. Para poder activar cada una de las envolventes, en REAPER se debe hacer clic en el ícono de envolvente del módulo lateral de pista. Las imágenes a continuación describen el proceso para habilitar las envolventes, ejemplificando con la de amplitud.

La captura muestra el puntero del mouse sobre el botón que permite habilitar las envolventes de cada pista.

Al pulsar el botón de envolvente aparece una ventana flotante que permite habilitar las envolventes para controlar cada uno de los parámetros de la pista. Al tildar la opción Volume, luego de cerrar la ventana se visualizará la envolvente de amplitud de la pista.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

182

Esta última captura, muestra la envolvente de amplitud de pista 1.

Para operar con las envolventes se utilizan nodos o puntos de inflexión donde se articulan los cambios de valores. Para agregar cada punto de inflexión se debe presionar la tecla shift al mismo tiempo que se realiza clic sobre la envolvente. En el siguiente video se muestra cómo editar una envolvente de amplitud.

El video muestra cómo editar una envolvente de amplitud de una pista.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

183

8.4. Filtros digitales Los filtros pueden ser vistos como procesos que modifican, de alguna manera útil, el espectro de la señal que se les entrega, alterando la amplitud de determinados componentes de la señal de entrada. Existen diferentes maneras de categorizarlos: por el modo de control sobre sus configuraciones o por el modo en que afectan al espectro.

8.4.1. Respuestas de frecuencia usuales Dependiendo del modo de operación, los filtros afectan de manera específica a una o varias zonas determinadas del espectro. El resultado de la implementación de filtros mediante algoritmos difiere del comportamiento ideal que se pretendería. Por el modo de realización de estos procesos no es posible cortar el espectro en secciones delimitadas de manera estricta. En cambio, a partir de una frecuencia de corte, las componentes superiores o inferiores (dependiendo del caso) son atenuadas paulatinamente hasta alcanzar la eliminación completa. Ese comportamiento suele ser un parámetro de control de los filtros, comúnmente referido con el término en inglés: Roll-off. El grado de profundidad de esa curva de atenuación se mide en cantidad de decibeles por octava (logarítmico) o decibeles por década (lineal). A continuación, los diversos filtros empleados para afectar las diferentes zonas del espectro.

Pasa-ba jos Este tipo de filtros se define por tener una frecuencia de corte a partir de la cual los componentes espectrales de la señal de entrada que están por debajo de ella no son alterados. En cambio, los superiores, sí serán filtrados y estarán ausentes en la señal de salida. Para utilizar este filtro en Ocenaudio, acceder a la opción de menú Effects > Filter > Lowpass Filter.

Captura de la ventana flotante para el control de Filtro Pasa-bajos

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

184

Para ejemplificar los efectos de los diferentes filtros se partirá de una señal de ruido blanco y se le aplicará cada filtro para ver cómo varía su espectro luego del proceso. Esta captura permite ver el efecto de un Filtro Pasa-bajos con frecuencia de corte en 10 khz. Con una curva de atenuación de 80 db/década.

Pasa-altos Similar al Pasa-bajos, pero en este caso, a partir de la frecuencia de corte se mantienen intactas las componentes superiores a ese umbral y se atenúan las inferiores. Para utilizar este filtro en Ocenaudio, acceder a la opción de menú Effects > Filter > Highpass Filter.

Captura de la ventana flotante para el control de Filtro Pasa-altos

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

185

Esta captura permite ver el efecto de un Filtro Pasa-altos con frecuencia de corte en 10 khz y una curva de atenuación de 80 db/ 10khz, aplicado sobre una señal de ruido blanco.

Pasa-banda Este tipo de filtro permite mantener intacta una zona del espectro definida a partir de dos frecuencias de corte, la superior y la inferior. El resto del espectro que no quede comprendido dentro de esos umbrales será filtrado. También existe una posible configuración de este filtro que no define las frecuencias extremas, sino solo la central y los extremos son calculados a partir de un segundo parámetro denominado ancho de banda. Para utilizar este filtro en Ocenaudio, acceder a la opción de menú Effects > Filter > Bandpass Filter.

Captura de la ventana flotante para el control de Filtro Pasa-banda

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

186

Esta captura permite ver el efecto de un Filtro Pasa-banda con frecuencia de corte inferior en 4 khz, frecuencia de corte superior en 10 khz y una curva de atenuación de 80 db/ 10khz, aplicado sobre una señal de ruido blanco.

Rechaza-banda Esta posibilidad es similar a la anterior, pero con un comportamiento inverso, ya que la zona que se atenúa es la comprendida entre las dos frecuencias de corte que el usuario defina; el resto del espectro se mantendrá intacto. Para utilizar este filtro en Ocenaudio, acceder a la opción de menú Effects > Filter > Bandstop Filter.

Captura de la ventana flotante para el control de Filtro Rechaza-banda

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

187

Esta captura permite ver el efecto de un Filtro Rechaza-banda con frecuencia de corte inferior en 4 khz, frecuencia de corte superior en 10 khz y una curva de atenuación de 80 db/ 10khz, aplicado sobre una señal de ruido blanco.

Otros: Peine y Pasa-todo El filtro Peine (Comb) puede ser visto como la simultaneidad de varios filtros Pasa-banda cuyas frecuencias centrales tienen una relación numérica constante y definida por el usuario. Lamentablemente, la versión actual de Ocenaudio no ofrece este tipo de filtro, por lo que a continuación se incluye un esquema de su respuesta en frecuencia tipo.

La imagen muestra un esquema de la respuesta de frecuencia de un Filtro-Peine tipo.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

188

Como bien señala Di Liscia (2004), puede llamar la atención la presencia de un filtro que se denomine Pasa-todo (All-Pass) y que dicho filtro tenga, efectivamente, una respuesta de frecuencia. A pesar de tener un comportamiento que estrictamente no modifique el espectro de una señal, por su construcción, estos filtros afectan la fase de la señal que procesan y, por tal motivo, se los suele emplear en codificadores y decodificadores para radio y cine. Otro de los casos en que se utilizan filtros Pasa-todo es en la construcción de reverberadores. Al tener usos tan específicos, no se encuentra este tipo de filtro como proceso individual para ser aplicado a una señal de audio por los software de uso frecuente; más allá de la posibilidad de que los algoritmos de algunos procesos específicos incluyan internamente filtros Pasa-todo.

8.4.2. Tipos característicos A la hora de implementar filtros, suelen utilizarse los comúnmente denominados ecualizadores, que son simplemente un conjunto de filtros diseñados para operar en simultáneo sobre una única señal. Según su diseño, se los divide en dos categorías: gráficos y paramétricos.

Gráficos Los ecualizadores gráficos son un banco de filtros Pasa-banda, en los que cada banda está definida para una única frecuencia fija y con un ancho de banda también fijo. Las bandas están distribuidas de manera que abarquen todo el espectro. La característica principal de estos ecualizadores es la cantidad de bandas y los hay con diferentes cantidades, comúnmente de 11, 25 o 31 bandas. Para su uso, el usuario solo puede modificar la amplitud de cada banda, con valores positivos para enfatizarla o negativos para atenuarla. Además, en algunos casos, suelen tener un control general de ganancia, para poder mantener un esquema de filtrado y variar el grado de incidencia total del filtro sobre la señal a procesar. Ocenaudio ofrece dos opciones de ecualizadores, uno de 11 y otro de 31 bandas. Para acceder a ellos se debe utilizar la opción de menú Effects > Equalization > 11-Band Graphic Equalizer o 31-Band Graphic Equalizer.

Captura de la ventana flotante para el control del Ecualizador de 31 bandas con una configuración arbitraria.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

189

Esta captura permite ver el efecto de un Ecualizador de 31 bandas, según la configuración de la imagen anterior, aplicado sobre una señal de ruido blanco.

Paramétricos A diferencia de los gráficos, los paramétricos permiten el control de todos los parámetros de cada uno de los filtros: amplitud, frecuencia central y ancho de banda. En este tipo de filtros es común encontrar el control de ancho de banda, mediante un parámetros denominado “Q”. El factor Q permite controlar de manera simultánea el ancho de banda y la curva de atenuación del filtro (Roll-Off). En el ámbito del audio digital, es habitual encontrar la alternativa de ecualizador paragráfico, cuyo comportamiento es igual al paramétrico, pero con el adicional de incluir una representación gráfica de cada banda, y su ubicación en el espectro, variable según los parámetros de control definidos.

Véase Unidad 7.

Técnicas de sonido digital

Para ejemplificar este proceso se tomará a REAPER como modelo. Con el fin de utilizar un ecualizador en este multipista se debe acceder a la cadena de efectos de un canal, mediante la ventana FX y agregar el proceso ReaEQ. Este es un ecualizador paragráfico que, como tal, permite la interacción con el usuario mediante dos modos de control, tanto sobre el gráfico o sobre los parámetros numéricos.

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

190

En el video se puede ver el funcionamiento y el modo de operación de un Ecualizador Paragráfico aplicado sobre una señal de ruido blanco.

8.4.3. Aplicaciones Como señala Izhaki (2008), en la era temprana de la telefonía sucedía el siguiente problema: las altas frecuencias se perdían en el extenso tendido de cables y este hecho tenía consecuencias en la inteligibilidad de las palabras en la recepción. Entonces, en los Laboratorios Bell se diseñó un circuito eléctrico para realzar la zona del espectro afectada del lado del receptor; de este modo lograron que la señal sea igual en ambos lados de la línea y así nació el nombre ecualizador, del inglés equalizer (igualador). Como se comentó anteriormente, la ecualización es el proceso de modificar las componentes espectrales de una señal mediante filtros. Su empleo en mezclas de audio puede ser con diferentes fines, entre ellos, los tres básicos son: • Buscar claridad y definición en un sonido determinado. • Enfatizar cierta zona espectral débil, buscando compensar deficiencias de la técnica de grabación o, simplemente, desnaturalizar una señal según el criterio estético de la mezcla. • Limitar el espectro de una señal para lograr una mejor convivencia con otras que coexistan simultáneamente en una mezcla. El tercer uso suele ser casi indispensable a la hora de combinar en una mezcla sonidos grabados en diferentes espacios acústicos, diferentes sistemas de monitoreo o diferentes condiciones de grabación en general (siempre y cuando se busque obtener unidad en la mezcla). Por otro lado, cabe señalar que dependiendo del criterio de mezcla, en algunos casos se utiliza la ecua-

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

191

lización de manera extrema modificando los sonidos artificialmente, sin que eso logre quitarle realismo al resultado del conjunto. Dicho en otras palabras, sonidos individuales pueden parecer tener cualidad espectrales artificiales, pero en la combinación con otros pueden llegar a lograr una paisaje natural, quedando enmascarada esa aparente artificialidad. A la hora de operar con ecualizadores, se suele considerar el espectro en cinco (o seis) zonas o bandas principales, a saber: PARA REFLEXIONAR

La terminología y las zonas espectrales no están estandarizadas y pueden variar sutilmente según diferentes criterios personales.

Sub-Low: es la zona del espectro entre 60 hz y el límite inferior del sistema de trabajo. Esta zona se “siente” más que lo que se puede escuchar. Es utilizada para efectos de sonidos puntuales, y debe ser utilizada con cautela ya que mucha energía en esta zona le quita inteligibilidad a la mezcla total. Esta banda es la asociada al “.1” de los sistemas multicanal (5.1, 7.1, etc). En esos casos, la zona espectral está asignada al canal LFE (Low Frecuency Effects) y está extendida hasta 120 hz. Bajos: es la banda comprendida entre 60 y 250 hz. Al igual que la zona de Sub-Low debe ser trabajada con cautela por el mismo motivo, afectar la inteligibilidad. Medios-Bajos: normalmente entre 250 y 2000 hz, aunque su límite superior puede variar. En este punto es importante aclarar que la zona de división entre las próximas dos bandas puede variar según el autor. Medios-Altos: entre 2 khz y 4 khz, es la zona sensible para el reconocimiento y claridad de la palabra (la voz). Atenuar la energía de todos los sonidos de la mezcla aproximadamente en los 3khz y enfatizar al mismo tiempo esa zona en las pistas de las voces puede hacer más audible la voz sin necesidad de atenuar el nivel de los primeros. Altas Frecuencias: suelen ser consideradas a partir de los medios-altos hasta el límite superior del sistema y, a veces, se las subdivide en dos: • Agudos (o Presencia): de 4 khz a 6khz. Variar la energía en esta zona puede generar una sensación de acercamiento o alejamiento de la fuente. • Sobre Agudos (o Brillo): de 6 khz hacia el límite superior del sistema.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

192

TEXTO APARTE

Si bien existe gran cantidad de presets para usos frecuentes de ecualizadores, no existen recetas o verdades absolutas para operarlos. Esos presets pueden servir de referencia o punto de partida, pero la decisión del ajuste final dependerá de cada señal sonora en particular, ya que todas tienen un comportamiento único y determinado, definido a partir de todos los factores que varían en su creación o registro. Por todo esto, la única clave para ecualizar de manera efectiva es la escucha atenta y la operación con criterio. Consejos: - A la hora de ecualizar y mezclar en general, es importante y necesario utilizar un buen sistema de monitoreo de respuesta plana para no condicionar el balance espectral según una curva determinada. - Se recomienda mezclar con un nivel que no sea demasiado fuerte ni demasiado bajo, eso es claramente evidente a partir de los estudios sobre percepción sonora y las curvas de Fletcher-Munson (véase Unidad 2). - Siempre es recomendable atenuar antes que enfatizar. Esto se debe a la construcción de los filtros y el modo en que alteran la fase de las señales. Es por este motivo, también, que se recomienda hacer uso pero no abuso de ecualizaciones.

8.5. Reverberación y espacialización En el ámbito del sonido digital, comúnmente se suele operar con sistemas de amplificación estéreo, además de los sistemas multicanales para cine u otras configuraciones especiales en eventos como conciertos o instancias artísticas específicas. Estos sistemas, articulados con los procesos a desarrollar a continuación, son los que posibilitan diferentes espacios virtuales en lo cuales operar sobre la locación del sonido. Como se estudió en Unidad 3, la cualidad espacial del sonido se relaciona con varios atributos. De ellos, aquí se profundizará sobre la locación y el entorno. En cuanto a la localización, la dirección estará abordada mediante Panorámicos de intensidad, y la distancia mediante los indicios de distancia. Por su parte, el entorno será abordado mediante el proceso de Reverberación y Líneas de Retardo.

Técnicas de sonido digital

Aclaración: Todos estos procesos serán tratados tomando como modelo el sistema de amplificación estéreo.

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

193

8.5.1. Indicios de distancia De acuerdo con Di Liscia (2004), debido a la absorción de los gases del aire, los componentes de altas frecuencias de la señal acústica resultan fuertemente atenuados por efecto de la distancia a la que se encuentra la fuente sonora del oyente. Por tal motivo, usualmente se emplea un filtro Pasa-bajos atenuando las altas frecuencias para controlar la distancia virtual de una señal de audio, variando la frecuencia de corte y el nivel de atenuación. Para utilizar filtros Pasa-bajos en REAPER, se sugiere emplear el ecualizador paragráfico explicado anteriormente.

8.5.2. Reverberadores El proceso de reverberación permite agregarle a una señal de audio las características de un recinto determinado. Dependiendo del algoritmo específico utilizado por cada desarrollador, los parámetros de control pueden variar ligeramente. Esos parámetros son lo que definen las características acústicas del recinto y el modo de incidencia del mismo sobre la señal a procesar, lo que ejemplificaremos según los parámetros de control que ofrece el proceso de reverberación de REAPER. Anteriormente, se explicó cómo incluir un proceso en la cadena de efectos; del mismo modo se hace para utilizar un reverberador, en este caso se tomará como modelo el llamado Rea Verbate. A continuación un listado de sus parámetros de control: • Room size (Tamaño de recinto): define el tamaño del recinto cuya reverberación natural se recrea. • Dampening (Absorción): suaviza la incidencia de la reverberación simulando el efecto que producen materiales con diferentes coeficientes de absorción que pudieran existir en el recinto emulado, como pueden ser cortinas, alfombras, etcétera. • Stereo Width (Apertura Stereo): este parámetro permite controlar al grado de apertura de la imagen estéreo. • Initial Delay (Retardo Inicial): permite controlar un tiempo de retardo inicial para demorar el efecto de reverberación. Valores elevados de retardo permiten generar una sensación de un espacio de mayores dimensiones. • Lowpass (Pasa-bajos) y Highpass (Pasa-altos): filtros para reducir el espectro de la señal que será afectada por el proceso. • Wet (procesado) y Dry (sin procesar): estos dos controles permiten nivelar la relación entre la señal procesada y la original sin procesar.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

194

La captura de pantalla muestra la ventana flotante del procesador de reverberancia de REAPER.

8.5.3. Líneas de retardo Más allá del diseño de algoritmos empleados en el desarrollo de reverberadores, el concepto de reverberación está definido por la suma de las reflexiones que se generan en un recinto determinado. Es por eso que determinados espacios puede ser emulados a partir de la suma de unas pocas líneas de retardo (en inglés: tap). Una línea de retardo es el proceso de copiar la señal original y emitirla nuevamente, luego de una determinada cantidad de tiempo. Como se señaló recientemente, la combinación de varias líneas de retardo puede generar ciertos tipos de efecto de reverberación. Al mismo tiempo, dependiendo de las dimensiones y características acústicas de un espacio, el sonido reflejado puede demorar un tiempo considerable, de modo tal que el oyente pueda distinguir con claridad la emisión original del sonido y el sonido reflejado posteriormente. Cuando las reflexiones generan este fenómeno ya no se considera a ese efecto como una reverberación sino como un eco (en inglés: echo). El proceso que permite operar con líneas de retardo en REAPER se denomina Rea Delay. Su configuración por defecto ofrece solo una línea de retardo. Más líneas de retardo pueden ser agregadas mediante el botón ubicado en la parte inferior (Add Tap). Cada nueva línea de retardo puede ser configurada de manera independiente y ser visualizadas mediante solapas numeradas, dentro de la misma ventana. A continuación el listado de los parámetros de control de este procesador. • Length time/musical (Duración tiempo/musical): ambos parámetros permiten controlar la duración del retardo en unidades de medición diferentes, una en milisegundos y la otra en unidades de 1/8 de nota (fusa) según la indicación de tempo del proyecto. Si se utilizan ambos en simultáneo, el tiempo total de retardo será la suma de ambos.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

195

• Feedback (Retroalimentación): este parámetro permite controlar el nivel de reinserción de la señal de salida, nuevamente, a la entrada del proceso. • Lowpass filter (Filtro Pasa-bajos) y Highpass filter (Filtro Pasa-altos): filtros para reducir el espectro de la señal que será afectada por el proceso. • Resolution (Resolución): este parámetro afecta la resolución en bits de cada retardo, mediante bajos valores permite generar efectos de distorsión. • Stereo Width (Apertura Stereo): este parámetro permite controlar al grado de apertura de la imagen estéreo. • Volume (Volumen): permite controlar el nivel individual de cada línea de retardo (tap). • Pan (sin etiquetar): control panorámico de intensidad individual de cada línea de retardo (tap). • Wet (procesado) y Dry (sin procesar): estos dos controles son generales de todo el procesador y permiten nivelar la relación entre la señal procesada y la original sin procesar.

La captura de pantalla muestra la ventana flotante del procesador de líneas de retardo de REAPER.

1. Elija un archivo de audio, en formato WAV, 44.100 hz, 16 bits, mediante un editor de audio conviértalo a diferentes formatos y documente los pasos realizados en cada caso. Entendemos por diferentes formatos no solo la conversión a MP3, AIFF, etc., sino también la modificación de la frecuencia de muestreo y la resolución en bits para archivos WAV. Cantidad sugerida de nuevos archivos: 10.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

196

2. Realice una búsqueda on line de una grabación de un texto recitado u otro tipo de situación que contenga solo una voz hablada con un contenido rico en palabras. Luego trabaje esa grabación en un multipistas, generando un nuevo discurso y aplicando la mayor cantidad posible de los procesos desarrollados en esta unidad.

Referencias Bibliográficas Bachmann, C., Heiko, B., Bröer, M., Pfeifer, S. (2008), Nuendo 4 Operation Manual [en línea]. En: Steinberg Media Technologies GmbH. Disponible en: [Consulta: 19/11/2013]. Di Liscia, P. (2004), Generación y procesamiento de sonido y música a través del programa Csound, Editorial Universidad Nacional de Quilmes, Bernal. Francis, G. (2013), Up and Running: A REAPER User Guide v 4.52 [en línea]. En: Cockos Incorporated. Disponible en: . [Consulta: 19/11/2013]. ------------------- (2012), “The REAPER Cockos Effects Summary Guide” [en línea]. En: Cockos Incorporated. Disponible en: . [Consulta: 19/11/2013]. Izhaki, R. (2008), Mixing Audio-Concepts Practices and Tools, Focal Press. Sony Creative Software Inc. (2009), Sound Forge Pro 10 User Manual [en línea]. En: Sony Creative Software Inc. Disponible en: . [Consulta: 19/11/2013].

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

197

9 Producción de sonomontajes

Objetivos • Que el estudiante aborde los principios básicos de producción de sonomontajes. • Que el estudiante comprenda la aplicación de los principales criterios de organización sonora. • Que el estudiante integre los conocimientos adquiridos en la realización de sonomontajes.

9.1. Introducción En esta unidad nos centraremos en integrar los conocimientos desarrollados en la materia, con el objeto de abordar los principios básicos de producción de sonomontajes y criterios de organización sonora.

El sonomontaje es un sistema de organización sonora basado en la relación par-par entre dos o más sonidos, a partir del criterio de analogía acústica. El sonomontaje pertenece, junto con la música y la ambientación, al grupo de mensajes acústicos intencionales no verbales que el hombre produce. (Saitta, 2002). El sonomontaje tiene su origen con la aparición de los medios de grabación sonora, especialmente a partir de la segunda mitad del siglo XX. El registro de audio, su posterior procesamiento, edición y mezcla, posibilitaron técnicamente la organización del material sonoro. De esta manera, el sonomontaje se consolida como una de las técnicas de producción sonora-musical más utilizadas de nuestra época.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

198

PARA AMPLIAR

Pierre Schaeffer, ingeniero y compositor francés, se dedicó a estudiar las nuevas posibilidades narrativo-sonoras que brindaron las técnicas de grabación y reproducción de sonido. Es considerado el padre de la Música Concreta, que parte de la idea de expandir las posibilidades de expresión musical, incorporando los sonidos concretos del mundo real, experimentar con ellos e incluirlos en una composición musical. En su libro Tratado de los objetos musicales (1966, primera edición en castellano 1988), expone toda su teoría sobre organización sonora y este tipo de música.

9.2. Material sonoro La materia prima para la producción de sonomontajes son todos los sonidos que puedan ser grabados. Para organizar un relato sonoro es necesario poder tipificar y clasificar la materia sonora, de manera tal que nos permita aplicar criterios de relación entre dos o más sonidos. Cabe aclarar que la clasificación propuesta no es la única posible y es factible trabajar con tipificaciones más simples o complejas.

9.2.1. Tipos de fuente sonora Una primera discriminación del total sonoro es clasificar los sonidos según el tipo de fuente que los produce (Saitta, 2002): • • • •

Sonidos Sonidos Sonidos Sonidos

de la naturaleza del habla musicales de artefactos

Los sonidos de la naturaleza constituyen todos aquellos en los que el hombre no interviene en su producción. En este grupo incluimos los sonidos de los animales o fenómenos naturales, viento, lluvia, etcétera. Los sonidos del habla, son considerados un grupo en sí mismo, debido a su importancia comunicacional. Generalmente portan mensajes lingüísticos. Los sonidos musicales son todos los generados por instrumentos musicales. Los sonidos de artefactos son todos los generados por distintas fuentes fabricadas por el hombre.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

199

9.2.2. Nivel de información sonora Según Saitta (2002), los sonidos portan diferentes niveles de información sonora que son determinantes en la comunicación.

Nivel semántico Este nivel de información corresponde al poder evocador que predomina en muchos sonidos. Este poder es dependiente de la experiencia auditiva previa del receptor y permite dar cuenta de la relación causa-efecto de la que el sonido forma parte.

Tomemos como ejemplo el sonido de unos pasos. Cuando escuchamos el sonido y no vemos la acción que lo genera, en primer lugar, identificamos la fuente sonora: una persona moviéndose. Luego, basándonos en diferentes cualidades sonoras podemos inferir el tipo de acción, una persona caminando y la velocidad con la que camina. También podemos reconocer, apreciando el balance espectral del sonido, el tipo de calzado (tacos altos, bajos, suela de goma, etc.) y el tipo de piso (madera, cemento, etc.). La información espacial del sonido y su evolución dinámica nos permite evaluar si la persona se acerca o aleja y si se encuentra en un espacio abierto o cerrado, etcétera.

El nivel semántico de la información sonora puede ser enorme y para receptores con entrenamiento auditivo se podría realizar una tipificación muy detallada. Sin embargo, para la producción de sonomontajes, nos alcanza la siguiente clasificación, basada en el grado de poder evocador del sonido: • Poder evocador alto • Poder evocador medio • Poder evocador bajo Esta clasificación es claramente subjetiva, ya que está directamente relacionada con la experiencia auditiva previa del receptor, pero al ser tan simple (alta, media, baja) probablemente funcione razonablemente bien para integrantes de un mismo grupo social. Se podría decir que las secuencias sonoras que utilizan sonidos con alto poder evocativo propician un tipo de escucha denominada causal, Shaeffer (1988).

Nivel acústico Este nivel de información es determinante del nivel semántico y se corresponde con las características y estructura interna del sonido.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

200

Utilizaremos la siguiente clasificación, basada en el trabajo realizado en la Unidad 3:

En las unidades 1 y 2 se desarrollaron los principios básicos de

• Cualidad espectral - Armónica - Inarmónica - Ruido - Variable

la acústica y percepción sonora, y en la Unidad 3, las características perceptivas del timbre. Para obtener detalles sobre esta clasificación, se recomienda volver a la Unidad 3 donde se encuentran los

• Cualidad de superficie - Lisa - Rugosa - Variada

ejemplos correspondientes.

• Envolvente dinámica - Percusiva - ADSR - Fade in - Fade out Se podría decir que las secuencias sonoras que utilizan sonidos con bajo poder evocativo propician un tipo de escucha denominada reducida, Shaeffer (1988).

9.2.3. Cuadro tipológico del material sonoro La clasificación del material sonoro, abordada en esta unidad, nos permite organizar un cuadro de doble entrada con el que podemos clasificar la materia prima a utilizar en un sonomontaje. Este cuadro, facilita encontrar rápidamente, relaciones de semejanza o desigualdad, en una o varias de las dimensiones de la clasificación.

Nivel de información sonora

Fade out

Fade in

ADSR

Percusiva

Variada

Rugoso

Liso

Ruido

Variable

Armónico

Inarmónico

Bajo

Medio

Alto

Artefactos

Habla

Musicales

Naturaleza

Sonido Tipos de Semántico Acústico Nº fuente sonora Poder Cualidad Cualidad de Envolvente evocador espectral superficie dinámica

1 2 3 4 5 etc.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

201

9.3. Tipos de sonomontajes Basándonos en la clasificación de Saitta (2002), podemos catalogar a los sonomontajes según el tipo de información y de materiales sonoros con los que son realizados. En esta clasificación, encontramos tres categorías: • Sonomontajes narrativos • Sonomontajes poéticos o abstractos • Sonomontajes poético-narrativos

9.3.1. Sonomontajes narrativos Están construidos con materiales sonoros de alto poder evocativo. Son “relatos sonoros” en los que se pueden evocar las acciones involucradas en la producción sonora y, generalmente, se puede inferir una construcción de sentido o línea argumental extrasonora.

En el sonomontaje narrativo que se presenta, el relato sonoro desarrolla una escena, en la que unos aviones con motor a hélice realizan un bombardeo. Se percibe la destrucción y el caos en el que queda el objetivo del ataque. Todos los materiales utilizados provienen de librerías de sonidos (se desarrollará más adelante).

9.3.2. Sonomontajes poéticos o abstractos Están construidos con materiales de bajo poder evocativo. Son construcciones sonoras generalmente abstractas, autosuficientes, con una organización más cercana a la musical.

Extracto de la obra Juego de Orquesta, de Mariano Cura. Todos los materiales del sonomontaje provienen de voces y de instrumentos orquestales. Los mismos están procesados de manera tal que no se reconozcan las fuentes sonoras que los producen, de acuerdo con el tipo de organización abstracta del montaje.

9.3.3. Sonomontajes poético-narrativos Están construidos tanto con materiales de alto como de medio y bajo poder evocativo. Esta categoría reúne los casos en que las necesidades expresivas necesitan puntos intermedios entre los dos primeros tipos.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

202

Glosa Nº4 de la obra Figuración de Gabino Betinotti, textos de Oscar Steimberg, sonorización Oscar Pablo Di Liscia, editada por BAU Records. El texto recitado describe una ficción de evolución del tango basada en hechos y personajes reales. Al estrato del texto recitado, se le suma otro estrato que está construido por medio del montaje de ruidos de púa de discos de vinilo. Dichos sonidos evocan el pasado y, asimismo, sus posteriores transformaciones a través de filtros resonantes en sonidos de altura definida, simbolizan un proceso de evolución. La secuencia resultante es irregular, pero producida por la superposición desfasada de secuencias regulares.

9.4. Elaboración de guiones sonoros El guión sonoro es un texto en que se exponen todos los detalles necesarios para la realización del sonomontaje, y que nos permite organizar el relato sonoro y su posterior producción y realización. Podemos comenzar con una segmentación temporal similar a la que se realiza en las obras de teatro y organizar el guión en escenas o secciones. Para facilitar la realización del sonomontaje es recomendable pensar en secciones cortas. En analogía con el guión teatral, tendríamos varias secciones en el marco de una escena. En cada una de ellas describiremos la información que nos permitirá posteriormente organizar la producción del sonomontaje. La información puede ser descripta en los siguientes niveles: • • • •

Descripción de la sección Tipo de acción Tipo de espacio sonoro Materiales sonoros intervinientes

Pensemos en un posible guión para un sonomontaje narrativo en el que una persona está durmiendo, suena la alarma y se despierta, se cambia y sale de la habitación. Una posible versión del guión sonoro es la siguiente:

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

203

Sección

Descripción de la sección

Tipo de acción

Tipo de espacio sonoro

Materiales sonoros intervinientes

Nº1 Personaje Habitación durmiendo tranquila

- personaje durmiendo - segundero reloj despertador

Nº2 Personaje - Suena Habitación se despierta despertador tranquila - Personaje apaga despertador

- personaje durmiendo - suena el despertador - movimiento de sábanas - personaje apaga despertador

Nº3 Personaje - personaje Habitación se incorpora se incorpora tranquila y - personaje se pone calzado y posible bata za

- movimiento de sábanas - personaje toma algo de ropa - personaje se pone ropa - personaje se cal-

Nº4 Personaje - personaje Habitación sale de la atraviesa la tranquila habitación habitación, abre la ne puerta, sale abre y la cierra

- personaje caminando velocidad baja - personaje se detie- puerta que se - pasos que atraviesan puer-

Cabe aclarar que este tipo de guión es solo una de las posibles formas de organizar la producción de sonomontajes. Cada realizador puede optar por guiones más simples o con más cantidad de detalles que los propuestos. Lo importante es que el realizador adapte la herramienta a su forma de producción de manera que resulte ágil y útil.

9.5. Obtención y preprocesamiento de materiales sonoros Generalmente, para poder obtener los materiales sonoros, es necesario realizar las grabaciones de todos los sonidos que se utilizarán en el sonomontaje. Para encarar esta tarea es recomendable contar previamente con el guión sonoro, de manera tal que podamos evaluar cuáles son los sonidos necesarios para la realización. Con esta información, podemos comenzar a organizar la grabación. Primeramente, nos concentramos en conseguir las fuentes sonoras necesarias y los espacios físicos intervinientes en donde realizaremos las grabaciones. Luego, realizaremos las grabaciones necesarias, siempre cuidando la calidad del registro sonoro. Los alcances de esta unidad no contemplan las técnicas de grabación, pero se recomienda prestar especial atención en no distorsio-

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

204

nar la señal al grabar, cuidar que el nivel del ruido ambiente y del sistema de grabación sea bajo, y tratar de utilizar equipamiento de buena calidad para lograr los mejores resultados. Una vez realizadas las grabaciones, y con la ayuda de un editor de audio, nos concentraremos en preparar el material para el sonomontaje. Esta tarea puede resultar tediosa pero nos facilitará el trabajo de la producción. En esta etapa nos dedicaremos a descartar todos aquellos materiales que no reúnan las condiciones de calidad deseada para el trabajo (tomas que puedan tener ruido, que no expresen el criterio deseado, etc.). Después, fragmentaremos las tomas en archivos de sonido más pequeños de acuerdo con el tipo de unidad de sentido deseada (sonidos individuales o grupos de sonidos). Finalmente, nombraremos y clasificaremos los archivos de manera tal que sea fácil identificar qué tipo de material sonoro contienen. Otra forma de encarar el problema de obtener los materiales sonoros es la utilización de librerias de sonidos. La industria audiovisual ha desarrollado extensamente este campo y podemos encontrar gran cantidad de librerías de sonidos como fuente de materia prima.

La mayoría de las librerías de sonido profesionales son comerciales y es necesario comprarlas para poder utilizarlas. Podemos encontrar en la web librerías de sonido de uso libre, se recomienda visitar la siguiente página en la que se puede acceder a gran cantidad de sonidos que pueden ser utilizados sin problemas legales en la realización de sonomontajes. http://www.freesound.org/

9.6. Producción de secuencias sonoras Contando con el guión y el material sonoro preparado y clasificado, nos resta producir el montaje. En las unidades 7 y 8 se abordó el uso de editores y multipistas de audio, por lo que en esta unidad no desarrollaremos los aspectos técnicos de las herramientas tecnológicas y nos concentraremos en la organización del montaje. Cabe aclarar que para realizar un montaje sonoro es recomendable utilizar un multipista de audio y dejar el editor para operaciones específicas, que no se encuentran en los multipistas. Una primera aproximación es comenzar a incorporar al montaje, sección por sección, los sonidos individuales, de acuerdo con los detalles estipulados en el guión sonoro. Podemos ver que la organización de los materiales utilizados depende de su sucesión temporal y de la superposición de los mismos en varios estratos, que pueden ser sincrónicos o no. Con la información del guión y de manera intuitiva se puede llegar a organizar exitosamente un sonomontaje, pero es recomendable contar con criterios básicos de relación entre los materiales sonoros.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

205

9.6.1. Criterios de enlace Para construir el sonomontaje, necesitamos relacionar los diferentes materiales sonoros. Para lograrlo, nos podemos ayudar con el cuadro tipológico. Comparando dos o más sonidos, podemos encontrar rasgos comunes que nos permitan aplicar criterios de enlace, basados en la similitud-disimilitud de uno o varios de los parámetros sonoros.

PARA AMPLIAR

Se pueden relacionar fácilmente sonidos, aplicando criterios de analogías entre sí. Por ejemplo, relacionando sonidos con el mismo tipo de envolvente dinámica y distinta cualidad espectral y de superficie, o mismo tipo de fuente sonora y cualidad espectral, etc. También es posible plantear contrastes, buscando sonidos con diferente poder evocador y tipo de fuente. Otra opción es la de organizar una transición desde un tipo de sonido a otro. Por ejemplo: sonido armónico liso > sonido armónico rugoso > sonido inarmónico rugoso > sonido inarmónico variable > ruido, etcétera.

9.6.2. Recursos de articulación Cuando hablamos de articulación, hacemos referencia a la manera en que un sonido se relaciona temporalmente con otro. En la Unidad 4 se definieron dos tipos básicos de articulación: discontinua y continua. Es conveniente, sin embargo, distinguir dos subtipos de articulación continua. • Articulación discontinua - Los sonidos están separados por silencios. • Articulación continua - Yuxtaposición. Los sonidos se suceden sin silencios entre ellos, conformando un campo continuo. - Solapamiento. El nuevo sonido comienza antes de la extinción del anterior, como resultado queda un lapso de superposición entre ambos. Un caso particular es el del fade cruzado.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

206

9.6.3. Organización temporal El sonido y el sonomontaje evolucionan en el tiempo y, de acuerdo al tipo de sucesión de eventos sonoros, emerge la percepción de sus características temporales. El estudio de tales características fue abordado parcialmente en la Unidad 4 (velocidad, variedad en las duraciones y articulación). No obstante, realizaremos algunas consideraciones generales pertinentes a la producción de sonomontajes. Para poder percibir la organización temporal, necesitamos más de un evento sonoro. Es más, en una secuencia sonora, la organización temporal emergente, depende principalmente de los intervalos de entrada y las duraciones de los sonidos individuales. Podemos abordar la organización temporal del sonomontaje de manera global, a partir de los siguientes campos temporales: • Campos regulares. Los intervalos de entrada son regulares. • Campos irregulares. Los intervalos de entrada son irregulares.

Estos campos a su vez pueden ser: • Continuos. La duración de los sonidos excede el intervalo de ataque, por lo que no hay separación entre los sonidos. • Discontinuos. La duración de los sonidos es inferior al intervalo de ataque, por lo que hay separación entre los sonidos.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

207

En la organización del sonomontaje, no solo se utilizan sonidos en sucesión, sino que también se organizan en superposición o en diferentes estratos o capas. Es importante tener en cuenta que, cuando trabajamos con diferentes estratos, el campo temporal emergente dependerá de los intervalos de ataque de los sonidos de todas las capas. El concepto de sincronía, sonidos cuyos ataques comienzan simultáneamente, es indispensable cuando se busca mantener un mismo campo temporal en varios estratos.

9.7. Proceso de mezcla El proceso de mezcla del montaje sonoro y musical es una especialidad en sí misma y excede los alcances de este curso. En esta unidad abordaremos las consideraciones generales necesarias para encarar las actividades planteadas. Una vez que el montaje sonoro está organizado, es decir, que se realizó el guión, se obtuvieron los materiales sonoros y se los organizó temporalmente, de manera tal de respetar el relato sonoro deseado, podemos encarar el proceso de mezcla final. Este se puede realizar de diferentes maneras. En este caso propondremos un orden en particular.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

208

• • • •

Balance espectral Localización espacial y reverberación Balance de sonoridad de los diferentes planos Mezcla final

9.7.1. Balance espectral En esta etapa la atención se centra en analizar el balance espectral de los sonidos individuales y cómo se relacionan entre sí. Con las herramientas de filtrado y ecualización se modela el espectro de los materiales, enfatizando o atenuando por bandas, de manera de obtener el resultado deseado. Sea este un balance espectral en particular o la homogenización-diferenciación de uno o más sonidos entre sí. En este proceso, muchas veces es necesario, ajustar los niveles de intensidad individuales de los clips de audio, con el fin de evitar grandes discontinuidades.

9.7.2. Localización espacial y reverberación La localización espacial de los materiales dependerá del uso de las herramientas de panorámico del multipista y del uso de reverberadores. Cuando en el armado de un relato sonoro, varios materiales se desarrollan en un mismo espacio físico, es necesario utilizar un reverberador, aplicando las características acústicas de ese ambiente a todos los sonidos intervinientes. De esta manera se homogenizan los materiales, evitando que parezcan encontrarse en distintos espacios acústicos. En el armado de montajes sonoros abstractos, los espacios acústicos pueden no estar tan bien definidos como en los narrativos. Igualmente, los reverberadores son muy utilizados para homogenizar o empastar los materiales que pertenecen a un mismo estrato sonoro. Una vez definidos los espacios sonoros con los reverberadores, podemos controlar las posiciones individuales de los materiales en la imagen estéreo con las herramientas de paneo o panorámico. Con la relación entre el sonido directo y la reverberación densa podemos simular que una fuente sonora aparente se encuentre más cerca o lejos. Recordemos que la sonoridad de la reverberación densa es estable en toda la sala, por lo que no varía dependiendo de la posición de la fuente. Por el contrario, la sonoridad de la fuente depende de la distancia, por lo que una fuente que se encuentra cerca del oyente tendrá una sonoridad mayor a una que se encuentra lejos, mientras que la reverberación densa permanecerá siempre en el mismo nivel.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

209

9.7.3. Balance de sonoridad de los diferentes planos En esta etapa se utilizan todas las herramientas de control de intensidad disponibles en el multipista. Generalmente, las más usadas son las envolventes de volumen de las pistas de audio, ya que nos permiten definir evoluciones temporales con mucha precisión. Para lograr buenos resultados, es importante tener bien claro cuáles son los diferentes planos o estratos del relato sonoro y subordinar el balance de sonoridad a las necesidades del mismo. No hay una única forma de realizar esta tarea, pero es un buen indicador tener como guía las necesidades expresivas del relato sonoro. En este sentido, se debe intentar que se perciban todos los materiales y que entre todos se articule el relato deseado.

9.7.4. Mezcla final Es importante tener claro que los criterios empleados en el proceso de mezcla pueden ser altamente subjetivos y que dicho proceso se puede encarar de múltiples formas. El orden que se ha propuesto es uno en particular y se debe tener en cuenta que sus etapas son dependientes entre sí. Por lo que suele ser necesario, a medida que avanza la mezcla, volver a realizar modificaciones, de acuerdo a cómo interactúan las diferentes etapas de la misma. En la etapa de mezcla final, se analiza integralmente el resultado de la misma y se hacen las correcciones que se consideren necesarias. Una vez que el resultado es el deseado y controlando que la mezcla no supere los 0dbfs (decibel full scale), se realiza la exportación de la misma al formato de salida deseado (por ejemplo, el estándar CDA, estéreo-16bits-44.1Khz).

1. a. Realizar un guión sonoro narrativo pensado para una duración aproximada de un minuto y medio. b. Obtener los materiales sonoros necesarios para la realización de dicho guión y clasificarlos de acuerdo al cuadro tipológico propuesto. 2. Realizar un sonomontaje narrativo, utilizando el guión y los materiales realizados en la primera actividad.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache

210

LECTURA RECOMENDADA

A fin de ampliar la información sobre los temas tratados en esta unidad lea el libro La Banda Sonora, de Carmelo Saitta, pp. 1-57.

Referencias Bibliográficas Saitta, C. (2002), La Banda Sonora, Facultad de Arquitectura, Diseño y Urbanismo

Universidad de Buenos Aires, Buenos Aires.

---------------, “Sonomontaje”, Carmelo Saitta, CD interactivo, Facultad de Bellas Artes Universidad Nacional de la Plata (2002). Schaeffer, P. (1988), Tratado de los objetos musicales, Alianza Música, Madrid. Owsinski, B. (1999), The Mixing Engineer´s Handbook, Mix Books, Vallejo.

Técnicas de sonido digital

Oscar Di Liscia, Mariano Cura, Lucas Samaruga y Damián Anache