Sonido Sintetico

Sonido sintético Belén Casas García1, Carlota López Barbado2, Juan Antonio Peña Villapol3, Carmen Vaquero López4. 1 UO1

Views 64 Downloads 9 File size 140KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Sonido sintético Belén Casas García1, Carlota López Barbado2, Juan Antonio Peña Villapol3, Carmen Vaquero López4. 1

[email protected] [email protected] 3 [email protected] 4 [email protected]

2

Abstract. Synthetic audio has become a powerful tool for a wide applications range, such as music performance. This paper is aimed to introduce the basis of synthetic sound and provide an overview of the techniques used for its generation. First of all, some basic concepts about synthesizers will be presented. The main standards will also be studied and MIDI will be analyzed in detail. The report concludes with a summary of most significant sound synthesizers.

1 Introducción El sonido sintético se obtiene por procedimientos mecánicos, electrónicos o industriales tratando de imitar otro natural. Para entender las posibilidades y ventajas que ofrece, es necesario conocer en primer lugar en qué consiste. En este trabajo se explican los conceptos fundamentales del sonido sintético y su generación, analizando un poco distintos sintetizadores a lo largo de la historia. Además, se presentan los estándares y formatos más conocidos para el desarrollo de este tipo de sonido, detallando más en profundidad el estándar MIDI.

2 Fundamentos 2.1 Definición de sonido Desde un punto de vista físico, el sonido es una vibración que se propaga en un medio elástico (sólido, líquido o gaseoso). Cuando se hace referencia al sonido audible por el oído humano se define como una sensación percibida en el órgano del oído, producida por la vibración que se propaga en un medio elástico en forma de ondas. 2.2 Definición de sonido sintético Se entiende por sonido sintético, aquel sonido generado mediante un sintetizador.

1

2.3 ¿Qué es un sintetizador? Un sintetizador es un instrumento musical capaz de generar sonidos a voluntad del intérprete con el objetivo de ser utilizados en la producción musical. El nombre de sintetizador se debe a que el sonido generado es el resultado de un proceso de síntesis. En sus inicios, la función básica de un sintetizador, era la posibilidad de utilizar sonidos nuevos y artificiales, nunca usados anteriormente. Con el paso del tiempo y la evolución tecnológica los sintetizadores han mejorado espectacularmente su capacidad para emular o reproducir sonidos de instrumentos reales, como pianos, trompetas, cuerdas, etc., llegando a niveles de fidelidad realmente buenos. Esto ha propiciado su uso como sustituto de otros instrumentos, al menos cuando las posibilidades económicas o presupuestarias de los músicos no permiten utilizar los instrumentos reales. Una característica relevante de los sintetizadores y que los distingue de los instrumentos eléctricos es que, el sonido es generado de manera totalmente electrónica, lo que permite obtener un rango muy amplio de timbres posibles. En los instrumentos eléctricos (guitarra, piano…), existe en primer lugar un proceso acústico, que es luego transformado en una señal eléctrica que después es manipulada y posteriormente amplificada. Cabe destacar, para evitar confusiones, que, los sintetizadores no son teclados, o instrumentos accionados mediante un teclado. En sentido estricto, el sintetizador es el aparato que genera el sonido, independientemente del mecanismo utilizado para controlarlo. 2.4 Tipos de síntesis Las diferencias más importantes entre los distintos sintetizadores radican en su modelo o tipo de síntesis, ya que afectan directamente al proceso de creación, manipulación y reproducción del sonido. A continuación, se describen los distintos tipos de síntesis. 2.4.1 Síntesis substractiva Se trata del esquema de síntesis más utilizado. La mayoría de los sintetizadores analógicos y un buen número de los digitales se ubicarían dentro de esta categoría. La idea principal, es que se da forma al sonido a través de la eliminación o substracción de parte de los armónicos del generador o fuente principal del sonido. El esquema básico de este tipo de síntesis consta de cuatro elementos: • Oscilador: genera una forma de onda, que es la fuente del sonido. Las principales formas de onda generadas son: onda senoidal, onda triangular, diente de sierra, onda de cuadrada y ruido. Las diferencias entre ellas radican en el número de armónicos que poseen. Las dos primeras poseen escasos armónicos, lo que hace que muchos modelos apenas las incorporen. En el caso del diente de sierra, el sonido generado es muy bueno y rico en armónicos. Lo mismo ocurre con la onda cuadrada pero en éste caso los armónicos tienen

2







mayor amplitud. Por último, en el caso del ruido, éste se usa cuando se quieren crear efectos como el viento o las olas del mar. Filtro: tiene como función, rebajar o incluso eliminar la amplitud de ciertas frecuencias, afectando así a los armónicos de la señal original del oscilador y cambiando el timbre del sonido. El filtro más común en este tipo de esquema es el pasa-bajos. Amplificador (VCA): se trata de un circuito que controla la amplitud (intensidad) de la señal proveniente del oscilador y posteriormente modificada por el filtro. La amplificación, puede ser controlada a partir de una envolvente ajustable. Una envolvente es una estructura que determina cómo se comporta en el transcurso del tiempo un elemento. Oscilador de baja frecuencia (LFO): Este elemento produce ciertas formas de onda pero a muy bajas frecuencias. La razón de ello es que este elemento se utiliza para interactuar de manera cíclica con otros elementos de la síntesis, como el oscilador, el filtro o el amplificador. Se trata de un elemento direccionable, es decir, se puede seleccionar a qué elemento afectará. Los resultados serán distintos en función de la frecuencia del LFO, de su intensidad (amplitud) y, sobre todo, de cuál sea el objetivo sobre el que actúe.

2.4.2 Síntesis aditiva Aunque el resultado final pueda ser parecido, la síntesis aditiva opera mediante un principio opuesto al de la síntesis substractiva. Como ya se ha visto, el principio básico de la síntesis substractiva es la eliminación de armónicos para conseguir el sonido deseado, mientras que en la síntesis aditiva se van añadiendo armónicos para ir configurando el sonido final. Partiendo de una onda senoidal pura (que como ya se ha apuntado carece totalmente de armónicos) y se van añadiendo armónicos, el resultado final será una onda de diente de sierra precisa. Teóricamente, es posible construir cualquier sonido mediante esta técnica, pero para ello se necesita conocer toda la estructura de armónicos del sonido que se desea reproducir. Debido a esta causa, son muy pocos los sintetizadores que utilizan este modelo de síntesis. 2.4.3 Síntesis de modulación de frecuencia Este proceso de síntesis se basa en una modulación FM. Para ello se usará como portadora la señal del oscilador de baja frecuencia (LFO) y como moduladora la señal del oscilador principal (señal de frecuencia audible). La frecuencia de la portadora es fija mientras que la de la señal moduladora (normalmente senoidal o triangular) variará alrededor de la frecuencia de la señal portadora. La síntesis FM permite crear sonidos imposibles de generar por los sintetizadores analógicos de síntesis substractiva. Sin embargo, este tipo de síntesis es difícil de programar y puede tener resultados bastante impredecibles.

3

Como orientación general, las frecuencias de la portadora y de la moduladora deben ser múltiplos para crear sonidos armónicos, puesto que de lo contrario se crean ruidos disonantes y metálicos. Este tipo de síntesis se usa fundamentalmente en sintetizadores digitales, ya que los analógicos no son lo bastante precisos ni estables como para aplicarlos satisfactoriamente en este tipo de esquema. 2.4.4 Síntesis de tabla de ondas La síntesis de tabla de ondas en lugar de utilizar osciladores, utiliza un circuito que reproduce ciertas muestras de sonido digitalizadas a distintas frecuencias según la nota que se quiera ejecutar. Uno de los principales inconvenientes consiste en que la digitalización de ondas sonoras consume grandes cantidades de memoria. Esto, en la actualidad no representa un gran problema, pero fue uno de los principales obstáculos en los inicios de los sintetizadores digitales de tabla de ondas. Ya que, en aquel entonces, la memoria era muy cara y lenta lo que hacía que los sintetizadores contaran con pocas muestras, de corta duración y por lo general de baja calidad, con el fin de ahorrar costes. Otro inconveniente de esta tecnología en sus inicios, es que una onda digitalizada es mucho más difícil de manipular que la señal simple de un oscilador, con lo que se necesita mucha mayor capacidad de cálculo. Con el transcurso del tiempo y el incremento de la velocidad y la capacidad de cálculo de los microprocesadores y componentes digitales en general, se fueron añadiendo todos los elementos propios de la síntesis substractiva (filtros, LFOs, múltiples osciladores simultáneos, etc.), por lo que actualmente los sintetizadores de tabla de ondas (que son la gran mayoría) pueden concebirse como una evolución de los antiguos sintetizadores de síntesis substractiva, en los que la única diferencia relevante es la capacidad de reproducir cientos de ondas complejas en lugar de tan sólo un reducido número de ondas básicas. La evolución de los precios de la memoria y de la tecnología ha permitido utilizar cada vez un mayor número de muestras, más largas y de mayor calidad, lo que se ha traducido en un incremento muy significativo del realismo y la calidad del sonido. 2.4.5 Síntesis de modelado físico Esta técnica consiste en una representación matemática del instrumento a reproducir, con el fin de modelar el comportamiento físico de las ondas sonoras a partir de un conjunto de variables como puede ser el tamaño, la forma, los materiales de construcción, la forma de tocar (si es una vibración de una cuerda, o una percusión…) y demás aspectos. Es decir, la síntesis del sonido a través de un conjunto de ecuaciones y algoritmos que simulan el comportamiento físico de la fuente. De este modo es posible construir simulaciones precisas de instrumentos musicales (puesto que se puede jugar con los parámetros y modificar la forma, dimensiones, materiales, etc. del instrumento virtual). Además, para optimizar todavía más el resultado y hacerlo más convincente, se suelen introducir pequeñas imperfecciones intencionadamente como las que aquejan a los

4

instrumentos acústicos reales. Esto hace que muchas veces se conozca también esta técnica como síntesis acústica virtual. Como es fácilmente imaginable, este esquema de síntesis requiere una enorme capacidad de cálculo, lo que explica que tan sólo comenzara su uso o implantación comercial en sintetizadores digitales de mediados de los años 90.

3 Formatos y estándares Hoy en día existen una gran variedad de formatos y estándares de sonido. Ello se debe a que tradicionalmente cada empresa ha desarrollado su propio formato. A continuación se enumerarán dichos formatos y sus principales características: • MIDI (Musical Instrument Digital Interface) De este formato se hablará en detalle en [4]. • WAV (Waveform Audio Format) El formato WAV, cuya extensión es .wav, fue desarrollado por Microsoft e IBM. Dicho formato se caracteriza por almacenar muestras de la forma de onda de la señal de audio (a razón de 11025, 22050 o 44100 muestras por segundo), sin compresión de datos y con cuantificación uniforme. Se trata de un formato sencillo y fácilmente convertible a otros formatos con el software adecuado. • MP3 (MPEG-1 Audio Layer 3) El formato MP3, cuya extensión es .mp3, fue desarrollado por Moving Picture Experts Group trabajando bajo la dirección de ISO (International Standards Organization). Dicho formato se caracteriza por prescindir de las frecuencias de la señal de audio que no son perceptibles por el oído humano a la hora de comprimir dicha señal. El hecho de prescindir de todas las frecuencias que no estén en el rango 20Hz-20KHz (sonidos perceptibles por el oído humano) además del empleo de otro tipo de técnicas (umbral mínimo de audición, efecto máscara, fusión de estéreo, …) permiten reducir el tamaño del archivo original hasta en un factor de 12 muestreando a 112 Kbits por segundo. Su sucesor, el MP4, tiene una compresión de 40 a 1. • VQF (Transform-domain Weighted Interleaved Vector Quantization) El formato VQF, cuya extensión es .vqf, fue desarrollado por la empresa japonesa Yamaha. Este formato consigue reducir el tamaño del archivo original en un factor de 18 con una calidad similar. Este aumento de la capacidad de compresión se consigue a costa de tener que aumentar la capacidad de procesamiento del archivo tanto a la hora de la compresión como a la hora de la reproducción. • RA (Real Audio) El formato RA, cuya extensión es .ra o .rm, fue desarrollado por RealNetworks. Este formato es el más utilizado en Internet por su capacidad de reproducción en tiempo real, es decir, un usuario puede escuchar un archivo sin llegar a descargarlo en su ordenador. Una de las principales características de este formato es que permite adaptar la calidad del audio en función de la velocidad de la conexión del usuario para evitar que se corte la reproducción.

5

Tabla 1.-Comparativa de los formatos más utilizados

Formato

Empresa

Calidad de sonido

Tamaño/min

MIDI

Dave Smith

Sonido puro (digital)

WAV

Microsoft e IBM

Óptimo y flexible

5.3 MB

MP3

Moving Picture Expert Group

Excelente, según el WAV original

440KB

VQF

Yamaha

Óptimo

280KB

RA

RealNetworks

Monofónico

850KB

21KB

Otros formatos menos populares son: • ATRAC (Adaptive Transform Acoustic Coding) La extensión de este formato, que fue desarrollado por Sony, es .atrac. Dicho formato consigue reducir el tamaño del archivo de audio original en un factor de 5 y se caracteriza por dividir la señal original en tres bandas de frecuencia que son analizadas independientemente. Hoy en día este formato se usa sólo en lectores de CD y minidisc de Sony. • AAC (Advanced Audio Coding) Este formato es utilizado por Apple y en teoría almacena más que el MP3 en menos espacio. • AU (Audio for Unix) Este formato, cuya extensión es .au, es utilizado en los sistemas Unix de Sun y también funciona como estándar acústico para el lenguaje de programación JAVA. • WMA (Windows Media Audio) Este formato, que es el utilizado por Windows para comprimir audio, tiene como extensión .wma. Además de permitir reducir el tamaño de archivos grandes también se adapta a diferentes velocidades de conexión en caso de que se necesite reproducir en Internet en tiempo real. • OGG VORBIS Este formato se caracteriza porque es gratuito, abierto y no está patentado. Se puede reproducir en cualquier dispositivo y ocupa poco espacio. Su extensión es .oog. • .au, .aiff, .voc, .mod, …

4 Estándar MIDI 4.1 Principios básicos de MIDI MIDI (Musical Instrument Digital Interface) es un protocolo industrial estándar que permite a sintetizadores, secuenciadores, controladores, ordenadores y otros dispositivos musicales electrónicos comunicarse y compartir información para la generación de sonidos.

6

Con este protocolo, la información se transmite en mensajes MIDI, que son instrucciones que indican al sintetizador cómo interpretar los datos para generar los sonidos correspondientes. La especificación MIDI 1.0 proporciona una descripción completa de este protocolo. 4.2 Hardware La comunicación entre dispositivos que emplean MIDI es asíncrona y unidireccional. Dependiendo de su función en el proceso de comunicación, se pueden clasificar los dispositivos MIDI en tres grupos: • Controladores: Generan los mensajes MIDI. El más común tiene forma de teclado de piano, aunque existen otro tipo de instrumentos como guitarras o clarinetes. • Sintetizadores: Reciben los mensajes MIDI y los transforman en señales sonoras. • Secuenciadores: Su función es almacenar, combinar o editar mensajes MIDI. La interfaz MIDI se basa generalmente en tres conectores: MIDI IN, MIDI OUT y MIDI THRU. Los mensajes originados por un controlador o secuenciador se transmiten a través del conector MIDI OUT. El sintetizador recibe los mensajes en MIDI IN, y genera los sonidos convenientes. MIDI THRU es también un conector de salida, que envía una copia de los mensajes de entrada en MIDI IN. 4.3 Protocolo 4.3.1 Canales Un controlador MIDI puede enviar información a un máximo de 16 dispositivos. Para ello divide el canal físico en 16 canales lógicos, mediante la utilización de cuatro de los bits del mensaje para selección del canal. 4.3.2 Mensajes La especificación de mensajes es la parte más importante del protocolo. Cada mensaje MIDI consiste en un byte de estado seguido por uno o dos bytes de datos. Por ejemplo, para generar una nota el byte de estado puede indicar “activación de nota” y el de datos qué nota se activa. Los dos tipos de bytes se diferencian en el bit más significativo, que es igual a uno para el byte de estado y cero para el byte de datos. Estos mensajes pueden ser de dos tipos: mensajes de canal y mensajes de sistema. Los mensajes de canal se envían a un dispositivo concreto y contienen los bytes de canal en el byte de estado. Por ejemplo, supongamos que un sintetizador está configurado para asociar Canal 3 al sonido de un piano y otro para asociar Canal 7al sonido de un violín. Los mensajes de sistema no están dirigidos a ningún canal concreto.

7

Los mensajes de canal pueden clasificarse, además, en dos tipos: mensajes de voz y de modo. Los primeros incluyen datos referentes a la interpretación musical (la inmensa mayoría de los datos de un flujo de señal MIDI típico) y los segundos, datos que alteran la forma en que el instrumento receptor interpreta los datos de los primeros. 4.3.3 Archivos MIDI El protocolo MIDI permite la recepción y procesado de mensajes en tiempo real. En algunos casos es necesario almacenar estos mensajes en forma de archivo, incluyendo información de temporización para los eventos. La especificación Standard MIDI File (Archivo estándar MIDI) proporciona un método para manejar estos datos con información temporal. Este formato de archivo estandarizado permite que distintas aplicaciones (secuenciadores, editores de partituras, programas para creación de presentaciones multimedia, etc.) puedan compartir archivos de datos MIDI. La principal ventaja de este tipo de archivos es que, a diferencia de otros formatos de audio digital (.wav, aiff, etc), no almacena sonidos, sino que almacena una lista de eventos que describen un conjunto de pasos que la tarjeta de sonido u otro tipo de reproductor debe seguir para generar estos sonidos. De esta forma, es posible reducir considerablemente el tamaño de estos archivos.

5 Herramientas Aunque los instrumentos electrónicos existen desde principios del siglo XX, hasta los años 60, en general, los módulos que conforman el sintetizador solo existían por separado, se operaban manualmente y cada sonido se grababa en un disco o cinta y luego se combinaba con otros por medio de técnicas de “collage musical”. Se usaban generadores de ondas, moduladores en anillo, filtros, resonadores, amplificadores, reverberancias y otros dispositivos independientes unos de otros dispositivos que funcionaban independientemente unos de otros, aún cuando se interconectaban, cada módulo cumple su función sin un control lógico común. El primer sintetizador con un método general para el control de timbres fue el RCA, con su posterior versión mejorada, el Mark II. Ésta última estaba controlada por un ordenador donde el operador introducía los datos de programación del sonido con una tarjeta perforada, tras introducir los datos, el ordenador los procesaba y programaba los módulos analógicos del sintetizador para emitir el sonido que era grabado. En los años 60, Robert Moog y Donald Buchla desarrollaron por separado el sistema de control por voltaje o también llamado VCO (voltaje control oscillator), y construirían sintetizadores modulares controlados por tensión. Ya a principios de los 70, se comenzaron a producir los primeros sintetizadores de uso masivo con la aparición del MiniMoog, el ARP2600 y los E.M.S. VCS3 y Synthi AKS todos instrumentos portables no modulares en su construcción (semimodulares o de configuración fija). Un sintetizador semimodular tiene todos los módulos integrados en el equipo pero el usuario puede configurar el camino de la señal (ej: Synthi AKS) o modificar el que diseño el fabricante (ej: ARP 2600).

8

Un sintetizador de configuración fija conecta la ruta de la señal por el fabricante y el usuario puede configurar los parámetros de los módulos pero no el ruteo de las señales más allá de las opciones con las que entrega el aparato el diseñador. 5.1. El Minimoog (Moog Music, 1970) El Minimoog fue un sintetizador muy innovador en varios aspectos, además de poder considerarse el primer éxito comercial en el mundo de los sintetizadores, por ser un sintetizador integrado (no modular) algo novedoso en los años 60. Al estar integrado y con las conexiones fijas entre los componentes de la síntesis, ofrecía menos posibilidades que los anteriores modelos modulares, pero la facilidad de uso que mostraba a cambio y la estabilidad de sus osciladores para la época fueron clave en su éxito. Otra innovación, fue que permitía controlar manualmente la afinación de la nota durante la ejecución (introducción de las ruedas de pitch bend) y modulación de la parte izquierda del teclado, con tanto éxito que ha seguido incorporándose en esos controladores hasta nuestros días. Tecnológicamente hablando es un sintetizador analógico de síntesis substractiva, monofónico y monotímbrico. Cuenta con tres osciladores VCO’s, uno de los cuales puede funcionar como LFO (o normal) y también puede producir frecuencias en el rango auidible, dando la capacidad al Minimoog de realizar hasta cierto punto síntesis FM. Además posee un generador de ruido blanco/rosa y una entrada de línea externa. Cada fuente de sonido cuenta con niveles independientes de intensidad. La mezcla de sonido pasa después a un filtro pasa-bajos (VCF) de -24 dB por octava y con resonancia, y posteriormente a un amplificador (VCA). Tanto el filtro como el amplificador cuentan con su propio generador de envolvente, con la particularidad de que no son de tipo ADSR, sino ADSD, puesto que el parámetro del decaimiento regula también el de la relajación. 5.2 El Prophet 5 (Sequential Circuits, 1978) Este sintetizador destaca por ser uno de los primeros modelos de sintetizador polifónico y sobre todo por ser el primero con memoria programable. Aunque la tecnología de generación de sonido es analógica, el aparato es controlado digitalmente, mediante un microprocesador, permitiendo almacenar varias configuraciones de sonidos en memorias, y accesibles al toque de una tecla sin tener que controlar todos los parámetros manualmente. Cuenta con 40 memorias preprogramadas de fábrica, modificables por el usuario. La tecnología digital permite también en este modelo, controlar los voltajes de los diversos componentes dando una afinación más precisa y mayor estabilidad. La estructura de síntesis sigue ajustándose a la analógica substractiva. Es monotímbrico y polifónico de cinco voces. Cuenta con un generador de ruido y diez osciladores, dos de ellos por voz, y consiguiendo mayor flexibilidad con el segundo. Los osciladores pueden sincronizarse, y mezclar su señal entre sí en la proporción que desee el usuario.

9

El aspecto más interesante es que el panel de control de este modelo (“Poly-Mod”) permite hacer desde simples barridos de ancho de pulso (PWM) o de filtro hasta modulación en anillo o síntesis FM básica. 5.3 El DX-7 (Yamaha, 1983) El Yamaha DX-7 podemos decir que destaca por ser uno de los primeros sintetizadores totalmente digitales, monotímbrico que cuenta con una amplia polifonía de 16 voces y con una memoria interna de 32 registros ampliable con cartuchos opcionales. Se basa en un modelo de síntesis FM avanzada como fuente se sonido exclusiva, también fue uno de los primeros en incorporar MIDI. A pesar de que Yamaha lanzó otros muchos modelos basados en síntesis FM, algunos incluso más baratos, ninguno alcanzó su popularidad, debido principalmente al esquema de síntesis de cuatro operadores que utilizaban, frente a los seis del DX-7, convirtiendo a éste modelo en un aparato más potente y flexible que otros vistos anteriormente, por incluir seis operadores y 32 algoritmos distintos. 5.4 El D-50 (Roland, 1987) La compañía japonesa Rolan, consiguió abrirse paso en el mercado con el lanzamiento de este sintetizador, iniciando una línea basada en un tipo de síntesis que denominaron síntesis lineal aritmética, caracterizada por combinar la síntesis digital substractiva con la entonces novedosa síntesis de tabla de ondas. Otra novedad, fue la inclusión de una unidad de efectos que permitía añadir al sonido sintetizado efectos como la reverberación, chorus o ecualización, para generar un sonido más refinado y similar al que se obtiene en un estudio de grabación, después de procesarlo con unidades de efectos extremas. Sugería un mayor realismo en la emulación de instrumentos, lo que está relacionado con que además de permitir la clásica síntesis substractiva (con osciladores de ondas simples) incorporaba en su memoria muestras digitalizadas o samples de sonidos reales. Esto permitía reproducir sonidos imposibles de obtener con los otros métodos de la época, mediante un esquema sencillo de síntesis de tabla de ondas. En cuanto a características técnicas, el D-50 es un sintetizador monotímbrico, polifónico de 16 voces y con 64 registros de memoria. Para la generación de sonido, utiliza un esquema que permite combinar la síntesis substractiva de ondas simples, con un modelo básico de síntesis de tabla de ondas. 5.5 El M1 (Korg, 1988) Nació como respuesta al D-50, llegando a alcanzar un gran éxito, debido por un lado a la calidad de sonido, gracias a sus 4 MB de muestras digitalizadas, su carácter multitímbrico de ocho partes (hasta ocho sonidos distintos al mismo tiempo, dentro de sus 16 voces de polifonía), además de sus dos unidades independientes de efectos. Como novedad importante en la época, incorporaba un secuenciador de ocho pistas, que

10

permitía grabar y editar independientemente cada una de las pistas, para crear un tema completo. Por ello es considerado la primera “Workstation” musical, ya que posee en un único aparato, todos los recursos necesarios para la creación musical. Cuenta con diez formas de onda de instrumentos melódicos y 44 muestras de sonidos de batería y percusión ampliables. Las muestras además son multisamples, es decir, múltiples muestras a distintas frecuencias y/o amplitudes de la fuente de sonido original, a fin de reproducir de manera más fidedigna el timbre original del instrumento. El esquema de síntesis del M1 es bastante sencillo pero fue un paso más para la integración de la síntesis substractiva y la de tabla de ondas. Cada sonido o patch puede basarse en uno o dos osciladores. La señal de cada uno de ellos es procesada por un filtro pasa-bajos que carece de resonancia, y pasa al amplificador. No existen LFOs ni posibilidad de modular los osciladores en anillo. La señal final, es procesada por hasta dos unidades de efectos que pueden operar en serie o en paralelo. 5.6 El VL-1 (Yamaha, 1994) Este modelo, introdujo en el mercado la síntesis de modelado físico, hasta entonces investigada pero no explotada comercialmente. Esta síntesis está basada en modelos matemáticos que simulan el comportamiento de ciertas características físicas del instrumento (forma, dimensiones, materiales, presión o fuerza al tocarlo…), que al ser procesadas por un ordenador genera la onda en tiempo real, resultando un sonido muy realista que supera al obtenido con sistemas más sofisticados de síntesis de tabla de ondas. Por el contrario, la mayor exigencia en capacidad de cálculo reduce notablemente las prestaciones en materia polifónica o capacidad multitímbrica (el VL-1 es bifónico y bitímbrico, es decir, en realidad son dos sintetizadores monofónicos independientes operando conjuntamente). El VL-1 ofrecía muchas posibilidades de expresión en la interpretación pero esto hacía más complicado su manejo. La mayoría de los intérpretes son pianistas, y para sacar partido a las posibilidades del VL-1 es necesario usar además del teclado, múltiples ruedas, controladores de soplo y pedales, de una forma que se aleja de la clásica técnica del sintetizador. 5.8 El Fantom-X (Roland, 2004) Se trata de un sintetizador con polifonía máxima de 128 voces y multitímbrico de 16 partes. Tiene una memoria de ondas de 128 MB ampliables a 384 MB, mediante tarjetas de expansión. Los 128 MB de fábrica suman un total de 1460 multisamples. La serie Fantom-X incorpora un sampler o grabador de muestras nuevas para usar en la síntesis. La memoria destinada al sampler es de 32 MB ampliables a 544 MB. Con todo, el sintetizador ampliado al máximo puede contar con un total de 928 MB de muestras. Su estructura de síntesis se ajusta al esquema de la síntesis substractiva basada en tabla de ondas, con un alto nivel de sofisticación. Puede usar hasta cuatro osciladores por sonido o patch, a su vez, cada uno de ellos es estéreo y puede contener ondas diversas para los canales izquierdo y derecho, por tanto se pueden intervenir hasta

11

ocho ondas distintas aunque la síntesis opera siempre como cuatro bloques distintos como máximo, a pesar de que alguno contenga dos formas de onda. Cada oscilador tiene su propio filtro resonante y amplificador. El filtro puede actuar como pasa-bajos (tres tipos distintos), pasa-altos, pasa-banda o de pico. Tanto el oscilador como el filtro cuentan con sus propias envolventes. Cuenta también con siete unidades de efectos para procesar el sonido una vez sintetizado, tres unidades de multiefectos, mastering (compresor) y una unidad de efectos para la entrada de señal del sampler aplicable a la señal entrante. 5.9 Un caso especial: el SID (1981) El SID (Sound Interface Device) es la denominación habitual del chip 6581 de MOS Technology, diseñado por el ingeniero Bob Yannes a sus 24 años de edad. Básicamente es un sintetizador en un único chip pensado para ser incorporado a ordenadores personales y consolas de videojuegos, ocupando un lugar destacado en la historia de la informática y en la de los sintetizadores. Fue incorporado por primera vez en el Commodore 64, un ordenador personal de bajo coste lanzado en 1982, posteriormente se incluyó también en otros modelos de Commodore e incluso se usó como base para sintetizadores de otras compañías. Poco después de crear SID, Yannes, abandonando Commodore, cofundó la compañía de sintetizadores Ensoniq, que años más tarde fue adquirida por Creative, empresa propietaria de las famosas tarjetas de sonido para PC: Sound Blaster. El SID, cuenta con tres osciladores con amplitud e intensidad independientes, que pueden operar en modo monofónico, o polifónico, con cuatro formas de onda que pueden reproducir frecuencias en un rango de ocho octavas. Tiene filtros resonantes pasa-bajos, pasa-altos y pasa-banda de -12dB/octava, modulación en anillo, sincronización de osciladores, cuatro LFOs independientes y tres envolventes ADSR de cuatro segmentos, una para cada amplificador independiente por oscilador. Además cuenta con una línea de entrada que permite procesar audio mediante los filtros. 5.10 Herramientas Software Como se comentó en [3], la existencia de gran variedad de formatos se debe a que cada empresa se encargó de desarrollar el su propio. Además de desarrollar su propio formato, cada empresa se encargó también de desarrollar herramientas software para trabajar con él y es por ello por lo que hay gran variedad de programas. Hoy en día la mayoría de los programas software permiten trabajar con diversos formatos y pasar de unos a otros. Algunos de los programas más utilizados son: • Captura, edición y compresión de audio: GoldWave, Grabadora de sonidos de Windows, Lmms, Ardour, Hydrogen, … • Reproductores: Winamp, RealPlayer, QuickTime Player, Windows Media Player, SMPlayer, VLC Media Player, …

12

Bibliografía 1. “Sintetizadores: qué son, un poco de historia”. http://www.taringa.net/posts/info/989921/”Sintetizadores:Que-son-un-poco-dehistoria.html. 2. “Formatos de audio y video”. http://www.monografias.com/trabajos17/formatos-audio/formatosaudio.shtml#_Toc88628895. 3. “Fundamentos del sonido digital". http://www.monografias.com/trabajos7/sodi/sodi.html. 4. David Martínez Zorrilla, “Los sintetizadores. Una breve introducción”, 2008 (http://scholar.google.es/). 5. N.J.Sieger and A.H.Tewfik: “Audio Coding for Conversion to MIDI”. Department of Electrical Engineering, University of Minnesota, Minneapolis,1997. 6. “Editores de sonido”. http://www.herramientaslibres.es/artlos-mainmenu-27/73-sonido/211-editores-desonido.html. 7. “Estándar MIDI”. http://www.midi.org.

13