Introducción Al Audio Digital v2
July 31, 2022 | Author: Anonymous | Category: N/A
Short Description
Download Introducción Al Audio Digital v2...
Description
Lino García Morales
Madrid. Noviembre, 2006
Introducción al udio Digital Introducción Física del Sonido Grabación Analógica/Digital Muestreo Análisis/Síntesis Procesamiento Digital de Señal MIDI Mensajes MIDI Periféricos MIDI Sincronización Almacenamiento Informática
Tema
01 Introducción El término Audio Digital se refiere a la tecnología mediante la cual el sonido (la señal de “audio”) es almacenado en la memoria de un ordenador (procesador digital) como una secuencia de números (“dígitos”) en formato binario. Procesos interconectados: El sonido ac acústico ústico es convertido en una señal eléctrica equivalente equivalente – esta esta es la fun funció ciónn ddee uunn m micr icrófo ófono. no.
•
La señal eléctrica ana analógica lógica es convertida en en una secuencia de números (señal digital) – esta es la función de un componente llamado conversor analógico-digital.
•
Estos números son almacenados en un disco duro u otro m medio edio digital (CD, DAT, etc.).
•
Los números almacenados pueden ser manipulados opcionalmente para alterar la señal bajo control del usuario – este proceso se conoce como procesado digital de la señal.
•
La señal digital es reconvertida a una señal eléctrica (analógica) – esta es la función de un componente llamado conversor digitalanalógico.
•
Finalmente la señal eléctrica es reconvertida a un sonido acústic acústicoo
•
que podemos oír – esta es la función de un altavoz.
2
Sonido Acústico
Señal Eléctrica Analógica
Señal Digital
Procesado de Señal Digital
Señal Eléctrica Analógica
Sonido Acústico
3
Tema
02 Física del Sonido ¿Produce sonido la hoja de un árbol al caer si no hay nadie para escucharla? Quizá. Técnicamente hablando, el movimiento de un medio tal como el aire es un prerequisito para la creación del sonido (a diferencia de lo que se ve en las películas; no existe sonido en el vacío del espacio). La hoja del árbol al caer mueve sin duda la masa de aire. El sonido es una vibración que se propaga a través del aire. La emisión de alguna fuente de sonido (tal como la vibración de los músculos de las cuerdas vocales, una cuerda de un violín, la membrana de un tambor, el aire de una tuba o, por qué no, la hoja que cae) perturba las moléculas del aire, que en estado de reposo están distribuidas uniformemente; esto provoca la transferencia de diferencias de presión (rarefracción-baja presión y compresiónalta presión) en todas las direcciones. Estas ondas son análogas a las que se producen cuando se lanza una piedra a un estanque – la perturbación de la piedra provoca que el agua se agite en todas direcciones hasta que la amplitud (o altura) de las ondas es tan pequeña que deja de percibirse. Por otra parte el sonido, al igual que la mayoría de las cosas que llamamos “realidad” es puramente perceptual – en otras palabras, no tenemos forma de saber si lo que escuchamos es precisamente lo mismo que escucha otra persona. Se puede describir técnicamente el proceso de generación física del sonido pero la otra parte de la ecuación es el receptor humano. El proceso de de percepción delPrimero, sonido eseluno los testimonios fascinantes de las maravillas la naturaleza: oídodeexterior es puesto en movimiento físico por las ondas de aire que le llegan. En el oído interno, una serie de órganos muy pequeños convierten estas vibraciones en una diminuta señal eléctrica, la cual es transmitida al cerebro a través del nervio auditivo. El resultado final es la percepción del sonido.
4
Cerebro Nervio Auditivo Movimiento del aire
Oído Interno Tímpano
Cuerdas Vocales Pulmones
La figura muestra un ejemplo de las tres partes que intervienen en el fenómeno sonoro: la fuente (que en este caso es el aparato fonatorio humano), el medio (aire) y el receptor (aparato perceptual auditivo).
5
Amplitud
La amplitud representa la intensidad del sonido; el volumen es la interpretación de esta magnitud por el sistema perceptual auditivo. Como ayuda visual se puede representar el movimiento del aire provocado por la generación del sonido en términos de cuánto aire es movido (o sea, la amplitud de la onda sonora) en un período de tiempo dado. Este tipo de representación gráfica, donde se representa la amplitud en el eje vertical y el tiempo en el eje horizontal es muy utilizada por los programas de edición y grabación de audio digital. Véase el siguiente ejemplo:
La curva varía positivamente (por encima de la línea central) cuando el aire se mueve hacia adelante, y negativamente (por debajo de la línea central) cuando el aire se mueve hacia detrás – recuerde, la vibración de una fuente de sonido provoca un movimiento vibratorio continuo de bombeo (empuje-y-afloja) (que en términos técnicos se denomina compresión y rarefacción) del aire. Cuanto más aire se mueve mayor es la amplitud – el volumen del sonido.
6
El decibelio
La unidad de medida utilizada para describir la amplitud del sonido es el decibelio o su abreviatura dB. Este es un término relativo de medida y, como el oído humano es muy sensitivo a los cambios de amplitud del sonido (somos literalmente capaces de distinguir millones de variaciones), es también logarítmico, en lugar de lineal. En otras palabras, un incremento de amplitud de 3 dB significa realmente un incremento de volumen 2 veces más fuerte; un incremento de 20 dB corresponde a una potencia del sonido 100 veces más fuerte. Rango dinámico
La diferencia entre el sonido más fuerte y más débil que somos capaces de percibir en un momento dado se conoce como rango dinámico, y es un factor muy importante cuando se graba audio digital. Por ejemplo, el rango dinámico de un concierto orquestal en directo está alrededor de 100 dB (o sea, los sonidos más fuertes producidos por una orquesta son miles de veces más fuerte que los sonidos más débiles). Debido a las limitaciones físicas de los discos de vinilo, la reproducción del mismo concierto está limitada alrededor de los 70 dB (las cintas de audio son aún peores). Por otro lado, el CD consigue un rango dinámico de aproximadamente 96 dB – esta es una de las razones por la que el sonido resulta mucho más realista que sus contrapartes analógicos. El DVD Audio y SACD (Super Audio CD) alcanzan valores próximos a los 144 dB en una especie de “vuelta” al dominio analógico desde el digital (lo más parecido a la señal analógica “real”). Trasientes
Los sonidos generalmente se representan como una función del tiempo. La escala de tiempo es más o menos dilatada en dependencia de las características quedeseundeseen Típicamente seubicación, visualizanenvolventes, unos pocos segundos a partir instanteanalizar. dado (para apreciar la etc.) y cuando se desean ver detalles (periodicidad, etc.), es necesario disminuir la escala de tiempos al orden de los milisegundos.
7
La siguiente figura muestra apenas un compás de una sección rítmica
Los instrumentos percutidos tiendenpronunciadas). a producir cambios de bruscos energía del sonido (diferencias de amplitudes Estosbruscos cambios se conocen como trasientes y, como los sistemas de grabación digital tienen mayor rango dinámico que los sistemas analógicos, generalmente realizan un trabajo mucho mejor al reproducir éste tipo de señales complejas.
8
Frecuencia
Otra variable importante que se muestra en estos gráficos de sonido es la frecuencia con la cual el aire es movido hacia delante y hacia detrás. Cada oscilación completa u onda (o sea, cada movimiento movimiento hhacia acia delan delante te – hacia detrás) tarda un cierto período de tiempo en ocurrir. La unidad de medición es el Hertz, o Hz en abreviatura. Un sonido de 1 Hz genera una oscilación completa por segundo. Esto realmente es demasiado bajo para lo que un ser humano comienza a percibir como sonido. El rango del oído humano (conocido como rango audible) generalmente se extiende desde 20 Hz hasta los 20,000 Hz (mil Hertz se conoce como un kiloHertz, o kHz en abreviatura). Esto no significa que no existan sonidos por debajo de los 20 Hz o por encima de los 20 kHz; otros animales pueden oír estas frecuencias subsónicas o supersónicas, aunque nosotros no. El rango audible va disminuyendo según avanza el proceso de envejecimiento, perdiéndose sobre todo la respuesta a las altas frecuencias (la mayoría de las personas con más de 40 años no pueden escuchar frecuencias superiores a los 15 kHz). Nosotros percibimos las frecuencias altas (o sea, más ondas por segundo) con una altura alta o aguda; y por el contrario las frecuencias bajas (pocas ondas por segundo) en altura son percibidas con una altura baja. Este es un sonido que incrementa
9
Y este, un sonido que decrementa en altura:
Una de violín es másdel corta y más delgada la cuerdamás de un chelo; lo que cuerda hace que la cuerda violín vibre a unaque velocidad alta y, en consecuencia, a una frecuencia mayor. Como resultado de estas características el violín crea sonidos con un tono más alto que los producidos por el chelo. Ancho de banda
El rango de frecuencias que podemos oír en cualquier sonido dado es conocido como ancho de banda. Esto no se refiere a que un sonido tenga o no frecuencias por encima de 20 kHz o por debajo de 20 Hz, sino a que no podemos oírlas de ninguna manera. Si una grabación no contiene el ancho de banda audible completo de la interpretación original, simplemente no nos sonará muy realista; por ello la importancia que tiene para cualquier proceso de grabación el retener la mayoría, sino todo del ancho de banda original.
10
Timbre
Además de la descripción preliminar del sonido en términos de su amplitud y frecuencia, cualquier sonido real tiene una cualidad tonal característica, conocida como timbre. Esto se debe a que todos los sonidos que existen en la naturaleza consisten de una combinación de muchas frecuencias diferentes, conocidas como armónicos. La potencia de estos armónicos, así como la frecuencia real de cada uno, es lo que determina el timbre del sonido. El timbre es reflejado en la forma de la onda (o sea, el gesto del movimiento del aire). De modo práctico digamos que el timbre es lo que permite diferenciar los sonidos emitidos por un violín y los de un saxofón tenor; aún cuando tengan la misma altura o frecuencia fundamental. Los sonidos dulces y suavizados tienden a tener formas de ondas muy pronunciadas. Para ilustrar esto veamos el aspecto de una onda producida por una flauta:
Por el contrario los sonidos ásperos y estridentes tienden a tener formas de ondas temblorosas y rizadas. Por ejemplo la forma de onda producida por un saxo:
11
Periodicidad
Observe, quedeambos, flautacaracterística y el saxo, muestran regularidadsinenembargo, su forma onda. laEsta conocida cierta como periodicidad, es compartida por todos los sonidos musicales, y es lo que permite identificar claramente la altura. Por el contrario, los sonidos que no tienen una altura fácilmente perceptible (o sea, sonidos no – musicales) no tienen formas de ondas regulares, se dice que son aperiódicos. Por ejemplo observe el aspecto de un sonido producido por un instrumento de percusión:
12
Envolvente
Es importante reconocer que la mayoría de los sonidos no permanecen estáticos mientras duran, de hecho son más interesante los que varían con el tiempo. En la mayoría de los sonidos naturales la complejidad tímbrica incrementa durante el período de ataque inicial, en comparación con el período sostenido posterior. Compare, por ejemplo, el ataque de una nota de un piano.
Con la progresión de la misma nota del piano un segundo más tarde
13
Se suele considerar como envolvente al cambio de volumen del sonido en relación con el tiempo. En realidad esta es una definición matemática simplificada si tenemos en cuenta que no sólo varía la amplitud del sonido durante su desarrollo. En la mayoría de los instrumentos tradicionales cada armónico evoluciona con una envolvente diferente denominada envolvente de filtro/tono o envolvente de modulador . Los sonidos naturales suelen tener envolventes complejas. La envolvente de volumen suele ser sintetizada a partir de unos pocos parámetros con bastante naturalidad
Retardo
Retención Ataque
Sostenido Caída
Desvanecimiento
El retardo es el tiempo de demora que transcurre antes de comenzar a evolucionar el sonido. El ataque determina la cantidad de tiempo que tarda el sonido en alcanzar su nivel máximo. Esta fase resulta de gran interés para determinar la cualidad de un sonido dado: los instrumentos de cuerda y de membrana (clarinete, etc.) tienen a menudo un ataque bastante prolongado a diferencia de los instrumentos percutidos que tienen un ataque rápido. La retención es el tiempo que permanece el sonido en máxima intensidad. El valor caída determina el tiempo que tarda el sonido en disminuir su intensidad de desde su máxima amplitud. Cuanto más pequeño sea el tiempo de caída, más se acorta el sonido, haciéndose cada vez más percutido. El tiempo de sostenido es donde realmente se manifiesta el carácter periódico de un sonido. Los instrumentos percutidos, por ejemplo, suelen tener un tiempo de sostenido o régimen permanente muy corto a diferencia de las notas tenidas de un violín. El tiempo de desvanecimiento, extinción o liberación determina cuanto tarda el sonido en desaparecer, una vez retirada la fuente de sonido (e.g., cuando levantamos los dedos de las teclas del piano).
14
Ruido
El ruido es un tipo muy especial de sonido que presenta armónicos con características de frecuencia y amplitud aleatoriamente distribuidas. El ruido es caótico y no presenta ningún carácter periódico. Por lo tanto, no tiene una altura o frecuencia determinada. Relación Señal/Ruido
Dada la escasa probabilidad de conseguir un entorno de audio digital perfectamente silencioso, lo que verdaderamente preocupa no es si existe o no ruido (sabemos que existirá siempre) sino cuánto ¿Qué cantidad de ruido existe en relación con la señal de interés? Una de las medidas ampliamente utilizadas es la relación Señal/Ruido (S/N – Signal Noise Rate) que mide la relación de potencias entre ambas fuentes. Cuanto mayor sea la S/N, mejor será la calidad del sonido. La S/N se mide en decibelios. Para propósitos musicales el límite de aceptación de la S/N es de 65 dB; mientras que 70 dB se considera suficiente. Distorsión
Se considera por distorsión los cambios que se producen entre los componentes armónicos de una señal al atravesar un medio (como puede ser el paso entre los convertidores A/D – D/A). La distorsión se mide en porcentaje. A diferencia de la S/N la magnitud de la distorsión es mejor mientras más pequeña sea. Una medida popular de la distorsión es la distorsión armónica total (THD). Se considera aceptable un valor de THD de 0.5 % y óptimos valores de THD inferiores a 0.1 %.
15
Tema
03 Grabación Analógica/Digital El debate de “¿Cuál sonido es mejor: analógico o digital?”, tan intenso durante la década de los 80, no está agotado. Desde el punto de vista subjetivo poco o nada hay que decir; pero, al menos desde el punto de vista técnico, el audio digital es superior en cuanto que provee un ancho de banda extendido, un rango dinámico mucho más cercano a la realidad acústica, y un decremento significativo en cuanto a distorsión y ruido. Además, el audio digital provee al usuario de un control mucho más refinado del sonido (la mayoría de los editores de audio digital disponibles en el mercado permiten incluso la edición a nivel de muestra). Desde el punto de vista estético es importante destacar que cualquier tipo de grabación de audio está relacionada necesariamente con algún grado de ilusión. Cuando escuchamos la grabación de una orquesta sinfónica, aunque sabemos que la orquesta efectivamente no está presente, si la grabación es lo suficientemente buena, podríamos sentir la sensación de tener los músicos interpretando en la propia habitación. La grabación digital permite hacer esta experiencia mucho más real. Grabación Analógica
Hasta finales de los 80s, virtualmente toda la grabación de audio fue realizada con la denominada tecnología analógica (el término análogo significa simplemente “similar” o “como”). El proceso de grabación analógica requiere del uso de un micrófono (técnicamente conocido como transductor ) para convertir las vibraciones del aire provocadas porde la la fuente de sonido en señales eléctricas analógicas equivalentes. Los cambios amplitud de la señal eléctrica varían en el tiempo siguiendo las vibraciones del aire original. Esta señal es amplificada, normalmente por la circuitería de una consola de mezcla (conocida como preamplificador ) y encaminada a los procesadores de señal analógicos necesarios. Estos procesadores de señal manipulan la señal eléctrica en un número de formas interesantes. Por ejemplo, los ecualizadores cortan o realzan diferentes áreas de frecuencia, los compresores/limitadores/expansores alteran el rango dinámico, etc. Finalmente, la señal procesada normalmente es enviada a la cabeza de grabación de un grabador analógico multipista de cinta – esencialmente un dispositivo electromagnético capaz de convertir la señal eléctrica en fluctuaciones magnéticas. Estas fluctuaciones continuas son grabadas en una sección (pista) de un rollo de cinta magnética que pasa por la cabeza de grabación a determinada velocidad.
16
El proceso de reproducción asegura el movimiento de la cinta por una cabeza de reproducción que realiza esencialmente la función inversa de la cabeza de grabación – las fluctuaciones magnéticas plasmadas en la cinta al pasar por el cabezal de reproducción generan una señal eléctrica (analógica) equivalente, con el mismo tipo de fluctuaciones. Esta señal eléctrica es encaminada a una consola de mezcla donde puede ser combinada (mezclada) con otras señales (normalmente provenientes de otras pistas de la cinta) y reprocesada si es necesario antes de enviarla nuevamente a la cabeza de grabación de un grabador de cinta maestra de dos – pistas.
Micrófono Cabeza de grabación Grabadora de cinta multipista
Mezclador
Procesadores de Señal
En cualquier punto del proceso de grabación o reproducción el ingeniero puede escuchar la señal eléctrica (monitoreo) enviándola a un altavoz o auriculares. Estos dispositivos son esencialmente el lado opuesto al micrófono – convierten la señal eléctrica en movimiento físico, provocando un sonido perceptible. Como sabemos, las grabaciones analógicas no suenan realmente todo lo real que quisiéramos. Por una parte, cualquier etapa del proceso de grabación y reproducción añade un grado de ruido y distorsión a la señal. Por otra, las limitaciones del medio de grabación de cinta analógica y vinilo se perciben en una recepción incompleta del ancho de banda de la grabación original. Finalmente, siempre está presente el ruido de la superficie del vinilo (o el silbido de la cinta analógica), siempre con algún grado de detrimento de la ilusión de realidad que una buena grabación debe entregar.
17
Grabación Digital
El proceso de grabación digital arranca igual que la grabación analógica estándar: se emplea un micrófono para convertir la vibración física del aire en una señal eléctrica equivalente. Posteriormente, esta señal es pre-amplificada, normalmente por la circuitería de una consola de mezcla y, si lo requiere, puede ser alterada por diversos procesadores de señal analógicos. Luego, ésta es enviada directamente al grabador de audio digital, donde, primero pasa a través de un tipo especial de filtro analógico (conocido como filtro anti-solapamiento) (anti-aliasing) y luego a un dispositivo conocido como conversor analógico-digital (a veces llamado conversor A/D, o ADC) – todo ello integrado en la misma interfaz. Este extraordinario dispositivo tiene la función de “tomar instantáneas” de la señal eléctrica en intervalos de tiempo regulares muy cortos (típicamente milésimas de segundo) y genera una secuencia de números equivalentes al voltaje “observado” en cada intervalo. Para completar el proceso de grabación, los números generados por el ADC son almacenados en algún medio como puede ser un disco duro, un DAT (Digital Audio Tape – Cinta de Audio Digital) u otro medio de almacenamiento digital (el disco duro suele ser superior a los otros medios). Sin embargo, independientemente del medio empleado, lo que distingue los grabadores digitales y analógicos es que los sistemas digitales almacenan números, en lugar de una representación magnética del propio sonido. Micrófono
Señal Analógica
Filtro Anti-Solapamiento Señal Analógica ADC Señal Digital Medio de Almacenamiento
Mezclador
Grabador de Audio Digital
Estos números pueden ser manipulados de diferentes maneras, utilizando lo que se conoce como Procesado de Señal Digital (DSP en abreviatura – Digital Signal Processor). La ventaja del DSP sobre el procesado de señal analógico es doble: Uno, el usuario tiene un control extraordinariamente fino; y, dos, virtualmente no existe degradación de la señal como resultado de su procesamiento. La señal digital puede ser transferida directamente a una cinta digital multipista, de dos – pistas (DAT – Digital Audio Tape), o un CD grabable (CD-R), utilizando, ya sea la interfaz AES/EBU, S/PDIFiLink, ó algún protocolo de comunicación de ordenador importado: USB, Firewire, mLAN, etc.
18
Para oír la señal de audio digital es necesario reconvertirla nuevamente a una señal eléctrica analógica. Esta función la realiza un dispositivo llamado conversor digital-analógico (conversor D/A o DAC), y es justamente la función inversa del ADC; la señal se filtra a priori a través de un filtro de alisamiento, suavizado o de recuperación, el DAC recibe la secuencia continua de números desde el medio de almacenamiento masivo y genera un voltaje equivalente a cada número recibido. Este voltaje es enviado a un altavoz o auricular, donde la señal es una vez más reconvertida a la vibración física del aire, la cual percibimos como sonido.
Grabador de Audio Digital Medio de Almacenamiento Señal Digital Filtro de Suavizado Señal Digital
Altavoz Sonido
DAC Señal Analógica
19
Tema
04 Muestreo La operación del ADC de convertir una señal eléctrica en una secuencia de números se conoce como muestreo, y la frecuencia a la cual el ADC adquiere éstas “instantáneas” se conoce como frecuencia de muestreo. La frecuencia de muestreo específica utilizada en la mayoría de los grabadores de audio digital es determinada por el usuario y a menudo cambia de proyecto en proyecto. La selección de la frecuencia de muestreo es siempre un factor de suma importancia en la calidad del sonido final. Ocho frecuencias de muestreo típicas usadas en el audio digital son: 192 kHz (o sea, 192 000 muestras por segundo), 96 kHz, 48 kHz, 44.1 kHz, 32 kHz y 22.05 kHz, 16 kHz y 8 kHz. A mayor velocidad de muestreo, mayor precisión en la reproducción digital de la señal eléctrica; toma más “instantáneas” en un período de tiempo dado. El aumentar la frecuencia de muestreo dará como resultado una onda que se parece cada vez más a la señal original, logrando un sonido más preciso y limpio. Sin embargo, al aumentar la velocidad de muestreo, el ADC genera un mayor número de muestras en un período de tiempo dado. Esto es muy importante tenerlo en cuenta porque todos esos números tendrán que ser almacenados en alguna parte, y, en un momento dado, existe sólo una cantidad finita de espacio disponible. De manera tal que, frecuencias de muestreo más bajas permiten almacenar un mayor número de datos a costa de reducir la calidad del sonido, mientras que frecuencias de muestreo altas permiten obtener la mejor calidad de sonido pero requieren de capacidades de almacenamiento altas. Teorema de Nyquist
Existe una formulación matemática denominada Teorema de Nyquist que establece que el ancho de banda de la señal obtenido está por debajo de la mitad de la frecuencia de muestreo. Como hemos visto, los humanos podemos (como mucho) oír frecuencias de hasta 20 kHz; por lo tanto, para producir una señal que contenga el ancho de banda completo del sonido acústico natural, se necesita utilizar una frecuencia de muestreo mayor del doble. Los CDs emplean 44.1 kHz mientras que los grabadores DAT profesionales emplean 48 kHz. Las frecuencias de muestreo más bajas – 32 kHz, 22.05 kHz (mitad de la frecuencia de muestreo estándar CD 44.1a grabar kHz), 16 y 8 kHz – se emplean satisfactoriamente cuando del las señales sonkHz de ancho de banda
20
limitado (por ejemplo, la voz humana) o cuando serán reproducidas en altavoces de baja fidelidad. Probablemente puedan ser útiles en aquellos casos de capacidad de almacenamiento en disco duro muy crítica. De acuerdo al teorema de Nyquist no hay que perder de vista que una señal muestreada a 16 kHz tiene un ancho de banda de alrededor de los 8 kHz y a 8 kHz de aproximadamente 4 kHz (calidad telefónica). Resolución
Los ordenadores realizan su “magia” reduciéndolo todo a una serie de números. Más concretamente, utilizan el sistema binario de numeración, el cual emplea sólo dos números – cero, representa el estado “apagado” y uno, representa el estado “encendido”. A esta unidad mínima de representación de la información se le conoce como bit (dígito binario). Cualquier número decimal puede ser representado en el sistema binario o de base dos. Cuanto más grande sea el número a representar mayor será la cantidad de bits necesarios para representarlo. En otras palabras, un ordenado ordenadorr que trabaje sólo con números de cuatro bits sólo podrá representar los números decimales del 0 al 15; un sistema que trabaje con ocho bits sólo puede representar números decimales entre 0decimales y 255; uncomprendidos sistema que trabaje con doce bits sólo puede comprendidos representar números entre 0 y 4095; y un sistema que trabaje con dieciséis bits puede representar números decimales comprendidos entre 0 y 65535 (conjunto de 2N números si N es el número de bits). Se conoce por resolución al número de bits utilizados por el sistema de grabación digital para representar la señal eléctrica analógica, y éste es el segundo factor crítico (el primero era la frecuencia de muestreo) en la calidad del sonido producido. Para comprender por qué, veamos un ejemplo visual. Aquí tenemos una escala de grises que muestra un amplio rango de valores desde el negro puro al blanco puro.
21
Ahora supongamos que “muestreamos” la imagen visual con un ordenador (proceso conocido como rastreo) (scaning), pero nuestro hipotético ordenador tiene sólo resolución de un bit; en otras palabras, sólo puede tratar con los valores uno y cero. El resultado final será que cualquier valor de gris por debajo del 50 % será almacenado como 0 (negro) y cualquier valor de gris por encima del 50 % será almacenado como 1 (blanco). La imagen rastreada por consiguiente tendrá el siguiente aspecto:
¿Se parece al original? Nada. Ahora bien, si nuestro ordenador dispone de cuatro bits de resolución en lugar de uno, podemos obtener hasta dieciséis tonalidades de grises diferentes, en el rango desde el 0 (negro puro) hasta el 15 (blanco puro):
Mucho mejor, pero aún no se parece nada al original. Si suponemos que nuestro ordenador dediferentes, dieciséis bits podríamos tonalidadesdispone de grises estade vezresolución en el rango desde elobtener 0 (negro65,535 puro) hasta 65,535 (blanco puro):
22
Bien. Aumentando la cantidad de bits de resolución se ha conseguido capturar la imagen original perfectamente (al menos lo perfectamente suficiente como para lo que es capaz de distinguir el ojo humano). Algo similar ocurre cuando se digitaliza una señal de audio: cuantos más bits se utilicen mayor será el parecido de la forma de onda final con la forma de onda original.
Entrada Analógica
Salida Digital
También, cuanto más bits se utilicen, mayor será el rango dinámico de la señal final (Observe que en el diagrama anterior la resolución aumenta hacia abajo). Dieciséis bits de resolución permiten, en teoría, un rango dinámico de 96 dB (considerablemente más alto que el obtenido en la grabación analógica) y veinticuatro 144 dB. Se puede considerar que cada bit aporta, aproximadamente, 6 dB.
23
Filtrado
Todos los sistemas de audio digital utilizan en ambos procesos de grabación y reproducción unos componentes conocidos como filtros. Al igual que el filtro del café elimina las borras indeseadas, un filtro de audio elimina los componentes frecuenciales indeseables. En audio digital, uno de los filtros de mayor interés es paso-bajo el llamado . Este filtro elimina los componentes la señal que filtro sobrepasen una frecuencia de corte y permite elfrecuenciales paso a todasdelas componentes frecuenciales inferiores a la frecuencia de corte.
Los filtros son muy necesario para neutralizar dos problemas potenciales del audio digital: el solapamiento (aliasing) y el ruido de cuantificación. Solapamiento
Como se vio antes, el teorema de Nyquist determina como se puede reconstruir una señal a partir de sus muestras. Cualquier sistema de grabación digital sólo puede muestrear frecuencias con precisión hasta la mitad de la frecuencia de muestreo; por ejemplo, si la frecuencia de muestreo es de 44.1 kHz, sólo podrán ser muestreadas con precisión aquellas que no sobrepasen los 20 kHz. Si se intenta muestrear frecuencias más como altas que la mitad de de baja la frecuencia muestreo, el sistema las reproducirá componentes frecuencia de y, 1 como resultado, generará frecuencias audibles espúreas . Este fenómeno se conoce como solapamiento o aliasing (en la literatura anglosajona). El solapamiento obviamente produce distorsión. La solución es insertar un filtro paso-bajo analógico (conocido como filtro anti-solapamiento) justo antes del muestreo de la señal para limitar la señal en banda. La frecuencia de corte de este filtro es establecida a un valor aproximadamente igual a la mitad de la frecuencia de muestreo: Señal Analógica
Filtro Anti-Solapamiento
Señal Analógica ADC Señal Digital Medio de Almacenamiento
1 Un efecto similar ocurre cuando vemos moverse lentamente la rueda de un coche en movimiento a una velocidad considerable.
24
El filtro anti-solapamiento asegura que en la señal a muestrear no existan frecuencias por encima de la mitad de la frecuencia de muestreo (esté limitada en banda) y, por lo tanto, cualquier problema de solapamiento es reducido a valores insignificantes. Ruido de cuantificación
El segundo problema potencial en un sistema de grabación digital es conocido como ruido de cuantificación. El ruido de cuantificación es una distorsión de la señal original debido al hecho que el ADC está recibiendo una señal eléctrica variable continua y sólo puede asignar a cada muestra un número finito de valores. En sistemas de dieciséis bits de resolución, por ejemplo, existen “sólo” 65,536 valores disponibles, y es posible, que en cualquier instante de tiempo dado, la señal analógica tenga algún valor intermedio entre dos niveles posibles. Cuando esto esto ocurre el sistema simplemente redondea redondea “por exceso” o “por defecto” y genera el valor más próximo disponible. No está mal, pero no es totalmente preciso. Cuando se envía al DAC un valor ligeramente incorrecto durante la reproducción, se generará una señal analógica que está cerca, pero no es la misma, que la original. En sistemas de ocho – o doce – bits esto provoca la audición de algunos ruidos audibles. En sistemas de dieciséis bits el error denocuantificación sóloseproduce ligeras deformaciones apenas perceptibles pero la perfección que espera tener. Este problema se soluciona añadiendo al sistema otro filtro (conocido como filtro de suavizamiento o filtro anti-imagen), justo después del DAC.
25
Tema
05 Análisis/Síntesis Toda la síntesis digital está elaborada sobre un modelo. Este modelo expresa en lenguaje matemático el conocimiento de la naturaleza del sonido y permite el cálculo de nuevos sonidos con prácticamente cualquier ordenador. El análisis es justam jus tament entee eell proc proceso eso com comple plemen mentar tario io que per permit mite e extr extraer aer ese mod modelo elo.. Análisis de Fourier
El análisis de una forma de onda compleja es un método de representación matemática de ese sonido. Fourier demostró que cualquier forma de onda compleja se puede descomponer en una serie infinita de ondas de forma sinusoidal que varían conlaelserie tiempo fase, se amplitud y frecuencia. Cuando se habla de ondas sonoras denomina . Los deen Fourier serie armónica armónicos son el equivalente auditivo de los colores fundamentales. De la misma manera que es posible descomponer cualquier color en una combinación de los colores fundamentales, todo sonido puede descomponerse en una serie de sonidos simples.
La imagen muestra el análisis de Fourier de la voz muestreada. Se puede observar el predominio de las bajas frecuencias situadas de 0.5 kHz a 1 kHz en la composición del sonido. El análisis es importante porque nos permite comprender la composición armónica del sonido. Muestra la amplitud de cada componente armónico en cada instante de tiempo.
26
Otra representación habitual del análisis de Fourier es la proyección bidimensional del espectro (la imagen anterior corresponde al mismo análisis de la voz muestreada). Esta representación destaca la descomposición armónica y la evolución de los formantes (líneas de mayor energía – en rojo). Las frecuencias de los instrumentos armónicos, excepto los de percusión, se aproximan siempre a un múltiplo entero de la l a frecuencia fundamental.
El análisis de Fourier del ruido muestra la distribución uniforme de la amplitud de los componentes armónicos en todo el espectro. Desaparecen las relaciones de amplitudes entre armónicos y por consiguiente la percepción de la altura. Cada forma de onda tiene su propia “personalidad” armónica que la herramienta de análisis permite distinguir.
27
Análisis Coclear
El análisis coclear simula el comportamiento del sistema perceptual auditivo. Los órganos y mecanismos que nos permiten “oír” son muy complejos y no del todo conocidos. Las ondas de presión sonora que se propagan por el aire inciden en el pabellón auditivo y viajan, a través del oído externo, hasta el tímpano (una membrana muy fina en la frontera del oído medio). El oído medio contiene una cadena de huesecillos que actúa como transductora de las vibraciones que llegan desde el exterior. El oído medio está cerrado herméticamente; aunque dispone de un canal que comunica con la garganta llamado trompa de Eustaquio. La apertura de este durante breves lapsos de tiempo compensa los excesos o defectos de presión y sirve al oído como conducto de drenaje. La siguiente imagen muestra el análisis de la voz muestreada del ejemplo anterior según el método de Lyon. 4 35 3 25 2 15 1 5 H z
2
4
6
s
Los huesecillos del oído medio (martillo, yunque y estribo), actúan como un sistema de palancas y comunican la vibración mecánica desde el tímpano (sobre el que se apoya el martillo) hasta la cóclea o caracol, a través de la ventana oval (sobre la cual se apoya el estribo). La cóclea es el único órgano responsable de la audición en el oído interno. En ella se produce la conversión (mecánicoeléctrica) de la señal analógica a miles de señales nerviosas que viajarán por el nervio auditivo hacia el cerebro. Estas señales, que por la naturaleza neuronal son de tipo digital (trenes de pulsos), codifican adecuadamente toda la información de interés de la señal original para que el cerebro pueda interpretarla.
28
La cóclea es una estructura, con forma de tubo cónico alargado, enrollada sobre sí misma en forma de espiral. Si se observa una sección transversal de la cóclea se pueden apreciar las tres cámaras que la recorren en toda su longitud: dos canales y el conducto coclear. La cóclea está llena de líquido (una especie de solución salina) y rodeada por paredes óseas rígidas. Apoyado en la membrana basilar se encuentra el complejo y delicado órgano de Corti, que contiene varias filas de diminutas células vellosas a las cuales se conectan las fibras nerviosas. Cada fila de células vellosas contiene unas 7000 células, con un total de 24000 células en varias filas. Cada célula vellosa posee numerosos cilios, que se doblan cuando la membrana basilar responde a un sonido, y desencadena una señal nerviosa en el nervio auditivo. En la cóclea tiene lugar un análisis espectral. En función de la frecuencia de la señal, la vibración se localiza a lo largo de la membrana basilar excitando unas u otras fibras nerviosas (correspondientes a las diferentes frecuencias). Asimismo, cuanto mayor sea la amplitud de la vibración, mayor será el número de fibras nerviosas estimuladas. Según el patrón de vibración en el interior de la cóclea, la respuesta de cada fibra nerviosa corresponde a la de un resonador selectivo sintonizado a diferentes frecuencias en función de la posición que ocupa cada terminación nerviosa a lo largo de la membrana basilar (teoría del lugar). Las bandas de filtrado no son lo suficientemente estrechas para justificar la percepción precisa del tono y se denominan bandas críticas. Síntesis Aditiva
La síntesis aditiva es el proceso inverso del análisis; un método de reconstrucción de formas de ondas complejas a partir de la suma de un conjunto finito de componentes sinusoidales; el proceso mediante el cual se obtiene la serie armónica especificando amplitud, frecuencia y fase de cada componente. Se debe tener en cuenta que los parámetros de cada armónico varían con el tiempo; es decir, cada armónico tiene su correspondiente envolvente de amplitud y frecuencia. Por lo tanto, la síntesis aditiva es un procedimiento de “fabricación” de sonidos de cualquier tipo gracias a un modelo matemático. Cuando se desea recrear un sonido natural es necesario encontrar la composición armónica del sonido. Esta búsqueda es muy laboriosa porque los parámetros son muy numerosos, aunque frecuentemente se les limita a 64 ó 128 armónicos para representar un sonido. Resíntesis
El análisis y la síntesis son procedimientos complementarios. Los datos de un sonido extraídos del análisis pueden servir para resintetizarlo. En lugar de buscar la creación de un sonido por tanteos sucesivos, el proceso análisis-resíntesis facilita la reconstrucción sintética de los sonidos naturales. A diferencia del sonido muestreado, el sonido sintetizado puede modificarse a voluntad. Es suficiente modificar la amplitud o frecuencia de uno o varios componentes armónicos de un sonido para cambiar su timbre. Por lo tanto, es posible obtener nuevos sonidos sintéticos partiendo de los sonidos existentes en la naturaleza.
29
Síntesis Substractiva
La síntesis substractiva es la forma más generalizada de síntesis analógica, aunque no de manera exclusiva; también se puede conseguir mediante técnicas digitales. El principio de la síntesis substractiva es eliminar, mediante filtros selectivos, componentes armónicos generados a partir de un oscilador generador de formasdedelaondas (sinusoidales, cuadradas, diente de sierra, etc.). La evolución amplitud se consigue mediantedeun generador de envolventes (modulador de amplitud). Los timbres se obtienen a partir de formas de ondas complejas y por lo tanto, ricas en armónicos y luego se substraen ciertas porciones de su estructura armónica mediante filtros. Síntesis FM
La síntesis por modulación de frecuencia, al igual que la síntesis aditiva emplea componentes sinusoidales como elementos básicos. Pero estas componentes no se suman para crear formas de ondas más complejas. La síntesis FM se sirve de un elemento sinusoidal para modular la frecuencia de otro; dos componentes FM son suficientes para crear una serie armónica. Todos los componentes sinusoidales se denominan operadores. Al operador que es modulado se le denomina portador y al operador operador que modu modula la al otro modulador . Cuando el portador se modula, varía su frecuencia. Esta variación de frecuencia se repite regularmente en el tiempo a la frecuencia del modulador. Cuando la frecuencia del modulador es muy baja (menos de 20 Hz), una modulación débil se percibe como un vibrato. Cuando la frecuencia de modulación es alta, el vibrato es tan rápido que percibimos varias frecuencias simultáneamente, es decir, escuchamos los armónicos.
Moduladores
Portador
2
3
4
1
La amplitud del modulador determina la cantidad de armónicos producidos por un par de operadores. La amplitud del portador determina el volumen. Si se utiliza una envolvente para hacer variar la amplitud, esta no va a modificar la cantidad de armónicos y por lo tanto el timbre producido.
30
Este método, respecto a otros tipos de síntesis, admite una economía de medios considerable; dos operadores y dos envolventes de amplitud son suficientes para la creación de sonidos muy complejos. La síntesis por FM además permite un control global y preciso al mismo tiempo sobre los timbres sin la necesidad de manejar un número considerable de parámetros. Algoritmos
Los algoritmos constituyen las diferentes combinaciones de operadores portadores y moduladores disponibles. Los operadores portadores están situados en el nivel inferior, y los moduladores encima. Cada algoritmo es útil para la creación de determinados tipos de timbres. Los algoritmos no están limitados a un sólo nivel de modulación. Varios moduladores pueden modular cada uno a la misma portadora, como el ejemplo del algoritmo anterior. Para crear timbres aún más complejos, que los obtenidos por un simple par de operadores, se pueden utilizar algoritmos de operadores moduladores a su vez modulados como el caso del siguiente algoritmo que emplea seis operadores con varios niveles de modulación:
Modulador 2
3
6
Modulador 1
2
5
Portador
1
4
La multiplicación de los operadores no es la única forma de hacer más complejos los sonidos que se pueden generar por el principio de modulación de frecuencia. Otra manera de obtener timbres complejos consiste en limitar el número de operadores a cuatro y utilizar formas de ondas complejas en lugar de limitarse a formas sinusoidales como elementos básicos. Síntesis por Distorsión de Fase
Este método, introducido por Casio en 1984, se base en la modulación de la fase (muy similar a la síntesis por modulación de frecuencia). Se basa en modificar la fase de una señal sinusoidal en el tiempo, según se reproduce, para cambiar su forma.
31
Síntesis por Tabla de Ondas
La síntesis por tabla de ondas2 (Wavetable) consiste en la reproducción de una secuencia de señal digital almacenada previamente en una tabla. Los sintetizadores por tabla de ondas “leen” cualquier fuente de sonido (digitalizada mediante convertidores A/D) o secuencia generada artificialmente, almacenada en algún tipo de soporte (memoria RAM (Random Access Memory), ROM (Read Only Memory), HDs (Hard Disk), etc.) y aplican algún tipo de procesado de señal, mediante técnicas digitales (muchos permiten la generación y control de efectos en tiempo real) antes de la reproducción analógica del sonido (mediante convertidores D/A). Los sintetizadores por tabla de ondas no necesitan tener almacenadas las muestras de cada una de las notas de un instrumento y en principio bastaría sólo una nota para poder reproducir el registro completo de un instrumento. La velocidad de reproducción de la tabla determina la altura. A mayor velocidad, el mismo sonido sonará más agudo y a menor velocidad más grave. Típicamente los dispositivos de síntesis por tabla de ondas incluyen procesadores de señal digital capaces de realizar, mediante algoritmos previamente programados, estas yinstrumento muchas otras aplicaciones en tiempo real. La generación de cualquier nota del a partir de una nota base se realiza mediante complejos algoritmos de cambio de frecuencia de muestreo donde intervienen diezmadores, interpoladores y filtros digitales. Este método típicamente no se realiza de esta manera, porque los instrumentos reales, aunque mantienen una serie de características tímbricas en todo el registro, en realidad varían armónicamente de sección en sección. Si analizamos todas las notas generadas por un piano (por ejemplo) en igualdad de condiciones notaremos que las envolventes varían entre las diferentes secciones (una sección es un conjunto de notas con características tímbricas muy similares). La mayoría de los sintetizadores por tabla de ondas permiten combinar diferentes muestras con las diferentes secciones del instrumento, logrando la imitación casi perfecta de un instrumento (en principio se puede tener el instrumento muestreado nota a nota – sobre todo los samplers basados en disco duro) y no sólo eso sino también la mezcla con otras muestras lo que permite obtener un conjunto ilimitado de sonidos. Debido a la limitada cantidad de memoria que utilizan los instrumentos por tabla de ondas, es común simular los sonidos sostenidos mediante la repetición de un segmento de muestras bastante corto. A estos fragmentos se les denomina bucles (loops). Esta técnica precisa una selección muy cuidadosa de los puntos inicial y final del bucle, que típicamente coinciden con puntos de amplitud nula (cruces por cero) (algunos sonidos de percusión se pueden enlazar escogiendo dos puntos de máxima amplitud). 2
Este tipo de síntesis también se conoce por síntesis PCM. La modulación de impulsos codificados (Pulse Code Modulation - PCM) no es una forma de síntesis, sino una forma de gestión del sonido (grabación - reproducción digital del sonido). La analogía se establece por el uso como de muestras digitalizadas en la síntesis por tabla de ondas.
32
Síntesis por Modelado Físico
En realidad la síntesis por modelado físico no es un tipo específico de síntesis sino, más bien, una colección de técnicas que permite la simulación de los instrumentos musicales acústicos. El método clásico de modelado físico define un de ecuaciones matemáticas el comportamiento acústico delsistema instrumento. Estos sistemas suelenque ser describe muy complejos, costosos (desde el punto de vista computacional) y difíciles de comprender por los músicos. Los métodos alternativos modularizan las ecuaciones en bloques funcionales. El objetivo de la síntesis por modelado físico es producir una emulación convincente de la mayoría de los instrumentos acústicos a la vez que permite el diseño de instrumentos virtuales imposibles de construir. Por ejemplo, guitarras con la caja de cáscara de huevo, xilófonos de hueso o cristal, flautas de varios metros de largo, etc.
33
Tema
06 Procesado Digital de Señal Aunque el procesado digital de señal está típicamente relacionado con dispositivos especializados (Digital Signal Processor – DSPs) para realizar millones de operaciones en coma flotante por segundo, en realidad procesado digital de señal es cualquier transformación que se realice sobre el sonido digitalizado. Aunque el proceso o algoritmo que se aplique a las muestras puede ser muy diverso según el objetivo que se pretenda, existen un grupo de utilidades indispensables en cualquier sistema de audio digital dentro de las cuales cabe mencionar los efectos. Estos algoritmos pueden operar en tiempo real (a menudo en DSPs) o en tiempo diferido (en microprocesadores de propósito general antiguos)3. La aplicación de los algoritmos de procesado en cualquier caso depende de la velocidad de proceso disponible y no de la propia naturaleza de los algoritmos. Ecualización
La ecualización es una técnica que modifica el contenido armónico de la señal provocando realces y atenuaciones en diferentes bandas de frecuencia. Todos los tipos de ecualización son formas de filtrado. Se pueden distinguir dos clases de ecualizadores diferentes: el ecualizador gráfico y el ecualizador paramétrico y la combinación de ambos: el ecualizador paragráfico. La diferencia fundamental entre ambos reside en el hecho de que el primero ecualiza siguiendo cortes de frecuencias fijos mientras el segundo permite realizar una definición precisa de la magnitud de las frecuencias que se desea modificar. La ecualización gráfica consta de un conjunto de filtros con ancho de banda de igual anchura logarítmica (hay ecualizadores de octava, de media octava, de tercio de octava). Un ecualizador paramétrico, es un ecualizador de pocas bandas (entre 1 y 3 es lo corriente), pero en el que los parámetros ajustables de cada banda son mucho más que tan sólo la ganancia (de ahí su nombre).
3
La frontera entre los DSP y los microprocesadores de propósitos generales es cada vez más débil. El aumento de capacidad de cálculo de los ordenadores y la incorporación de operaciones matemáticas específicas de los DSP han mermado la necesidad de los DSP (en otras palabras ya no es necesario descargar al ordenador de proceso).
34
Se puede gobernar la frecuencia central, la ganancia y la Q del filtro (su factor de calidad o resonancia: relación entre la frecuencia central y el ancho de la banda de paso cuando la ganancia cae 3 dB). Permiten una selectividad mucho mayor que los gráficos. Barrido de Frecuencia
El barrido en frecuencia se consigue con un filtro paso-bajo con frecuencia de corte variable que oscila cíclicamente bajo control de un oscilador de baja frecuencia (LFO – Low Frequency Oscillator). Wha-Wha
El Wha-Wha es también un filtro (en este caso resonante) en el que la l a frecuencia central se mueve cíclicamente bajo control de un oscilador de bajas frecuencias y en el que el factor de resonancia es elevado Vocoder
Este efecto trata de imponer la envolvente espectral de una señal de control, sobre la señal que realmente se procesa (multiplicación en el dominio de la frecuencia). El primer uso del vocoder fue hacer que los instrumentos hablaran, pronunciando palabras. La calidad e inteligibilidad dependen del carácter del instrumento (los instrumentos de espectro amplio, ricos en armónicos, dan lógicamente mejores resultados). Reverberación
Las unidades de reverberación simulan o recrean las características reverberantes de distintos recintos. Los algoritmos de reverberación deben emular el comportamiento del sonido en una pequeña habitación, en una sala de conciertos, en una catedral, etc. La reverberación además puede mejorar la definición y separación de los diferentes instrumentos en una grabación y crear espacios imposibles o inaccesibles, introducir ciertas ilusiones psicoacústicas, etc. Eco
El eco (delay) reproduce el comportamiento del eco natural realimentando a su entrada una réplica de la señal pasado un cierto tiempo. En los algoritmos del eco intervienen al menos los siguientes elementos: el retardo, la mezcla de la señal diferida y la original y, finalmente, el porcentaje de realimentación (típicamente una función del tiempo).
35
Coro
El coro (chorus) es, al igual que la reverberación y el eco, un efecto cuya estructura incluye la utilización del retardo. r etardo. Se trata de un mecanismo que crea la sensación de la existencia de varios ejecutantes tocando la misma línea, y recreando al mismo tiempo, las variaciones lógicas que cabe observar en un mismo fragmento varios Esto se consigue aplicando un retardo corto interpretado a la señal por (entre 10 músicos. y 15 milisegundos) y alterando a continuación, la afinación – en grado mínimo – de la l a señal diferida. Flanger
El flanging comenzó a utilizarse en los años 60. Se grababa la misma música en dos máquinas que luego reproducían simultáneamente, acelerándolas y frenándolas con las manos, opuesta y alternativamente, para producir cancelaciones de fase en distintos puntos del espectro. El flanger genera genera una aproximación a este efecto mezclando una señal con una versión retardada de sí misma, y modulando el tiempo de retardo r etardo cíclicamente. La modulación suele muy lentahasta (entreel0.1 Hz yde10llevarlas Hz). La alrealimentación permite exagerar las ser resonancias, punto borde de la oscilación, produciendo un sonido desnaturalizado, marcadamente metálico, que impone su propia afinación a la de la fuente. Phaser
El phaser o shifter es un efecto en el que se suma la señal original con una versión de la misma en la que la fase se modula cíclicamente; da lugar a la cancelación de algunas frecuencias y el refuerzo de otras. Alteración de la Altura
Modifica la altura (tono o afinación) del sonido sin cambiar la duración, o bien reajusta la duración, sin modificar la afinación, manteniendo el timbre en ambos casos. Existen variantes de esta familia de algoritmos que permiten cambiar el tono sin alterar la duración ni el timbre siempre que el desplazamiento que se exija sea de pocos semitonos (no más de 4 ó 5). Entre otros usos, permite corregir a cantantes desafinados (con frecuencia los cantantes malos son incapaces de cantar en perfecta afinación con los músicos pero mantienen una desviación constante respecto a ellos), modificar voces (para impedir su reconocimiento), ampliar el registro de cantantes o instrumentos (haciendo algunas notas que le son imposibles), corregir notas erróneas en grabaciones por lo demás perfectas (evitando tener que regrabar toda la intervención), efectos psicoacústicos (una supone voz queuna mantiene el timbre conocido pero cosméticos con la alturay ligeramente subida novedad atractiva a nuestro oído).
36
Armonizador
El armonizador es un caso particular de alteración de la altura. Los armonizadores típicamente generan más de una salida, de manera tal, que permiten disponer del sonido original y del mismo desplazado varios intervalos definibles por el usuario. Por ejemplo, un armonizador de tres voces permite la generación desplazadas).automática de acordes de tres notas (la original más dos Puertas de Ruido
Los algoritmos de puertas de ruido comparan la energía local de la señal de entrada con un cierto umbral, y cuando no lo alcanza se le aplica una ganancia cero (se silencia la salida). Cuando la energía de la señal sobrepasa el umbral, la ganancia que se aplica es 1. Esto permite que, cuando la señal tiene suficiente nivel como para que el ruido no se note en exceso, la señal no se modifique; pero si la señal baja de nivel (y por tanto el ruido comienza a ser evidente) se fuerza salida nula. En muchas ataque desvanecimiento, que puertas de laruido aparecen los parámetros determinan “inercia” de la puerta en el encendido y el yapagado. Limitador
El limitador se utiliza para disminuir el volumen de los sonidos fuertes. En la grabación de un locutor, por ejemplo, los niveles de volumen pueden saltar rápidamente, particularmente sobre las consonantes duras. El limitador atenuará el volumen de estos exabruptos ocasionales de la voz logrando un sonido más suave y profesional. Compresor
El compresor es muy similar al limitador, pero opera en sentido contrario realzando el nivel de los sonidos débiles. Este efecto puede ser muy útil cuando se procesan instrumentos percutidos. Expansor
El expansor , a la inversa que un compresor, aumenta el margen dinámico de las señales que no sobrepasan determinado umbral. La puerta de ruido es un caso extremo de expansor.
37
Distorsión
La distorsión u overdrive es un efecto altamente no lineal que introduce, a propósito, una fortísima distorsión (la diferencia, nunca muy bien definida, está en el color de una y otra: el overdrive tiene un carácter más cálido mientras la distorsión es más hiriente; el overdrive suele generar armónicos pares, mientras la distorsión degenera todo tipo de armónicos). Modulador en Anillo
El modulador en anillo genera el producto de sus dos entradas. Fue ampliamente utilizado, en su versión analógica, por los pioneros de la música electroacústica. Conversión de la frecuencia de muestreo
La conversión de la frecuencia de muestreo resulta particularmente útil para el intercambio entre diferentes medios digitales, adecuación de las muestras digitales a la frecuencia de un determinado soporte, etc. Debe tenerse en cuenta que convertir de frecuencias altas a bajas de muestreo conlleva a cierta pérdida de calidad de la señal, aunque incrementa las posibilidades de almacenamiento y tratamiento. 3D
El sonido “tridimensional” o simplemente 3D es una herramienta que permite, valiéndose de los dos altavoces tradicionales del estéreo, crear sensaciones de espacio reales. De la misma manera que los ojos nos proporcionan la percepción de la profundidad, los dos oídos funcionan conjuntamente para proporcionar la percepción de la localización del sonido. En los mecanismos de localización del sonido influyen muchos factores. Los métodos para obtener este efecto, generalmente, no se basan en modelos teóricos de las características auditivas del ser humano, sino en experiencias personales de personas reales. En general este método consiste en aplicar a un conjunto numeroso de individuos pruebas auditivas para identificar las sutiles diferencias existentes en el proceso auditivo que influyen en nuestra facultad para localizar sonidos. Con esta gran masa de datos se construye un filtro digital que simule los resultados observados. Esta técnica permite “colocar” un sonido en cualquier punto dentro de un semicírculo de 180 grados, cuyo centro es el oyente (requiere la colocación del oyente formando un triángulo equilátero con los altavoces). No sólo sirve para colocar el sonido alrededor del oyente a la altura del oído, sino que también permite emplazar los sonidos hacia arriba o hacia abajo.
38
Tema
07 MIDI El MIDI (Musical Instrument Digital Interface – Interfaz Digital de Instrumentos Musicales) es un conjunto de especificaciones recogidas en un documento (la versión MIDI 1.0 fue publicada en Enero de 1983) cuyo único propósito es establecer una norma para que todos los instrumentos digitales puedan comunicarse entre sí (independientemente de la tecnología o fabricante). A lo largo de su dilatada vida el estándar MIDI ha visto aparecer y desaparecer a un buen número de competidores. No es perfecto, pero nació con más que suficientes recursos para sobrevivir. Introducción
Los instrumentos musicales digitales actuales son en realidad ordenadores especializados que integran uno o más microprocesadores. Una de las funciones principales de estos microprocesadores es la de transmitir al módulo de generación del sonido los gestos del músico, es decir, qué nota ha tocado, con qué fuerza, etc. Estos gestos son codificados de manera tal que puedan “instruir” al módulo generador de sonido sobre qué hacer. Con un “lenguaje” común de codificación de tales gestos cualquier módulo generador de sonido que recibe estas órdenes puede producir el sonido deseado o modificar determinado parámetro involucrado en el proceso de generación musical. Esta especie de “lenguaje universal entre instrumentos musicales” es justamente lo que especifica el estándar MIDI. El MIDI permite el intercambio de información entre todos los instrumentos musicales dotados de microprocesador. Esta información empaquetada en mensajes es muy variada y con muy distintos propósitos. Por ejemplo, la transmisión de lo que toca un músico desde un teclado o controlador MIDI hacia un sintetizador que, frecuentemente, está desprovisto de teclado; la grabación de lo tocado en un secuenciador para su posterior edición y reproducción; el arranque a distancia de este secuenciador; el almacenamiento y la transmisión de los timbres de un sintetizador hacia otro o hacia un ordenador, etc. MIDI no es sólo un lenguaje universal entre instrumentos (un protocolo de comunicación), sino que especifica también como debe ser la interfaz física de estos instrumentos y sus conectores.
39
Interfaz Físico
Externamente es posible reconocer la instalación MIDI de un instrumento musical por lo tres conectores DIN (a veces sólo dos) de cinco patillas colocados en su parte trasera. Cada uno de estos conectores realiza funciones totalmente distintas A través
Entrada
Salida
A través
La toma de Entrada (IN) recibe la información MIDI proveniente de otro aparato. La toma de Salida (OUT) transmite la información MIDI hacia otro aparato, Través vés (THRU) sólo retransmite, sin modificaciones, la mientras que la toma A Tra información MIDI que llega a la toma de entrada (esta toma sirve para “encadenar” varios dispositivos MIDI y no siempre está disponible). Aunque los conectores tienen cinco pines, en realidad sólo se utilizan los tres del centro. Los sistemas MIDI circulan a través de la red MIDI de forma serie. Esto facilita las conexiones y permite utilizar cables más simples (sólo hacen falta tres vías), a diferencias de las comunicaciones paralelo; pero obliga a utilizar una alta velocidad de transferencia (la transferencia serie requiere enviar los datos secuencialmente; incluso aquellos eventos musicales que ocurren simultáneamente, como los acordes). La velocidad especificada por el estándar MIDI es de 31250 bits/segundo y es lo suficientemente alta como para que el oyente no detecte las diferencias de tiempo en la aparición de los diferentes notas componentes de un acorde. El enlace MIDI es muy insensible al ruido y desacopla galvánicamente los diferentes instrumentos de la red lo que la hace fiable y segura.
40
Tema
08 Mensajes MIDI Un primer paso sumamente importante para explotar el MIDI es comprender razonablemente todos sus mensajes. Los mensajes MIDI se pueden agrupar en dos grandes categorías: mensajes de canal y mensajes de sistema. En una red MIDI pueden convivir diferentes instrumentos. Cuando un instrumento MIDI envía un mensaje a la red este mensaje es recibido por todos los instrumentos conectados a dicha red. Existe una serie de órdenes o mensajes comunes a todos los instrumentos relacionados con la sincronización, etc. pero existen otros mensajes que son dirigidos específicamente a uno o varios de todos los instrumentos conectados. En este caso cada instrumento debe saber diferenciar si el mensaje que recibe es o no de su incumbencia. Cada instrumento tiene una forma o modo de reaccionar ante los mensajes, pero de cualquier forma, lo que le permite distinguir entre ignorar o no el mensaje que recibe es el número de canal. Mensajes de Sistema
Los mensajes de sistema son atendidos por todos los instrumentos conectados a la red MIDI sin tener en cuenta los canales MIDI a los cuales puede responder. Estos mensajes, como era de suponer, no incluyen número de canal MIDI. Las notas que produce un dispositivo MIDI son transferidas a la red secuencialmente y en el mismo orden cronológico de creación. Si se desea reproducir estos gestos posteriormente, no basta con registrar la ristra de mensajes MIDI con la información de las notas, etc.; es también necesario registrar el orden y la duración de cada acontecimiento. Un grupo de mensajes de sistema se dedica exclusivamente a la gestión de tiempos. Mensajes de sistema de tiempo real
La forma más natural de sincronizar instrumentos i nstrumentos MIDI es que uno de ellos envíe una cadencia regular a los demás. Antiguamente se utilizaban una serie de pulsos electrónicos sencillos pero el MIDI garantiza la sincronización mediante un mensaje. Cada pulso queda reemplazado por un mensaje MIDI de un solo byte: el mensaje de reloj MIDI. La cadencia con que se envía este mensaje de reloj es de 24 impulsos por negra (quarter note – nota de valor 4). Esta forma de contar está relacionada con el tempo, ya que la nota negra le sirve de unidad de medida.
41
El sistema de reloj MIDI difiere radicalmente del sistema antiguo basado en pulsos en que las secuencias no se arrancan y paran, arrancando y parando, las señales de reloj; sino que hay mensajes específicos para iniciar y parar una secuencia, y la señal de reloj es de tipo continuo. No es realmente esencial que la señal de reloj esté funcionando todo el tiempo y, si se desea, puede comenzar tras un mensaje de arranque y parar tras un mensaje de detención. Eso queda a la elección de los diseñadores de programas y de equipos. Además de los mensajes de arranque y parada existe un mensaje de continuación. Este mensaje reanuda la secuencia, pero desde el punto donde se detuvo. Con el mensaje de arranque la secuencia siempre comienza desde el principio, incluso si se detuvo a la mitad por un mensaje de parada. Estos mensajes son de un solo byte. La temporización exacta de estos mensajes es esencial, ya que cualquier pérdida de exactitud en los mismos se reflejaría en una mala temporización de la secuencia que se está reproduciendo. El estándar MIDI permite enviar estos mensajes en medio de otros, para conseguir una temporización exacta. Mensaje exclusivo de sistema
Para estándarnoMIDI imponer normas rígidas. Pero, ser a sueficaz, vez, elelestándar podíatuvo ser que completamente rígido;bastante había que dar a los fabricantes la posibilidad de implementar nuevas e imaginativas utilidades en sus equipos. El mensaje exclusivo de sistema fue la primera solución a este conflicto de intereses. El mensaje está delimitado por un byte de inicio y otro de fin de mensaje y entre medias permite insertar un número ilimitado de bytes. La norma también establece que el primer byte que sigue al de inicio de mensaje debe corresponder al código de identificación del fabricante. La forma exacta de codificar la información en esos bytes de datos queda completamente a discreción del fabricante. La puerta que abrió este mensaje augura vida eterna al MIDI. La capacidad de adaptación y expansión que provee le ha hecho llegar hasta hoy con una vitalidad impresionante. Mensaje de posición de canción
En este contexto la palabra “canción” significa realmente una secuencia de mensajes MIDI y el mensaje de posición de canción sería más apropiado denominarlo de “posición en la secuencia”. El propósito de este mensaje es situar a dos secuenciadores en la misma posición de la secuencia. La tendencia moderna es tener todo bajo el control de un solo secuenciador.
42
Mensaje de selección de canción
El mensaje de selección de canción permite conmutar de una secuencia a otra. Mensaje de requerimiento de afinación
Algunos instrumentos disponen de una utilidad de afinación automática incorporada. Cuando se activa,del mediante este mensaje o por controles del panel central, la afinación instrumento se ajustaMIDI según un los oscilador de referencia. Normalmente el efecto es ajustar el instrumento con un LA a una frecuencia de 440 Hz. Mensaje de monitorización (espera) activa
El mensaje de monitorización debe ser enviado por el controlador MIDI de la red al menos cada 300 milisegundos (0.3 segundos) si no hay ninguna otra actividad MIDI. Si un instrumento MIDI no recibe este mensaje o algún otro mensaje MIDI, sabe que ha habido algún fallo en algún lugar del sistema y puede silenciar todos sus circuitos generadores de sonido. Así se evita la posibilidad de que queden notas sonando si se produce un fallo; por ejemplo porque alguien tropiece con un cable MIDI y lo desenchufe o rompa en medio de la reproducción de una secuencia. Mensaje de reajuste del sistema
El mensaje de reajuste del sistema devuelve el instrumento a su configuración inicial. Esto significa que volverá al estado en el que queda después del primer encendido. Mensajes de Canal
La norma MIDI contempla 16 canales; lo que permite dirigir los mensajes individuales a 16 instrumentos diferentes. Sólo actúan (que no responden4) los instrumentos ajustados al mismo canal MIDI que porta el mensaje. Los mensajes de canal sirven para transcribir los gestos musicales: qué nota se toca, con qué intensidad, hacia qué instrumento, qué pedal o mando de control se emplea. Los mensajes de canal llevan asociado un número de canal, en binario, en el intervalo del 0 al 15, aunque en realidad la convención MIDI numera los canales del 1 al 16. Modos
Los Modos MIDI controlan cómo responde un determinado instrumento a los mensajes de canal. Los mensajes de sistema se tratan siempre de la misma forma, independientemente del modo seleccionado.
4
En una red MIDI los instrumentos procesan los mensajes que le llegan pero nunca emiten mensajes de respuesta. En tales redes sólo hay un instrumento maestro y todos los demás actúan como esclavos.
43
Hay una pequeña complicación con los modos MIDI, y es que tienen sus nombres originales, sus nombres actuales y sus números de modo. Aclaremos dos cosas antes. Un instrumento configurado en modo omni (es decir: omni on) debe responder a cualquier mensaje de canal, independientemente del canal al que esté configurado (la configuración se realiza en el propio instrumento). Un instrumento poly puede generar más de una voz simultáneamente (acorde) a diferencia de los instrumentos configurados mono que sólo pueden generar una voz. Una vozla corresponde generado una nota. ElLos número de voces determina capacidadal sonido polifónica del por instrumento. instrumentos multitímbricos son capaces de generar sonidos de diferentes timbres simultáneamente. En este caso las voces del instrumento se reparten entre los diferentes timbres. Modo 1 – omni on/poly
Este modo se conocía anteriormente sólo como omni, y es el más básico. El modo 1 pretende asegurar que cualquier pareja de equipos MIDI se puedan comunicar entre sí. Esto se logra ignorando completamente los números de canal. Un instrumento que esté en el modo 1 responderá a los mensajes de cualquier canal. La parte de su nombre que dice omni on indica que no se consideran los canales. El término poly indica que es un modo polifónico y no hay límite al número notasreal queestará se pueden tocar deEste modo simultáneo (teóricamente claro, el de número en las voces). modo es muy básico y provee muy poca versatilidad por lo que sólo se utiliza para repara una red MIDI (como una herramienta de diagnóstico). Modo 2 – omni on/mono
Este modo se parece mucho al modo1, pero como indica la palabra mono sólo permite tocar una nota a la vez. Con el sistema limitado a una sola nota en cada momento, este modo es el más básico de los cuatro, y tiene poca importancia práctica. Probablemente su inclusión en el estándar MIDI se debe a la existencia de sintetizadores monofónicos. Modo 3 – omni off/poly
Este modo es probablemente el modo más potente de los cuatro. Su nombre original fue modo poly, la parte omni off indica indica la incorporación de canales MIDI. Por tanto, un instrumento que trabaje en este modo responderá sólo a mensajes de sistema y mensajes de canal ubicados en el canal correspondiente, e ignorará totalmente los de los canales que no estén seleccionados5. La idea principal de este modo es que permite emplear varios instrumentos a la vez, cada uno por canal o grupos de canal. Como se trata de un modo polifónico cada instrumento podrá tocar tantas notas al mismo tiempo como permita su hardware.
5
Un instrumento puede responder a varios canales.
44
Modo 4 - omni off/mono
Este modo se denominó originalmente modo mono y muchas veces se le sigue llamando así. Es básicamente una versión monofónica del modo 3. Es particularmente útil porque posibilita tener un sonido diferente por cada canal MIDI en un instrumento. Mensajes de cambios de modo
Los mensajes de cambios de modo se utilizan para establecer el modo de trabajo del instrumento: omni on/off, poly/mono. Mensajes de activación y desactivación de nota
Los mensajes de activación y desactivación de nota son los mensajes MIDI más importantes y utilizados. Estos mensajes indican el principio y fin de una nota. No portan información de tiempo; la duración de la nota depende del intervalo de tiempo que transcurre entre ambos eventos. Estos mensajes, ambos, portan información de la nota correspondiente y la intensidad o fuerza de ataque o la de desvanecimiento según el caso. 6
La forma en queeslacuestión información de velocidad controla el generador de un instrumento de cada fabricante o diseño. El valor dede la sonido velocidad en el mensaje de activación controla el volumen de la nota y puede controlar también otros aspectos del circuito generador de sonido como el tiempo de ataque de las notas. El valor de la velocidad en el mensaje de desactivación se puede utilizar para controlar el tiempo de desvanecimiento de las notas, pero en realidad no todos los fabricantes lo emplean. Por esta razón la especificación MIDI especifica también que un mensaje de desactivación de nota es equivalente a un mensaje de activación con velocidad nula. Mensaje de presión global de pulsación de teclas
La o presión pulsacióny difiere de la velocidad pulsación, empleada en fuerza los mensajes dede activación desactivación de nota,deen que el valor de la velocidad da una medida de la fuerza con la que la tecla se pulsa inicialmente, y es en realidad una medida de lo rápido que se mueve la tecla. La fuerza o presión, sin embargo, es una medida de la fuerza con que se mantiene pulsada la tecla una vez que ha llegado al tope. En terminología musical, los valores que envían valores de velocidad se denominan sensibles a la pulsación, y los que envían mensajes de presión de pulsación se denominan postpulsación. Estas dos opciones no son mutuamente excluyentes y la mayoría de los instrumentos MIDI actuales incorporan las dos. 6
En el estándar MIDI se le denomina “velocidad” a la fuerza o intensidad de la nota. La razón es la relación que existe entre la intensidad de una nota y la velocidad con que viaja la tecla de un teclado, cuando es tocada, desde la posición de equilibrio hasta la posición extrema. Lo mismo ocurre con la “velocidad” del mensaje de desactivación o apagado de una nota. En desde este caso la intensidad de La desactivación corresponde a la con velocidad conoque la se tecla recupera su posición de equilibrio la posición extrema. relación de estos parámetros el teclado piano debe a su posición histórica e importancia. Las primeras interfases o controladores MIDI adquirieron la ergonomía del piano y son los de mayor uso.
45
Mensaje de presión de pulsación de teclas en modo polifónico
La presión de pulsación polifónica difiere de la global en que proporciona diferentes valores de presión para cada tecla, y no un valor promedio de todas las notas de un canal. Mensaje de cambio de programa
En este contexto, la palabra programa (patch) se suele referir a un conjunto de parámetros que definen la generación de sonidos en un sintetizador. El mensaje de cambio de programa sirve para cambiar el sonido de un instrumento o timbre. Este cambio es en relación de un sonido preestablecido con otro, no un medio de ajustar parámetros individuales del circuito generador de sonidos. Aunque la aplicación más común de los mensajes de cambio de programa es el cambio de instrumento, pueden ser usados para otros fines. Un ejemplo típico son los mezcladores de audio controlados por MIDI; donde los mensajes de cambio de programa se pueden emplear para conmutar entre diversos grupos de atenuación. Los mensajes de cambio cambio de programa se utilizan muc mucho ho también en las unidades de efectos digitales. Mensaje de cambio de la altura
Las órdenes de activación y desactivación de nota dan sólo una resolución de un semitono. Mediante el mensaje de cambio de altura es posible aumentar esta resolución. No estaba tan claro que un control tan fino de la altura fuese realmente útil en la práctica. Sin embargo, tiene una aplicación inmediata en la generación de música micro-tonal, la alteración natural de muchos instrumentos (como la palanca de la guitarra eléctrica), etc. Cuánto varía la afinación según el valor de este mensaje depende de cada instrumento. El rango de alteración de la altura en la mayoría de los sintetizadores es de +/- 2 medios pasos por cada incremento. Para un uso de toda la resolución habría que variar la altura en incrementos muy pequeños. Se necesitaría así un gran número de mensajes para producir sólo una pequeña variación de la altura, cosa que la implementación física del MIDI no permite. Otro aspecto importante es que este mensaje afecta para a todas las notas activas en el canal (lo que al usoOtra de varios canales producir música microtonal mediante estefuerza mensaje. opción podría considerar la modificación de las tablas de afinación del instrumento vía un mensaje exclusivo de sistema). Mensaje de cambio de control
Los mensajes de cambio de control, a diferencia del resto de los mensajes de canal, se pueden emplear para alterar cualquier parámetro que el fabricante del instrumento desee. Puede ser un parámetro del generador de sonidos, como el tiempo de ataque o la forma de la envolvente, o parámetros más generales como el nivel de volumen. Es importante advertir que no existe una verdadera estandarización de los controles MIDI. Esto se traduce en que, lo que produce el efecto deseado en un instrumento, puede producir un efecto completamente distinto en otro, o quizá ninguno.
46
Se recomienda prestar una atención muy cuidadosa en el empleo de los controles MIDI. A continuación se muestra una tabla de algunos controladores típicos recomendados Número de Control 1 2
Función Rueda de Modulación Controlador de soplo
4 5 6 7 8 10 64 65 66 67 92 93 94 95 96 97 98 99 100 101
Pedal Tiempo de portamento Botón de entrada de datos Control de volumen principal Balance Panorámica Pedal de sostenido Portamento Sostenido Pedal soft Profundidad de trémolo Profundidad de coro Profundidad de celeste Profundidad de fase Incremento de entrada de datos Decremento de entrada de datos Byte más significativo de parámetro no registrado Byte menos significativo de parámetro no registrado Byte más significativo de parámetro registrado Parámetro registrado
Para utilizar los controles MIDI es necesaria una lectura cuidadosa de las cartas de implementación MIDI en los manuales del equipo. Debido a la naturaleza general de los controles MIDI, es muy posible que varias unidades sean incompatibles, y por tanto incapaces de operar juntas de forma adecuada. En la definición de los números de control se dejó también una puerta abierta a la expansión del estándar: los números de parámetros no registrados. Los números no registrados pueden ser utilizados por cualquier fabricante para asignar el parámetro que deseen (sólo deben documentarlos en sus manuales para su uso)
47
Mensaje de desactivación de todas las notas
El mensaje de desactivación de todas las notas se emplea por una función incluida en prácticamente cualquier secuenciador conocida por pánico. Este mensaje apaga todos los circuitos de generación de sonido de los instrumentos y se utiliza sólo en casos de interrupción del secuenciador o avería. Suponga que el secuenciador envía un mensaje de activación de nota y se interrumpe bruscamente su operación. la nota corresponde a un que instrumento de percusión de seguro no habríaSiproblemas porque los sonidos generan los instrumentos de percusión son cortos o de duración finita (de hecho muchas veces los secuenciadores no envían el mensaje de desactivación de nota a los instrumentos percutidos) pero si la nota corresponde a un instrumento de bucle infinito (como puede ser el sonido de un sintetizador analógico) se quedaría sonando sin parar. Mensaje de control local
El mensaje de control local permite desactivar los métodos normales de control manual de un instrumento, es decir, desactiva el teclado. Obviamente, hay instrumentos MIDI que no son de teclado, y la desactivación del control en estos casos puede significar, por ejemplo, la desactivación de un control de viento. Estrictamente hablando, este mensaje no desconecta el teclado, ni otros medios de control local; sino que se aíslan del circuito generador de sonidos.
48
Tema
09 Funcionalidad MIDI Algunos componentes típicos en una configuración MIDI son: ordenadores, sintetizadores, módulos de sonido, muestreadores de sonido (samplers), mezcladores de audio, etc. Las funciones de cada uno de estos componentes pueden estar más o menos concentradas. Un ordenador, cuya tarea principal generalmente es la de servir de secuenciador, puede además incluir una tarjeta de sonido que actúe como módulo de sonido (la que a su vez puede funcionar como un muestreador o no), o un programa de mezcla que simula una mesa de mezclas analógica, e inclusive el hardware necesario que le permita sincronizar todos los dispositivos de la red. Un sintetizador o estación de trabajo puede incluir secuenciador, sintetizador, etc. Así que, en lugar de periféricos MIDI, es más conveniente hacer referencia a la funcionalidad de los distintos periféricos periféricos MIDI con mayor o menor grado de especialización. Secuenciadores
Un secuenciador es es un programa7 que se encarga de gestionar los datos MIDI. Los secuenciadores permiten la grabación, edición, almacenamiento y reproducción de las secuencias MIDI y pueden tener, muy probablemente, muchas otras funciones adicionales (como la trascripción de las secuencias MIDI a partituras en el formato de notación occidental, etc.). Los secuenciadores generalmente organizan los eventos o notas MIDI en un determinado número de pistas virtuales, análogas a las pistas de las grabadoras multipistas tradicionales, cada una asociada generalmente a determinado canal (aunque lo típico es que existan más de una pista asociada al mismo número de canal). El secuenciador MIDI opera de manera muy similar a como lo hacen los sistemas de audio digital. En general poseen los mismos principios básicos: grabación, edición–procesado y reproducción. Las secuencias pueden ser introducidas al secuenciador mediante un controlador MIDI, paso a paso, desde un archivo, etc. Una vez grabadas es muy fácil retocar y transformar los mensajes8 (denominados “eventos”) para posteriormente reproducirlos cuando se desee. 7
Existen dispositivos independientes que funcionan como secuenciadores. Sin embargo, estos aparatos son auténticos
ordenadores propósito específico, realizan laspor funciones “ programadas”. Es muy fácilde editar eventos MIDI. Laque transposición, ejemplo,“programadas”. se puede conseguir simplemente sumando una constante al valor de la notas MIDI. 8
49
Controladores
Se conoce como controladores MIDI a todos aquellos instrumentos capaces de generar información MIDI. El teclado (tipo piano) no es más que una interfaz de control que transmite la información MIDI al sintetizador. No existe ninguna razón r azón para limitarse al teclado cuando existen numerosas interfaces posibles. Los controladores un acordeones instrumentoe determinado: guitarra, saxofón, flauta,habitualmente violín, batería, simulan armónicas, incluso interfaces para que un cantante pueda gobernar, con su voz, un sintetizador. Aunque físicamente un controlador MIDI podría tener algún parecido con el instrumento que simula, en realidad es un simulador electrónico que debe ofrecer al músico un comportamiento sensorial similar al instrumento que imita, y convertir toda la gestualidad expresiva que puede volcar el músico sobre el instrumento a secuencias digitales MIDI. Es importante destacar dos formas de control: por una parte existen los convertidores que, como su nombre indica, convierten la información que procede de un instrumento tradicional en información MIDI, y por otra parte, los controladores MIDI propiamente dichos, que generan directamente la información MIDI y que no pueden tocarse ni están ligados a un sintetizador cualquiera. Convertidores
Los convertidores introducen un retraso de tiempo necesario para la conversión. Esto puede ser más o menos problemático según el caso. Para la percusión es un poco complejo porque no existe altura que convertir. Las guitarras presentan aún más problemas dada la gran cantidad de información que pueden generar. Los convertidores tienen la ventaja de adaptarse a los instrumentos existentes (los músicos pueden ajustar los captadores más adecuados a sus instrumentos y gobernar las fuentes sonoras MIDI sin tener que habituarse a un nuevo instrumento). El cantante no tiene elección; necesita un convertidor que, como convierte la información analógica que proviene de un micrófono, puede servir también con una flauta o con cualquier otro instrumento monofónico. Controladores MIDI
Los controladores MIDI requieren una cierta adaptación por parte del instrumentista. Un saxofón MIDI imita a su contraparte acústica pero no es exactamente igual en todos los puntos. A veces se introducen funciones suplementarias propias del MIDI, lo que refuerza su interés. Ciertos controladores MIDI son instrumentos completamente nuevos. En este caso, es preciso inventar una técnica nueva.
50
Teclados maestros
Un teclado maestro es un teclado MIDI sin sintetizador incorporado: mudo. Es indispensable conectarlo a una fuente sonora. Estos teclados suelen ser mejores para una interpretación fuerte, incluso regulable, tienen 76 ú 88 notas y ofrecen funciones MIDI especiales suplementarias (por ejemplo, la división del teclado en zonas asignadas a canales MIDI diferentes y la transmisión de mensajes de cambio programa). Para conseguir ergonomía existen teclados que ofrecen de teclas contrapesadas (idénticaslaamayor las reales). Pianos MIDI
Si se dispone de un piano acústico convencional, es posible adaptarlo para que transmita mensajes MIDI. El teclado transmitirá el número de nota y la velocidad, aunque no la velocidad de desactivación o desvanecimiento de la nota. Se puede transmitir el pedal de sostenido. Convertidores MIDI para baterías
Baterías electrónicas
Los sensores de las baterías electrónicas informacióna analógica como(pad) variaciones de tensión eléctrica transmiten fácilmente latraducibles mensajes MIDI. El impulso de cada sensor se convierte en un mensaje de activación de nota. Cada sensor transmite un número de nota diferente asignado por el usuario, eventualmente sobre un determinado canal MIDI. La fuerza con la que se golpea el sensor se interpreta como la velocidad de la nota que se ha tocado. Baterías acústicas
La conversión de una batería acústica en una batería MIDI se realiza según el mismo principio. La diferencia estriba en que es preciso colocar pequeños captadores sobre cada instrumento. Son estos micrófonos los que suministran la información analógica al convertidor. Esta etapa suplementaria presenta algunos inconvenientes. La interpretación de la velocidad está falta a veces de sutileza. El ajuste de sensibilidad de los captadores puede ser delicado. Tienen tendencia a dispararse accidentalmente si son demasiado sensibles y captan a los vecinos. Como las baterías tienden a resonar, el ajuste demanda un sutil compromiso entre una batería poco sensible a la velocidad, que resulta pesada de tocar, y una, con una sensibilidad tan alta, capaz de dispararse con un estornudo.
51
Convertidores para instrumentos de viento
Existen convertidores monofónicos que transforman la información analógica que proviene de un micrófono en mensajes MIDI. Esta conversión tiene en cuenta la frecuencia, la amplitud y a veces el contenido armónico de la nota tocada. La frecuencia se convierte en número de nota MIDI, la amplitud en un control MIDI que afecta el volumen y el contenido armónico en un control MIDI que afecta alestimbre. Estosgrande, convertidores defectos. El tiempo de conversión bastante lo quepresentan introducevarios un retraso perceptible. La conversión no es demasiado fiable; la nota tocada muy rápida o muy débil puede que no sea recibida por el sintetizador MIDI. Por otra parte, ciertos sonidos poseen armónicos (con frecuencia el segundo) cuya amplitud es tan fuerte como la de la fundamental. En este caso el convertidor puede equivocarse y tocar una nota una octava más alta de la que ha recibido. La conversión de notas tocadas por un instrumento de viento es más eficaz que la conversión de la voz. La altura de las notas cantadas está, a veces, mal definida. Los instrumentos de viento MIDI
Un instrumento de viento MIDI intenta imitar lo más fielmente posible a un instrumento de viento real. Un saxofón MIDI tiene las mismas llaves del saxofón e incluso intenta reproducir las técnicas del saxofonista, como el desplazamiento de la altura por la presión de los dientes sobre la boquilla. Las combinaciones de llaves que no se emplean en un saxofón tradicional, sirven para las funciones MIDI. Ciertas combinaciones envían los mensajes de cambio de programa, otras permiten tocar acordes, otras incluso autorizan la transmisión de ciertos controles MIDI (filtros). Algunos controladores imitan la trompeta, o incluso a la armónica. El problema principal es crear los timbres adaptados al instrumento. Por otra parte, la acción del instrumento permite dar muchos matices propios de los instrumentos de viento difíciles de crear con un teclado. Estos instrumentos transmiten los controles MIDI como el control de soplo, el volumen, etc.
52
Convertidores para guitarras
El principio de los convertidores para guitarras es, mediante la colocación de un captador sobre cada cuerda de la guitarra, analizar la frecuencia de vibración de la cuerda. El músico puede aplicar en cualquier momento un vibrato (alteración oscilatoria en frecuencia de la nota) o un desplazamiento de altura (tirando de la palanca) por lo que tal análisis es un problema arduo. Con el transcurso del tiempo las prestaciones de perfectamente los convertidores MIDI de guitarra han mejorado hasta funcionar de forma satisfactoria. El retardo (principal escollo) ha sido reducido hasta mínimos imperceptible (por ejemplo en los convertidores basados en redes neuronales). Los mejores permiten transmitir la información generada por cada cuerda sobre un canal MIDI diferente. Esto facilita ajustar más finamente la respuesta del instrumento MIDI ya que lo que reproduce cada una de las cuerdas puede corresponder a un módulo de síntesis diferente. Guitarras MIDI
Las guitarras MIDI analizan la posición de los dedos sobre el mástil gracias a captadores fotosensibles o por otros procedimientos similares. El objetivo de las investigaciones actuales es evitar que la utilización de la conversión de la vibración de las cuerdas.
53
Periféricos MIDI
Existe otro conjunto de dispositivos MIDI muy útiles, que muchas veces solucionan deficiencias de los dispositivos MIDI principales de una configuración, o añaden Estos utilidades nuevas adicionales o simplemente la configuración MIDI instalada. periféricos estánmejoran sometidos a una constante evolución, así que, de manera general, se tratará, más que periféricos concretos, la funcionalidad básica de estos periféricos. Pedal
Los pedales MIDI sirven para hacer el MIDI más utilizable en aplicaciones en directo, aunque también se pueden utilizar para conseguir buenos efectos en aplicaciones de estudio. Entre los usos de los pedales MIDI se encuentran:
Envío de mensaje de desactivación de todas las notas (pánico) que en casos muy sofisticados envían todas las notas de desactivación individuales.
Envío de mensajes de controlador MIDI. La idea básica es proporcionar un control por pedal de alguna función de un instrumento del sistema. De hecho, la mayoría de los instrumentos poseen al menos unas pocas funciones básicas que se pueden controlar a través de mensajes de control MIDI. Las unidades de este tipo normalmente se pueden configurar para que funcionen como pedales de sostenido, o como pedales de volumen, etc.
Envío de mensajes de variación de la altura. Estos dispositivos son una alternativa a la utilización del mando de variación de la altura del instrumento.
Envío de mensajes de cambio de programa. Suele ser muy útil
sobre todo en paradefinitiva, las actuaciones en directo. Un cambio cambio de de programa, es equivalente a un instrumento.
Envío de mensajes de cambio de selección de canción. La planificación de un concierto se puede gobernar bajo control de pedal.
Algunas unidades de pedal MIDI suelen ser muy complejas y pueden tener hasta cuatro pedales; cada uno de ellos programable y capaz de controlar más de una función. Los pedales programables no sólo se utilizan para enviar mensajes de cambio de control o de cambios de control y de altura. Es posible especificar una cadena de valores para enviar cada vez que se active el pedal, y también especificar que valor o rango de valores proporcione la posición del pedal. De esta forma es posible controlar, prácticamente, cualquier función MIDI o varias funciones simultáneamente.
54
Canalizador
Una gran parte de los periféricos MIDI reciben la señal MIDI, la procesan de alguna forma y después la envían a todo el sistema o a parte. El número de unidades o dispositivos que reciben la señal procesada depende del método de conexión empleado y del lugar exacto donde se inserta el procesador en el sistema. Existen muchas formas de procesar una secuencia MIDI para realzar una característica u otra. La función de los dispositivos canalizadores es alterar los bytes de cabeceras de los mensajes de canal, de modo que dichos mensajes pueden cambiar a un canal diferente. Sin embargo, este proceso se aplica de una forma muy selectiva para obtener precisamente el efecto deseado. Algunos canalizadores pueden hacer más cosas que simplemente cambiar canales. Por ejemplo, podrían realizar la división del teclado en partes que proporcionan algunos instrumentos, y que permite tener, por ejemplo, la mitad del teclado operando en un canal MIDI, y la otra mitad operando en un canal MIDI diferente. De hecho, el punto exacto donde se realiza la división puede ser elegido por el usuario (no tiene que ser exactamente la mitad). Tampoco la división del teclado tiene que ser exactamente por dos y en principio se puede dividir el teclado en tantas partes como canales MIDI diferentes haya disponible. La operación de los canalizadores debe ser muy cuidadosa porque todos los mensajes de canal no admiten este tipo de descomposición del teclado. En el caso de mensajes de pulsación de teclado polifónico, que contienen valores de notas, la unidad puede procesarlo igual que los de activación – desactivación de nota. Sin embargo existen otros mensajes de canal que no contienen valores de notas, y el canalizador no tiene forma de saber a qué canal o canales se deben dirigir. Armonizador
Un armonizador ordinario procesa la salida de audio de un determinado instrumento, genera tonos que armonicen con la nota de entrada y los mezcla con la señal de entrada. El armonizador MIDI trabaja sobre la señal MIDI y genera mensajes adicionales de activación y desactivación de notas con las notas armónicamente relacionadas. Es perfectamente posible que, con cada nota, se generen varias si se desea (se trata de replicar y escalar). Tampoco hay necesidad de trabajar con desplazamientos fijos, y una unidad inteligente basada en microprocesador puede generar armonías bastante complejas. Filtros
Un filtro MIDI es un dispositivo que elimina de forma selectiva mensajes MIDI. Una razón para hacer esto es evitar los problemas de saturación MIDI. Un filtro MIDI elimina mensajes pero no recupera aquellos que hayan sido perdidos. La única forma de evitar la saturación MIDI es asegurar que el dispositivo que está generando las señales MIDI nunca produzca pr oduzca una salida sobrecargada.
55
Los filtros también se utilizan para discriminar la repuesta de los diferentes instrumentos de la red a cierto tipo de mensajes. Algunos filtros admiten configuraciones de exclusión de mensajes (por ejemplo eliminar todos los mensajes excepto los mensajes de sistema) proporcionando así una especial forma de canalización que es útil cuando un instrumento sólo tiene modos omni. Normalmente, una unidad de este tipo responde a mensajes en cualquier canal, haciéndola inútil para su operación en configuraciones y arreglos que impliquen una secuenciación con múltiples instrumentos. Enrutador
El enrutador es una suerte de mezclador con una cantidad determinada de entradas y salidas y su función es encaminar las secuencias MIDI desde las entradas hacia las salidas programadas. Este periférico es muy útil, sobre todo cuando se desea tener una configuración de la red MIDI programable (en lugar de cambiar las conexiones físicas de los cables; sencillamente se cambia por programa la matriz de conexiones virtuales). La programación de la matriz de conexiones se realiza a través de mensajes de sistema exclusivo (dada la falta de estandarización para este tipo de utilidades). MIDI a CV
Los sintetizadores analógicos utilizan el mismo sistema básico de activación y desactivación de las notas mediante una señal de control digital denominada puerta (gate) y establecen la altura mediante una segunda señal analógica llamada voltaje de control (CV – Control Voltage). Los conversores MIDI–CV permiten integrar los antiguos sintetizadores analógicos en los sistemas MIDI.
56
Tema
10 Sincronización Hay una categoría de periféricos MIDI, que se conocen con el nombre de unidades de sincronización. En general, se pueden dividir en dos grupos: los sincronizadores cinta a MIDI, y las unidades que sirven para sincronizar el MIDI con máquinas de percusión que no posean un interfaz MIDI. Reloj
Las máquinas de percusión generalmente se sincronizaban entre sí mediante una señal de reloj que consistía en una serie de impulsos eléctricos a intervalos regulares. Con este sistema, como sucede en el MIDI, una unidad proporciona la señal de sincronización y el resto tienen que seguir los pulsos de reloj. A diferencia del MIDI, este sistema no puede situar el secuenciador en un punto particular de la secuencia y empezar desde allí. Al iniciar la señal de reloj se inicia la secuencia, y al eliminar la señal de reloj se para la secuencia. Esta filosofía obliga a inicializar todas las unidades del sistema simultáneamente para situarlas en su punto de comienzo correcto. Es posible convertir la señal de reloj de pulsos de una máquina de percusión en señales de reloj MIDI de manera tal que un secuenciador MIDI se pueda sincronizar con un instrumento de percusión. Lo más probable es que la máquina de percusión deba sincronizar y mantenerse sincronizada con el secuenciador. Con este propósito se diseñaron y construyeron conversores capaces de convertir en impulsos eléctricos los mensajes de tiempo MIDI generados por normalizada, el secuenciador. El único configurar problema es que como la labase de tiempo no está es necesario adecuadamente unidad de conversión para determinada máquina de percusión. Algunas unidades utilizaban veinticuatro pulsos por negra (quarter note), lo que se ajusta con los veinticuatro mensajes de reloj que se envían en MIDI por negra; pero también existen otros valores más o menos típicos. No es esencial, aunque sí conveniente, que la frecuencia de los impulsos de reloj de la máquina de percusión coincida con los veinticuatro mensajes reloj MIDI porque en principio la electrónica de estos dispositivos debe garantizar la conversión de una frecuencia de impulsos a otra.
57
MIDI
La sincronización MIDI emplea un reloj de veinticuatro mensajes por negra. La información es digital y no analógica como el reloj. El estándar MIDI dispone de mensajes sincronizar el arranque y la parada de los secuenciadores (mensajes arranque, parada, continúa) y de mensajes de posición de canción (que cuentan el número esta de semicorcheas han transcurrido desde el inicio de un trozo y transmiten información alque esclavo). Sincronización FSK
La sincronización FSK (Frecuency Shift Keying – Modulación de frecuencia) permite sincronizar un secuenciador MIDI con un grabador multipista convencional. Es suficiente grabar una señal FSK (sin reducción de ruido) sobre unas pistas de la grabadora y después volverlo a leer para que el secuenciador se sincronice con el grabador multipista. Esta forma de grabación no contiene ningún comando MIDI y no permite comenzar la secuencia en cualquier parte diferente del inicio. De hecho, el FSK es una señal equivalente al reloj pero más fiable que una señal cuadrada de tipo reloj cuando está grabada en una cinta. PPS
El PPS (Poor People’s SMPTE – SMPTE para pobres) es un código de sincronización especial derivado del FSK que permite enviar los comandos MIDI de punteros de canción, arranque y parada y cambios de tempo al secuenciador. Esta forma de sincronización requiere de un conversor entre la información MIDI procedente del secuenciador y los códigos grabados en la cinta. SMPTE
El código SMPTE (Society of Motion Picture and Television Engineering) se diseñó originalmente para usar en sistemas audiovisuales, cine y televisión. Es una referencia temporal absoluta que designaespecialmente cada emplazamiento sobre una cinta mediante una dirección en horas, minutos, segundos, tramas (fotogramas) y subtramas. El número de subdivisiones de tramas/segundo varía según los países y su uso (en cine, 24 tramas/seg; en vídeo europeo, 25 tramas/seg; en vídeo USA, 30 tramas/seg). El código SMPTE ofrece una referencia absoluta y por lo tanto es independiente del tempo; al contrario de los otros relojes. Los conversores SMPTE a MIDI deben proporcionar igualmente las indicaciones de tempo y traducir la dirección SMPTE en mensajes de posición de canción MIDI para que el secuenciador MIDI pueda recomenzar en sincronismo a partir de cualquier posición.
58
MTC
La utilización cada vez más corriente del MIDI en la post–producción de vídeo ha favorecido el desarrollo de una sincronización directa MIDI/SMPTE, el MTC. El MTC (MIDI Time Code – Código de Tiempo MIDI) es una forma de SMPTE ligeramente simplificada, adaptada a la velocidad de transmisión MIDI y añadida recientemente a lalaespecificación MIDI. El MTC El es MTC más preciso, rápido y más fiable que conversión SMPTE/MIDI. tambiénmás ofrece una referencia temporal de carácter absoluto, medido en las mismas unidades utilizadas por el SMPTE. Se trata de un código que constituye un instrumento poderoso en lo que respecta a la sincronización de imagen y sonido y, asimismo, al control de mecanismos de audio y vídeo desde un cerebro centralizado. DTL
El DTL (Direct Time Lock) es una variación del MTC, de Mark of the Unicorn, e incluido entre las opciones de sincronización de algunos secuenciadores populares.
59
Tema
11 Almacenamiento Típicamente los sistemas de audio digital emplean el disco duro como medio de almacenamiento, aunque también es frecuente el uso de otros medios como DAT (Digital Audio Tape), MD (Mini Disk), MO (Magneto Óptico), memorias Flash EPROM, etc. Existen tanto o mas formatos como aplicaciones: audio sin comprimir o comprimido, con o sin metadatos, con o sin cabecera, contenedores de audio o secuencias de control, de ambos, propietarios o estándares, para secuenciadores, sintetizadores y así... un largo etcétera. Existe un compromiso entre la calidad del sonido y la longitud de los archivos que almacenan audio digital. Es posible predecir el tamaño mínimo (algunos formatos introducen cabeceras e información de control complementaria) de los archivos empleando la fórmula siguiente: t = (B / 8) x C x T x R
Donde: t - Tamaño del archivo, en bytes C - Número de canales (1-mono, 2-estéreo) T - Tiempo de grabación, en segundos R - Frecuencia de muestreo en Hertz (muestras por segundo) B – Núme Número ro de bits bits
La siguiente tabla muestra una comparación entre el empleo de diversas frecuencias de muestreo y longitudes (en tiempo) de los sonidos a almacenar cuando se utilizan muestras de 16 bits. 11.025 kHz 22.05 44.1
1 mi min n 1.3 Mb 2.5 5.1
2 2.5 5.1 10.1
3 3.8 7.6 15.2
4 5.1 10.1 20.2
5 6.3 12.7 25.3
Los archivos que almacenan secuencias de control, a diferencia de los archivos de audio, son extremadamente pequeños (sólo contienen órdenes para la síntesis); lo cual resulta ideal; desde el punto de vista de comunicaciones (su transmisión gasta un ancho de banda despreciable).
60
A pesar de estos convenientes ofrece un problema: como el sonido requiere ser sintetizado no garantiza que suene igual al generado en el emisor (depende del sintetizador en el receptor). Esto, por supuesto, no es problema si se utiliza el mismo sintetizador en ambos extremos pero requiere cierta universalización lo cual resulta demasiado pretencioso. Los sistemas de compresión de audio de la próxima generación exploran estas víassíntesis y parte de de la siguiente se extraen secuencias de control de señal de base: audio,primero a continuación se estas transmiten o almacenan y, por último, se reproducen, de manera tal, que garantice la reconstrucción del audio original, independientemente del ordenador o plataforma del receptor. Una línea intermedia mezcla ambos mundos. Envía las secuencias de control y las muestras de audio necesarias que garanticen una reproducción idéntica del sonido. Este tipo de formato es muy frecuente en aplicaciones Trackers (relacionadas más con el entorno de Internet que con el mercado profesional). Formatos de archivos de Sonidos VOC: Formato de voz de Creative Labs
Archivos de 8 y 16 bits utilizados por Sound Blaster (VOice Creative) y otras tarjetas de sonido compatibles para PC. Pueden incluir información en estéreo referida a los bucles y a la compresión, aunque lo más probable es que la mayor parte de los ejecutantes se limiten a emplear datos de sonido monofónico. RIFF: El formato de archivo de intercambio de recursos de Microsoft
Se diseñó como el único formato de archivo para multimedia Windows capaz de incluir bloques (chunks) con formatos de datos diferentes. Incluye audio digital (WAV) y bloques MIDI. Lo original de RIFF (Resource Interchange File Format) es que puede admitir bloques que aún no se han inventado. Es un formato muy genérico y abierto que ha servido de punto de partida de muchos otros. SOUND: El formato de archivo de recursos de sonido
Es un formato de audio digital compacto (sólo 8 bits por muestra) de Apple. Se utiliza para almacenar sonidos cortos, como el sonido de alarma del altavoz incorporado en el Macintosh y se emplea en aplicaciones cuyos bajos requisitos de sonido. WAV: El formato de onda de Microsoft
Los archivos de ondas (WAVEform audio format) constituyen el formato de archivo de sonido estándar utilizado en Windows de Microsoft. Este formato representa un subconjunto de la especificación de formato de archivo multimedia RIFF de Microsoft. Puede representar una amplia gama de resoluciones de sonido, de muestreo y compresión, así como otro tipo de información de carácterniveles especial.
61
La mayor parte de las aplicaciones de Windows esperan que los archivos en mono o en estéreo empleen 8, 16 ó 24 bits, así como una frecuencia de muestreo de 11.025 kHz, 22.05 kHz, 44.1 kHz, 48 kHz, 92 kHz ó 192 kHz. Una evolución de este formato es el BWAV (Broadcast Wave Format) que permite almacenar metadatos en el mismo archivo. Este formato es el primer formato de grabación utilizado en estaciones de trabajo dedicadas a la industria del cine y ladetelevisión. almacenar archivos de audio multi-pistas con referencias código dePermite tiempo como el SMPTE (Society of Motion Picture and Television Engineers). El uso de marcas de tiempo (Time Stamp) estándar facilita la sincronización con elementos de imagen independientes. AIFF: El formato de archivo de intercambio de audio de Apple
El formato AIFF (Audio Interchange File Format) fue desarrollado por Apple para representar diversos diversos tipos de datos multimedia. Es el formato estándar de sonido de las estaciones estaciones de trabajo Silicon Graphics. Admite diversas frecuencias de muestreo y tamaños de muestras de hasta 32 bits por muestra. Una característica característica interesan interesante te de este formato es que admite bucles bucles.. Este formato de archivo proced procede e de Electronics Arts. Commodore Amiga también utiliza este tipo de formato. AU: El formato de audio de Sun
A pesar de sus diferentes variantes (incompatibles entre sí), es empleado en las estaciones de trabajo Sun, DEC y NeXT. Este tipo de archivo es muy común en Internet. TTA: Audio Real
TTA (True Audio) es un formato de audio libre pensado para codificar audio sin pérdidas en tiempo real basado en filtros de pronóstico adaptativos. FLAC: Formato de compresión de audio sin pérdidas
FLAC (Free Lossless Audio Codec) es un formato de compresión de audio sin pérdidas eficiente para empaquetar datos de audio. FLAC utiliza algoritmos de predicción lineal para convertir las muestras de audio en una serie de números pequeños (conocidos como residuos), que se pueden almacenar eficientemente utilizando la técnica de codificación Golomb-Rice. Este método es particularmente eficaz para codificar bloques de muestras idénticas (como pasajes de silencio). La potencia de esta técnica radica en su habilidad de ser serializada y decodificada rápidamente independientemente del nivel de compresión. RAW: Los datos de sonido “sin formato” Raw, que traducido directamente al castellano quiere decir “crudo” es un formato
de archivo quePara sóloemplearlos contiene datos de sonido (carecea de cabecera u otro de información). es necesario conocer priori el número de tipo bits de
62
resolución, la frecuencia de muestreo, el tipo de compresión en caso de que el sonido esté comprimido. Formato de archivos de Control CMF: Formato de música de Creative
Este formato (Creative Music File) fue diseñado para trabajar con el chip estándar industrial Yamaha, utilizado para sintetizar música en FM. Incluye un bloque instrumental, que contiene los parámetros para programar con los sonidos instrumentales deseados el sintetizador FM de la tarjeta de sonido y otro musical que contiene las órdenes de ejecución de cada nota e instrumento. i nstrumento. ROLL: El formato de archivos de AdLib
Este formato se diseñó para poder generar música con el chip sintetizador de FM de Yamaha de las tarjetas AdLib y contiene una lista de notas, tiempos y cambios de instrumentos. MID o MFF: Formato MIDI
Aunque la mayoría de los secuenciadores utilizan su propio formato de archivo MIDI (porque no sólo almacenan en ellos información MIDI, sino también información de configuración, etc.), existe una especificación de archivo MIDI estándar universal que permite intercambiar información de control MIDI entre cualquier aplicación informática MIDI. El MID o MFF es el soporte de almacenamiento universal del mundo musical MIDI. Existen dos variaciones del MIDI “estándar” en los programas MIDI. El estándar MIDI tipo 1 es la variante más moderna de MIDI; protege fielmente una composición como una partitura multitraza. La versión anterior, el formato tipo 0, está preparada para mantener compatibilidad con los secuenciadores más viejos y admite sólo una traza. Formato de archivos mixtos XM: FastTracker
Formato mixto que introduce instrumentos con envolventes de volumen y panorámica. La compresión de las muestras es básica. IT: Impulse Tracker
Permite que la nota anterior en una pista se desvanezca en el máximo de la próxima nota (proveyendo una polifonía más efectiva). Los instrumentos pueden compartir muestras. Añade algunos efectos como un filtro resonante.Tiene una compresión de las muestras mejor.
63
MOD: Formato de música de Commodore Amiga
Contienen muestras de audio digitalizadas de instrumentos musicales reales y la secuencia de órdenes de reproducción. Cuando se reproduce un archivo MOD (MODule file format), cada nota se toca tomando la muestra de sonido instrumental para esa nota y reproduciéndola a la frecuencia de muestreo adecuada para conseguir el tono musical adecuado. Generalmente contienen cuatro de música y cada canal se dedica a un único Puedencanales contener hasta 31 voces instrumentales (sólo 4 sonido u 8 seinstrumental. reproducen simultáneamente), cada una de las cuales con volumen independiente. También permite la reproducción indefinida de un sonido para conseguir efectos de eco o reverberación. Se pueden asignar efectos especiales a cada nota como el vibrato o el trémolo.
64
Tema
12 Informática Son muchas y variadas las características que implementan los diferentes dispositivos y programas disponibles en el mercado para el tratamiento del audio digital. Tales aparatos realizan sus funciones con arquitecturas (hardware, software) propietarias mientras que los aquí llamados programas funcionan en entornos informáticos con sistemas operativos “estándares” (MAC-OS, XWindows, Windows XP, Linux, etc.). ¿Cuál opción es mejor? La respuesta a esta pregunta depende de lo que se busque: facilidad de uso, capacidad de actualización, portabilidad, coste, y así… un largo etcétera. Desde luego en ambas opciones hay de todo: excelentes, buenos, regulares y malos; como todo en la vida. Los entornos de audio independientes son preferibles por músicos y productores que no están muy familiarizados con las herramientas informáticas. Estos sistemas funcionan como sus predecesores analógicos; el carácter digital es sólo una característica más del equipo en cuestión. Mientras que los entornos informáticos son más adecuados a aquellos que provienen de este mundo o de ninguno; y penetran en él sin prejuicios. La evolución de las herramientas informáticas en la música ha estado condicionada por la potencia de los procesadores (CPU – Control Process Unit) de los ordenadores. Los algoritmos relacionados con el audio digital requieren de un gran número de operaciones que, en su mayoría, son multiplicaciones y sumas (acumulativas) en un formato numérico de “suficiente” resolución. Sin embargo, no fue hasta la llegada de los Pentium MMX que estas funciones estuvieron disponible en los ordenadores. Cuando la carga computacional que requiere el procesado digital de señal en tiempo real es mayor que la que puede satisfacer un ordenador las todos funciones se suministran paquetes completos (hardware/software) y basan los cálculos en DSPsen especializados. De esta manera disminuye la carga computacional en el procesador principal del ordenador y aumenta considerablemente las prestaciones del sistema en su conjunto. En los inicios, la potencia era tan insuficiente que los programas eran forzados a realizar muchas de estas operaciones en diferido; sobre todo las relacionadas con el audio digital. A los sistemas informáticos especialmente acondicionados para el tratamiento de audio digital se les suele llamar estación de trabajo (DAW – Digital Audio Workstation). En general, en todo el proceso de creación musical es necesaria información de control que haga posible la ejecución sincronizada de los diferentes instrumentos que intervienen. El músico concibe su idea musical a partir de complejos mecanismos de alto nivel que operan con el material musical que le ha llegado a través del sistema perceptual auditivo, memoria, cultura, etc. En el caso más clásico transcribe estas ideas musicales a un lenguaje de signos abstracto que
65
los músicos pueden reconocer e interpretar (el pentagrama). Estos signos no son música en si mismos sino una serie de señales que el o los intérpretes traducen a acciones de control sobre sus instrumentos para que se produzca la música que probablemente haya escuchado antes, en su cabeza, el compositor. Cuando interviene más de un instrumento, es necesario otra figura: el director de la orquesta. Su función es precisamente garantizar la sincronización entre todos los músicos para que la música que produzca la orquesta represente, con la mayor fidelidady posible, lo que en su proporcionado momento el compositor. Cuanto más detallado descriptivo sea concibió el pentagrama por el compositor, mayor es la información de control y por lo tanto debería esperarse que la ejecución fuese más “precisa”. Sin embargo, cuanto mayor sea el número de signos empleados en la partitura mayor será la complejidad e ininteligibilidad. Básicamente, el ejemplo anterior evidencia la existencia de, además del propio sonido que se genera, la información de control necesaria para su creación. La propia evolución de la música y el surgimiento de los instrumentos musicales electrónicos ha hecho necesario buscar nuevos sistemas de signos capaces de transmitir los nuevos matices y controles en la búsqueda de la música “exacta” que “escucha” en su cabeza el compositor y ha difuminado la frontera compositor-intérprete. En muchos casos el propio compositor elabora la música hasta su completa satisfacción y la ofrece en un formato repetible, idénticamente repetible. Tal evolución ha permitido el desarrollo de herramientas informáticas para ayudar al artista en todo el proceso, desde la creación, hasta la grabación definitiva para su difusión y ha acercado al gran público la posibilidad de “crear” música sin ser un experto en teoría musical. Hace unos años construir un estudio para la creación musical requería de una fuerte inversión en hardware. La mayoría de los procesadores y sintetizadores se comercializaban como dispositivos conectables a través de entradas y salidas de audio y satisfacían objetivos muy específicos. Por ejemplo, para disponer de diversos modelos de síntesis era necesario tener teclados sintetizadores o módulos (máquinas de síntesis sin teclas); cada uno con la implementación de una técnica de síntesis determinada. Por ejemplo el Yamaha DX7 para síntesis FM, la serie CZ de Casio para síntesis por distorsión de fase, Kurzweil y Akai para síntesis por tabla de ondas, Kawai para síntesis aditiva y un largo etcétera costoso, difícil de organizar y cablear, etc. Para mezclar las salidas de todos los procesadores y sintetizadores se empleaban grandes consolas analógicas fuera del alcance de los estudios modestos. Con la introducción del audio digital se introdujo un dispositivo más: el convertidor analógico/digital, digital/analógico; ya sea como una tarjeta de ordenador o como un dispositivo externo conectado al ordenador mediante algún tipo de interfaz: propietaria o estándar (como el SCSI). La función de este dispositivo es clara: la transformación de las señales de audio del dominio analógico al digital (en el proceso de grabación) y viceversa (en el proceso de reproducción).
66
La siguiente figura “intenta” ilustrar los procesos involucrados en la creación musical, desde su concepción en la cabeza del compositor hasta la producción del sonido.
Composición
Secuenciación
Síntesis
Efectos
Edición
67
El desarrollo de la industria informática, el incremento exponencial de la potencia de cálculo de los ordenadores, el desarrollo de nuevas interfases de comunicación (como el USB y el Firewire), de nuevos mecanismos software de integración (como los plugins) ha permitido emular y sustituir todos esos dispositivos hardware a software. En resumen, un ordenador, un convertidor adecuado (que en muchos casos lo incluye el ordenador) y unos altavoces o audífonos, más una buena suite de aplicaciones software, es todo lo que se necesita para crear y desarrollar “profesionalmente”. Probablemente las cosas cambien todavía más amúsica corto plazo. Las interfases series de alta velocidad, desarrolladas para la industria informática (como el USB o Firewire que necesita una conexión por cable o el WiFi inalámbrico), están siendo adoptadas por los fabricantes de instrumentos musicales. Ya existen guitarras, mesas de mezcla, procesadores de efectos, pianos, teclados, etc. con estas interfases lo que permite enchufarlos directamente al sistema si necesidad de un dispositivo de conversión. En resumen, la necesidad de construir y utilizar estos dispositivos cada vez está menos justificada. Sólo hay un detalle por el que se siguen y seguirán fabricando: no se pueden copiar o “piratear”. “pir atear”. Composición
Es en el proceso de composición donde se generan las ideas abstractas de alto nivel que se transformarán, al final, en música. Los músicos y compositores académicos son capaces de representar mediante algún sistema de signos abstractos, como la notación musical pentagramada, sus ideas musicales. Sin embargo, un aficionado necesita otro tipo de recursos más intuitivos para expresar tales ideas. En general este proceso se puede dividir en dos grandes grupos según cómo se genera la música: manual o automática. La forma “manual” de expresar una idea musical es aquella donde interviene el compositor y viene a ser la manera tradicional en que el ser humano ha hecho y hace música. En la forma “automática”, sin embargo, es el propio ordenador el que hace de compositor. Este tipo de composición algorítmica genera ideas musicales según algún tipo de descripción matemática. Según Pierre Schafer: música es todo lo que se repite. Esta frase revela el carácter repetitivo y estructurado de la música. Cualquier algoritmo matemático capaz de generar secuencias con cierta frecuencia es, en principio, candidato a compositor. El problema es conseguir que tales secuencias sean creíbles o “aceptables” a los mortales. La enorme potencia computacional de los ordenadores hoy día permite que este proceso de composición genere sonido directamente. Sin embargo la salida de este proceso es generalmente información de control que servirá para generar la música a posteriori. En la música occidental la información de control que se genera en este proceso está relacionada con la nota y, toda la música, se construye a partir de este elemento básico. Una notaduración, contiene información las propiedades físicas del sonido: Intensidad, altura, timbre, etc. de El sistema tradicional musical
68
occidental divide cada octava en 12 semitonos o notas y limita su duración a valores relativos de tiempo binarios y/ó ternarios. Notación
Los programas de notación permiten introducir las ideas musicales según la Notación Musical Convencional (CMN). En este sentido sirven de ayuda a la “escritura” musical yde generan, de la información de un control versiones impresas calidad además profesional. Funcionan como editornecesaria, de texto: permiten cortar, pegar, mover, escalar en frecuencia (transponer) o en el tiempo. La siguiente imagen es una captura del editor Finale.
Aunque la entrada habitual de estos programas es el teclado y el ratón del ordenador también es posible introducir las notas desde algún instrumento o controlador que genere información de control (en tiempo real o paso a paso) e inclusive desde el propio audio (como puede ser tocar la flauta frente al micrófono del ordenador) o desde un escáner (lo que permite importar partituras desde papel). Características técnicas deseables: Introducción de not notas as en tiempo real vvía ía MIDI, mediante ratón o escaneado de partitura impresa (módulo de reconocimiento de partituras). Transformación de audio en notación musical.
•
Uso de cualquier valor de nota (desde una redonda doble hasta una semigarrapatea), manejo de un número prácticamente ilimitado de pentagramas y compases, definición de varias capas por pentagrama, con voces independientes por capa.
•
Definición de claves y compases flexible.
•
69
Introducción de letras letras mediante mediante importac importación ión de archivo de texto texto o directa, directa, con alineación automática y separación de sílabas.
•
Acordes y tabuladores para guitarra.
•
Completo conjunto de herramienta herramientass de edición: insertar, copiar, copiar, pegar, eliminar notas, inserción de símbolos de dinámica, articulaciones y
•
marcas, símbolos de repetición, transposición en modo cromático,cuantización, diatónico, inarmónico o modal, crescendos y diminuendos, ligaduras... Función de auto-orquestación.
•
Importación de gráficos (en formato TIFF, EPS, PICT, WMF, etc.).
•
Grabación y reproducción a través de MIDI.
•
Máxima calidad de impresión PostScript y no-Postcript. Fuentes Fuentes de notación universal (Maestro, Maestro Wide, Engraver, Petrucci), de guitarra (Seville) y de percusión (Tamburo).
•
Abrir y guardar ficheros en formato Standard MIDI File • Importación entre programas de edición de partituras (Finale, PrintMusic, Allegro), así como archivos exportados desde programas de reconocimiento óptico de partituras (Midiscan y SmartScore, de Musitek). •
Disponibilidad para ddiferentes iferentes sistemas operativos (Windows, Mac OS, etc.). Intercambio de archivos entre distintas plataformas.
•
Inclusión de numerosos plugins.
•
Servicio de publicación de partituras en Internet
•
Generación Algorítmica
Los programas de generación algorítmica permiten generar música a partir de una descripción matemática. Tal descripción se puede introducir o bien mediante algún metalenguaje o a través de elementos gráficos. La información de control que generan puede ser utilizable directamente o después de algún tipo de edición o retoque o inclusive sólo como una fuente de inspiración. Las posibilidades de generar música automáticamente son infinitas. El principio básico subyacente es que muchos procesos de composición son traducibles a programas de ordenador; lo cual, con una pequeña dosis de aleatoriedad, permitiría generar secuencias de notas, armonías y formas, como lo haría un compositor. Los resultados no son tales. Los procesos de composición y, más general aún, del pensamiento son aún investigados y desconocidos. Sin embargo, la posibilidad de probar formalizaciones musicales (aquellas que se pueden expresar mediante normas) puede ayudar al compositor a estimular esa otra parte de la composición relacionada con la intuición, emoción, etc.
70
La música es un arte que transcurre en el tiempo y está íntimamente relacionado con dos procesos de alto nivel: memoria y predicción. Una música irrepetible es imposible de recordar y, por lo tanto, de seguir y predecir. Es por ello que, a diferentes escalas de tiempo, la música se construye sobre la base de estructuras de repetición. Estadísticamente esto significa que las propiedades básicas de la nota (intensidad, valor, duración, etc.) mantienen ciertas relaciones entre sí, entre el pasado y el futuro; cierta frecuencia. Suponga que se realiza un estudio estadístico de una obra; contando la frecuencia de repetición, por ejemplo, de grupos de notas y ritmo. Primero con cada nota, luego por pares de notas, tríos… y así sucesivamente elevando el orden hasta un valor considerable. Si se tabulan todos estos valores de frecuencia, es posible generar notas que sigan este comportamiento utilizándolos como si se trataran de tablas de transición. Se puede comprobar que, en la medida en que aumente el orden de la experimentación, aumenta la similitud de estilo con la obra analizada: es posible generar música según cierto estilo.
Otro enfoque estadístico consiste en establecer reglas a partir del análisis formal de una obra (o conjunto de obras) y obtener música filtrando la generación aleatoria de notas con las reglas extraídas del estilo. El orden del análisis determina la memoria. Si el orden es muy alto, las reglas rechazan todos los valores y no se obtiene ninguna melodía; si por el contrario, es muy bajo, no se parece al estilo; fallan las órdenes extremos. La imagen anterior muestra una captura de Koan SSeyo Pro. Ejemplos de métodos algorítmicos de composición: Probabilidades y Procesos Estocásticos (Cadenas de Harkov).
•
Geometría Fractal.
•
71
Teoría del Caos, Sistemas Dinámicos No Lineales.
•
Ruido 1/f.
•
Autómatas Celulares.
•
Algoritmos Genéticos.
•
Teoría de Juegos.
•
Inteligencia Artificial.
•
Redes Neuronales.
•
Este proceso también se puede utilizar, a otra escala, para generar sonido en el proceso de síntesis. Secuenciación
El proceso de secuenciación es probablemente el más importante y usado para generar ordenador. La función idoalmacena variando alas lo largo delmúsica tiempopor pero, a grandes rasgos,delessecuenciador el elementoha que secuencias musicales y las reproduce sincronizadamente mediante procesos básicos: grabación, edición - procesado, reproducción. En el inicio tales secuencias estaban limitadas a señales de control sobre la síntesis (tal como la que genera el proceso de composición), dada la poca potencia de los ordenadores. Las secuencias eran introducidas al secuenciador mediante un teclado o controlador que generaba secuencias de control, paso a paso (nota a nota) mediante algún editor de secuencia, importadas desde un archivo, etc. Una vez grabadas, se podían retocar con numerosas herramientas de edición o aplicarle transformaciones o efectos y archivarlas para reproducirlas cuando se desee. Hoy día son potentes sistemas de grabación multipista digital que combina esta información de control con máquinas de síntesis, sonido, procesos, etc. El secuenciador estructura las líneas de los instrumentos en pistas (al estilo de las multipistas analógicas). Las pistas pueden ser de audio o de información de control de síntesis (por ejemplo MIDI) que será dirigida a un sintetizador (software o hardware). La mayoría de los secuenciadores modernos permiten mezclar o modificar las pistas con operaciones sencillas del tipo “Cortar, Copiar y Pegar” o “Arrastrar y Soltar”. Antiguamente, todos los procesos involucrados en la creación del audio eran cerrados y no se comunicaban entre sí. En 1983 surgió el primer estándar “universal” para permitir la comunicación entre equipos de diferentes fabricantes: el MIDI. Por su importancia y vigencia se le dedica especial atención en este libro. Con el software paso lo mismo hasta la aparición de los “plugins”. Básicamente los plugins son pequeños programas que permiten la integración de aplicaciones de terceros y con ello la posibilidad de agregar nuevos procesadores y sintetizadores sin reinstalar el sistema.
72
Hoy día, tal integración está perfectamente conseguida a ambos niveles: hardware y software; e inclusive, la canalización de información de control y de audio entre cualquier aplicación. Tales herramientas permiten a los secuenciadores (como aplicación anfitrión) integrar procesadores de audio y MIDI y sintetizadores (a los que se puede redirigir cualquier flujo de control de síntesis). La información de control de síntesis, tal MIDI, se puede editar como eventos (modificando las propiedades decomo cada elnota independientemente), en notación musical, como pianola (imitando la perforación de datos musicales en un rollo) o como una mesa de mezclas desde donde poder controlar los niveles, envíos a efectos, panorámica, etc. La siguiente imagen es una captura del secuenciador de Cakewalk: Sonar.
Una de las características más importante de los secuenciadores es la automatización o posibilidad de cambiar, dinámicamente, cualquier parámetro de control sobre una pista (ya sea de un efecto, nivel, etc.) e inclusive la capacidad de enlazar esta función con mesas reales o controlad ores que imitan su funcionamiento. De esta manera, por ejemplo, se puede sustituir la interacción con el programa mediante el teclado y ratón por controles deslizantes con los que probablemente el músico o técnico esté más habituado e identificado. Hoy es posible conseguir mesas de control USB o Firewire que simulan la ergonomía de una mesa real mientras que controla una mesa virtual en el secuenciador. Los secuenciadores, en una guerra de mercado extraordinaria, incorporan cada vez más funciones como la posibilidad de afinación automática, extracción del tiempo directamente del audio e, inclusive, la posibilidad de corregir la posición de las notas identificadas directamente en la pista de audio. Resumiendo, se puede decir que la posibilidad de segmentar y desagregar el audio en notas permite generar la información de control necesaria para controlarlo, automatizarlo e inclusive redirigirla hacia cualquier máquina de síntesis.
73
Transformaciones
Existen diferentes transformaciones aplicables a las secuencias de audio o de control agrupables funcionalmente en diversos conjuntos: transformaciones de altura (tono), intensidad, duración, tiempo, tempo, etc. Las operaciones habituales son las mismas: desplazamiento, escalado, normalización, cuantización, humanización. Altura
Desplazamiento
La transposición de la altura es un tipo de desplazamiento que transpone hacia arriba o hacia abajo la altura de una nota. Cambio de la escala musical en octavas o semitonos. semitonos. Muy útil cuando se pasa una pista de un instrumento instrumento a otro con diferente escala, para armonizar, etc. Cada semitono normalmente se divide en 100 unidades denomiadas “cents”. Los algoritmos de afinación pueden corregir la frecuencia en un fragmento de audio desde unos pocos cents hasta varios semitonos o tonos. A este tipo de desplazamiento se le suele encontrar como afinación. Aunque la transformación de la altura es aplicable por igual a secuencias de control o de audio, los algoritmos son bien diferentes. En el primer caso, por ejemplo, subir o bajar la altura probablemente consiste en sumar un número entero a un parámetro que define la altura de la nota. Sin embargo, en el caso del audio, el procedimiento es mucho más complejo. Todos sabemos que si ponemos un vinilo, o una cinta, a girar a mayor velocidad que la adecuada (48 rpm, en lugar de 33 rpm, por ejemplo) se oirá más agudo y, por supuesto, en menor tiempo. Los algoritmos de corrección de la altura, sin embargo, deben permitir la preservación del tiempo de duración de la secuencia. Intensidad
Las transformaciones de intensidad son útiles para igualar la dinámica de una secuencia, crear crescendos y decrescendos o diminuendos (subida o caída progresiva de la intensidad), desvanecimientos o subidas graduales de notas, etc. Básicamente permiten control el volumen o dinámica de la pieza musical. Normalización
Establece un valor de intensidad específico a todas las notas seleccionadas. En secuencias de control consiste en establecer un valor específico en el parámetro de la nota que regula su intensidad. En una secuencia de audio la normalización establece como valor máximo la intensidad que se quiera y escala los cambios de amplitud según corresponda.
74
Desplazamiento
Aumenta o disminuye la intensidad de las notas seleccionadas en el rango dado por el valor de desplazamiento. Esta transformación preserva la dinámica original, sólo ajusta el volumen general y se puede ver como un control de volumen. Escalado
Aumenta o disminuye la intensidad de las notas seleccionadas en el porcentaje dado por el valor de escala. Es una variante de la transformación de desplazamiento. Humanización
La transformación de humanización aleatoriza la intensidad de las notas seleccionadas, para hacer que el pasaje suene más natural. Esta transformación suele ser muy pequeña. Generalmente no se aplica sobre audio sino sobre secuencias de control generadas a un nivel de intensidad específico. Por ejemplo, cuando la secuencia proviene de un programa de notación o han sido introducidas desde un controlador antiguo sin sensibilidad a la presión de las teclas. Esta transformación permite seguir un comportamiento más humano. Crescendo
Ajusta la intensidad de las notas seleccionadas entre los valores inicial y final de velocidad del crescendo. Aunque esta transformación en muchos secuenciadores es lineal, algunos más sofisticados permiten seleccionar entre diversas funciones de alteración de la velocidad (exponenciales, logarítmicas, cuadráticas, etc.) o definidas arbitrariamente por el usuario mediante puntos de control sobre una línea de control de dinámica. Duración
La duración de cualquier nota suele ser expresada por el código Barra:Beat:Clic . El valor Clica la corresponde a una de fracción de lay negra (cuarto); típicamente 1/480;de Beat posición temporal una negra Barra cuenta el número del compás. El intervalo de tiempo real de una nota depende del metro y el tempo de la pieza musical. El primero define cuantas figuras contiene un compás (y de que valor) y el segundo la frecuencia de una figura. Por ejemplo: 4/4 significa que en el compás entran 4 figuras de valor 4 (negra) y
= 120 significa 120 negras o beats por minuto (BPM). Las transformaciones de la duración de un grupo de notas sirven para simular diversos tipos de articulación musical. Nuevamente los mecanismos de transformación de la duración dependen de la señal. Una nota en una secuencia de control normalmente corresponde a dos mensajes. Uno cuando empieza y otro cuando termina. Observe que se utiliza cuando y no donde; esto refleja el carácter relativo y la dependencia del tempo de las notas. Cualquier alteración de la duración consiste en mover de posición tales eventos. Sin embargo alterar
75
la duración de una secuencia de audio sin modificar su altura es un proceso mucho más delicado que consiste en comprimir o estirar “inteligentemente” la secuencia para evitar la alteración de la altura. Desplazamiento
Aumenta o disminuye la duración de todas las notas seleccionadas por un valor de desplazamiento. Escalado
Aumenta o disminuye la duración de todas las notas seleccionadas por un porcentaje o factor de escala. Humanización
La transformación de humanización de la duración de las notas permite ajustar la duración de las notas seleccionadas aleatoriamente e intenta simular la manera en que la produce un músico. Cuantización
Establece la duración de las notas a los valores más próximos múltiplos del intervalo seleccionado. seleccionado. Por ejemplo, si se elige la negra negra como intervalo, cada nota será convertida a negra, blanca, redonda, etc. siempre que el valor esté próximo a su duración original. Típicamente se puede controlar la int intensidad ensidad del efecto de cuantización. Tiempo
Las transformaciones de tiempo afectan el ritmo de la canción cambiando los tiempos de ataque de las notas (tiempo donde se inicia la nota y que en una secuencia de control se suele denominar tiempo de activación de la nota). Desplazamiento
Adelanta o retrasa los tiempos de ataque de las notas seleccionadas en un valor de desplazamiento específico. Humanización
Añade una serie de desplazamientos de tiempo aleatorios al tiempo de ataque de las notas seleccionadas. Esta transformación provoca que los pasajes parezcan más naturales. Cuantización
La transformación de cuantización de los tiempos de ataque permite ajustar los tiempos de ataque de las notas seleccionadas a sólo un conjunto de puntos posibles en el compás. Este efecto es muy poderoso y a menudo permite de cuantización expresado en controlar diversos como:64valor duración de la notaparámetros musical (cuarto, ésimo, etc.), intensidad o grado de
76
control de cuantización, swing o sensibilidad que permite controlar la selección de las notas a cuantizar, etc. Esta transformación ha sido exclusiva a las secuencias de control casi hasta hoy. Afortunadamente ya es posible descomponer una secuencia monofónica de audio en notas y la manipulación de todos sus parámetros individualmente. En un futuro quizá más próximo que lejano se podrá hacer lo mismo con material polifónico. transformación es de muy paraatratar el rubato (acelerar desacelerarEsta ligeramente el tempo unaútilpieza discreción del solista) y lao generación de patrones (grooves). Tempo
Escala
La transformación de ajuste del tempo escala los tempos de manera tal que el pasaje seleccionado ocupe la cantidad de tiempo deseada. Por ejemplo, si se tiene una pieza musical de 50 segundos y se desea que demore 60 segundos. Accelerando transformación accelerando La o ritardando permite de modificar tempo en cualquier dirección de (más rápido o más lento) un período tiempo el dado dentro de un rango seleccionado.
Características generales de un secuenciador: Herramientas para la grabación, edición, composición y navegación que optimizan el flujo de trabajo.
•
Visualización de capas de pistas, enmudecer /aislar clip, monitorizar selección, función nudge personalizable, ediciones multi-clip slip, roll-outs, y fundidos.
•
Construcción de Loops incluyendo envolvente de control, ganancia, tono
•
y panorámica para cada slice. • Soporte Surround multi-formato con mezcla y edición (5.1, 7.1, LCRS, etc). Uso fácil de efectos estéreo en entornos surround (SurroundBridge™): Surround Reverb (e.g., Lexicon® Pantheon™), Surround Compressor (Sonitus). Pista de vídeo con soporte (QuickTime, Windows Media Vídeo, AVI, MPEG. etc.).
•
Sintetizadores de alta calidad software (e.g., GM TTS-1 DXi multi-tímbrico GM2 Roland).
•
Balísticas de los medidores configurables (RMS, Picos, etc.).
•
77
Gestor de proyectos y loops, organización de de múltiples pistas en una única carpeta, en las que se pueda aplicar simultáneamente mute, solo, grabación y funciones de archivado e interpretación.
•
Importación de audio multi-canal en una carpeta carpeta de pistas. Gestión de grabaciones con múltiples micrófonos (baterías, coros, piano, orquestra, guitarras, etc…).
•
Pistas con múltiples toma tomass con audio y MIDI en múltiples cap capas as de una única pista; posibilidad de monitorizar sólo el contenido seleccionado en el proyecto; enmudecer rápidamente o asilar o tomas o secciones de tomas no deseadas o deseadas empleando las funciones “Clip Muting” y “Partial Clip Muting”, fusionar elementos usando herramienta de tipo “auto-crop” con opción de crossfade y modo de grabación Auto Punch no destructivo.
•
Construcción de loops con ca capacidad pacidad ddee compo composición sición con control de de la envolvente de los slices, ganancia, tono, panorama y las funciones “slice Preview” y “auto-loop”.
•
Renderización (con (congelación) gelación) de pistas, efectos efectos y sintetizadores para para liberar recursos del ordenador (CPU y memoria). Posibilidad de mover y editar datos congelados, incluso conversión de datos congelados a groove clips.
•
Edición de clips simultáneos: nudge, roll out groove groove clips, slip edit, y añadir o editar fundidos.
•
Síntesis
La síntesis es el proceso que permite generar sonidos musicalmente aceptables. Es difícil argumentar cuál sonido tiene interés musical y por qué. De la orquesta la música hereda tres tipos fundamentales de familias de instrumentos: viento, cuerda y percusión. Sin embargo la incorporación de sonidos producidos por fuentes extramusicales (ajenas a los instrumentos musicales tradicionales) es un hecho ampliamente utilizado y reconocido en la música. El desarrollo de la electrónica incorporó un universo nuevo de sonidos cuyas propiedades se podían controlar desde botones. Con la llegada de los ordenadores, la posibilidad de generar cualquier forma de onda expande el universo sonoro sin límites. Existen probablemente dos enfoques bien diferenciados en la síntesis. Uno clásico donde se simulan virtualmente los instrumentos tradicionales de la orquesta (e inclusive instrumentos que llegan de la música popular) y otro que permite generar sonidos con cualidades que le hacen utilizables en la música generados mediante algoritmos matemáticos que, en principio, no están directamente relacionados con la música en si. Los sintetizadores son los encargados de generar sonido a partir de secuencias de control de síntesis. Hacen la función del instrumento mientras la secuencia de
78
control ejerce de músico. El músico interactúa con movimientos precisos sobre la mecánica del instrumento y en consecuencia produce sonido. Virtualmente el proceso es idéntico, la secuencia de control porta toda la información necesaria para generar determinado sonido. La potencia de los ordenadores ha hecho posible la aparición de un amplísimo surtido de sintetizadores virtuales que se integrar en forma de plugin dentro de un secuenciador o funcionan independientemente o ambos inclusive. Aunque la interfaz es muy variada en general existe una tendencia a la emulación de aparatos o instrumentos físicos para facilitar la labor de control al músico. La información de control le puede llegar de diversas maneras: en tiempo real (con la posibilidad de automatización), paso a paso, mediante un editor, desde un controlador externo, etc.
79
La imagen muestra la interfaz que ofrece Reason: una aplicación que combina diferentes métodos de síntesis (tabla de ondas, substractiva, granular, etc.) con un amplio surtido de efectos (reverberación, dinámica, delay, phaser, vocoder, etc.) y un potente secuenciador con potentes funciones de automatización y gran facilidad de uso. Este tipo de entorno funciona como una aplicación independiente a la vez que permite (mediante una aplicación de comunicación entre aplicaciones o bridge) responder a secuencias de control de síntesis estándares desde cualquier secuenciador anfitrión. En la página se muestra la interfaz trasera del rack de sintetizadores; lossiguiente cables se pueden conectar y desconectar con manipulaciones secillas de ratón tipo pinchararrastrar-soltar). Por último se muestra una vista del secuenciador. Las notas se pueden agrupar formando secuencias fáciles de copiar y pegar.
80
En general, para cualquier aplicación de síntesis, el número de sintetizadores a utilizar, y la latencia, depende de la potencia del ordenador. Otro aspecto a destacar es el uso de secuencias o patrones pregrabados e incluso la posibilidad de convertir patrón cualquier audio.y Amediante estos fragmentos se les identifica la a posición temporalfragmento de las de notas algoritmos de compresión/expansión temporal se ajusta automáticamente al tempo de la composición. Este tipo de herramienta permite esbozar con rapidez una idea musical, crear variaciones a partir de estos patrones y construir música como si de un juego LEGO (bloques interconectables) se tratase. La siguiente imagen corresponde a otro entorno de síntesis: Void. La filosofía aquí empleada es muy diferente. El programa suministra bloques básicos de generación y procesado de señales (como si de módulos hardware se tratase) y permite la conexión virtual entre ellos; de manera tal que el músico o desarrollador de instrumentos pueda construir, con estas pequeñas unidades, cualquier sistema de síntesis. Este tipo de entorno simula los primeros paneles electrónicos gracias a los cuales surgió la música electrónica analógica. En realidad oculta potentes algoritmos de síntesis bajo una interfaz de usuario en forma de bloques interconectables tipo LEGO para facilitar el proceso de creación de instrumentos.
81
Otra versión más compleja para los músicos pero mucho más potente y flexible está formada por entornos que permiten definir y programar cualquier algoritmo de síntesis como si de un lenguaje de ordenador se tratase. CSound es un ejemplo de este tipo de entorno. Con una sintaxis similar (aunque mucho más sencilla) a la de C es posible “programar” algorítmicamente cualquier tipo de síntesis. Además de definir los “instrumentos”, es necesario definir las notas y todos los parámetros controlables a lo largo del tiempo, en otro archivo tipo “orquesta”. Por último es necesaria la máquina virtual que genera el sonido a partir de ambas especificaciones. Aquí el primer archivo define cada instrumento, el segundo las acciones de control sobre él o los instrumentos y por último la máquina virtual de síntesis hace posible el fenómeno de generación. Además (que(desde es gratis y de con libreuna distribución), existen muchos esfuerzosde en CSound este sentido entornos interfaz gráfica amigable o
82
inclusive simplemente de texto). Algunos ejemplos representativos son MAX/MSP, CLisp, CLM (Common Lisp Music), CMIX, etc.
83
Efectos
Los efectos son procesos que actúan sobre la señal de audio o control y permiten modificar sus características, ya sea en tiempo o en frecuencia. El eco por ejemplo que consiste en realizar copias amortiguadas de una nota se puede conseguir repitiendo la orden al sintetizador de generar el sonido correspondiente a una nota, disminuyendo gradualmente su intensidad o procesando el audio correspondiente a la nota directamente. Los efectos son procesadores de la señal útiles técnicamente o estéticamente. La primera función, por ejemplo, está relacionada a los procesos de mezcla, edición, postproducción, etc. y debe garantizar determinada “calidad” del audio. Por ejemplo el ajuste de nivel de cada instrumento dentro de la mezcla, la colocación en el estéreo, la corrección de la afinación de determinado pasaje en la voz, la supresión de ruido en una pista de audio contaminada, etc.
La segunda, sin embargo, se puede considerar una extensión al proceso de síntesis que permite “personalizar” un sonido según antoje. Los guitarristas, por ejemplo, consiguen un sonido “particular” no sólo con el audio que sale de su instrumento. El amplificador es casi una extensión de la propia guitarra que determina cualitativamente el sonido habitual es conectar unaelextensa “pedalera” con la que interactúa con ylalomisma dinámica que con propio instrumento. Así, cambiando la configuración de ambos se puede conseguir
84
desde un sonido claro y melódico, a uno agresivo y sostenido o simplemente la posibilidad de variarlo a voluntad. Cuando los procesadores no eran suficientemente rápidos y los programas de efectos no se comunicaban con otros programas solían realizar sus operaciones en diferido (consumiendo todo el tiempo que requerían y obligando al músico a esperar para escuchar el resultado final). Hoy día, la mayoría de estos procesadores se comercializan en forma de plugins (programas que conectan dinámicamente con algún programa anfitrión) y funcionan en tiempo real con una latencia apenas perceptible (como el GuitarRig cuya interfaz se muestra en la imagen anterior y desde la cual se puede observar la línea de simulación que también sigue Reason). Existen aplicaciones que agrupan diversos procesadores de efectos funcionalmente. Por ejemplo: en post-producción son muy importantes los procesadores de dinámica multibanda, ecualización paragráfica, excitador armónico, reverberación y dither. La siguiente imagen muestra la interfaz de Ozone, de IZotope, un plugin para masterización.
Los efectos también se siguen implementando en forma de dispositivos hardware. Inclusive es posible encontrar el mismo efecto en ambos mundos. ¿Cuál es mejor? La respuesta a esta pregunta es sencilla. Aún hoy, e increíblemente, la mayoría de procesadores de efectos hardware se interconectan vía analógica. Esto implica doble conversión acumulación por cada efecto (analógico-digital y digital-analógico) conuna la correspondiente de errores y distorsión a causa de la cuantificación.
85
Es difícil imaginar que el fabricante que ofrece el mismo efecto en hardware y software emplee algoritmos diferentes en cada caso. En última instancia, es precisamente en entornos propietarios pequeños donde escasean los recursos (por ejemplo los típicos pedales de guitarra), a diferencia de un plugin cuyos recursos dependeny velocidad sólo de los ordenador (donde a su vez el coste en memoria dedisponibles procesado en caeelcasi exponencialmente).
86
La imagen anterior muestra un ejemplo del amplio surtido de pedales BOSS y la siguiente su suite de procesadores de efectos integrados para bajo y guitarra respectivamente.
La mayoría de los secuenciadores software del mercado ofrecen una amplia gama de efectos, al igual que los programas sintetizadores. El uso de uno u otro depende de las necesidades del músico o ingeniero. Existe cierta tendencia a los procesadores convolutivos. La convolución es una técnica de procesado de señal que permite “pasar” una señal a través de un sistema. Para identificar adecuadamente estos sistemas son necesarios filtros muy largos cuya convolución con la señal de entrada producía una latencia inaceptable. Sin embargo, el perfeccionamiento de las técnicas de convolución particionadas en el dominio de la frecuencia, solucionan este problema “sin retardo” o latencia. Muchos productores y músicos capturan la respuesta al impulso de sus antiguos procesadores de efectos analógicos para utilizarlos en el dominio digital mediante la técnica de convolución. Esto permite “rescatar” la cualidad de estos procesadores antiguos con las técnicas más avanzadas.
87
Edición
El proceso de edición permite modificar, en diferido, una secuencia de audio digital. Si el audio fuese texto, el editor correspondería al procesador de texto. La edición de señales de control permite la modificación de cualquier parámetro de la nota, inserción de nuevas notas, transformaciones de escala, duración, etc. y, desde los inicios, han sido integradas en los secuenciadores. Así que editar, en este contexto, es un proceso exclusivo al audio digital. Los editores permiten grabar audio a diferente resolución y frecuencia de muestreo. La mayoría de los editores de audio (gratuitos o comerciales) admiten resoluciones de 8, 16 y 24 bits y frecuencias de muestreo de 2 kHz a 192 kHz y pueden operar, según el bus de datos del procesador, en coma flotante de 32 o 64 bits. Es posible encontrar 32 bits en las especificaciones de la resolución pero esto se refiere sólo a esto último y no a los bits de cuantificación. ¿Por qué frecuencias de muestreo tan altas si nuestro oído está limitado a un máximo de 22 kHz? Los últimos formatos de audio multicanal como Super Audio CD (SACD) y DVD Audio utilizan estas frecuencias. Esto puede estar relacionado con los algoritmos multirresolución de conversión de frecuencia de muestreo pero no exactamente con el ancho de banda de la señal grabada. gr abada.
La edición de las muestras de audio digital es no lineal (aunque el audio aparece secuencial o continuo, en realidad pudiera estar distribuido en zonas del disco duro muy distantes entre ellas) y a menudo está compuesta por aplicación de efectos, creación de bucles y regiones y la generación de listas de eventos. Normalmente soporta muestreadores externos y sincronización MIDI (MTC) y SMPTE.
88
Los programas de edición de audio digital soportan una amplia variedad de formatos de archivos de audio que incluye WAV, AIFF, etc. y también formatos de compresión: con y sin pérdidas y ofrecen una amplia gama de formatos de salida. Uno de los primeros usos que tuvieron los editores fue preparar las muestras de audio de los sintetizadores por tabla de ondas: definir los puntos de inicio y fin de bucle, obtener y definir la altura de la nota, modificar la envolvente, procesar las muestras, facilitar el intercambio (entrada-salida) entre el ordenador y muestreadores (samplers) externos, etc. Son capaces de realizar ediciones complejas, mezclas y entrecruzamientos y crear bucles y regiones mediante operaciones intuitivas del tipo “arrastrar y soltar”. Cada región se puede asigna asignarr a una nota MIDI o a un instante SMP SMPTE TE para dispararla desde secuenciadores o teclados MIDI. Incluyen una extensa gama de herramientas de procesado de audio digital como: eliminación de silencios, fundidos, inserción de silencios, inversión de onda, normalización de ganancia, ecualización gráfica y paramétrica, síntesis y re-muestreo de frecuencia variable, alteración del tiempo, procesado dinámico (compresión/expansión/limitador), chorus, eco, retardo, distorsión, modulación de amplitud, puerta de ruido, vibrato, reverberación, cambio de tono, envolvente, flanger, etc. y el soporte de plugins para ampliar sus funciones dinámicamente y a terceros fabricantes.
Habitualmente los editores funcionan con uno o dos canales (estéreo) de audio. Sin embargo, existen editores como Adobe Audition (en la imagen anterior) que permiten cualquier número de canales. La fuerte competencia y las estrategias empresariales amplia, no sólo la estabilidad y facilidad de uso, sino la funcionalidad de las aplicaciones; complicando, cada vez más, su clasificación. Es por ello unos encontrar una misma aplicación prácticamente todas las funciones. Hace añosenesto podría comprometer la calidad final del producto (a diferencia de la especialización). Sin
89
embargo, hoy día cuando un fabricante ofrece una amplísima y variada oferta de funciones no significa que haya construido todas desde cero; lo más probable es que las haya comprado o absorbido desde otros fabricantes más modestos y especializados o al menos sus patentes; lo que permite ofrecer calidad, versatilidad y precio muy competitivos. Paquetes como Live (en la siguiente imagen) son auténticos todo-terrenos que ofrecen con excelente estabilidad, versatilidad y facilidad de uso paratodo-en-uno todas las etapas: creación,calidad, producción, actuación.
90
Tema
13 Apéndices A Glosario Acústi Acú stico co
Se refiere a los sonidos que ocurren naturalmente, como los instrumentos musicales acústicos.
AES/EBU AES/E BU
Estándar profesional para transferencias de alta velocidad de dos canales de audio digital. Desarrollado conjuntamente por la Audio Engineering Society (EBU) (ver S/PDIF ). (AES) y la European Broadcasting Union
Aftertouc Aft ertouch h
(Presión posterior a la pulsación) Mensaje MIDI de presión sobre el teclado.
Aliasing Ali asing
Distorsión digital que aparece cuando se introducen en el sistema frecuencias más altas que la mitad de la frecuencia de muestreo. El aliasing o solapamiento se elimina colocando un filtro antisolapamiento justo a la entrada del circuito de muestreo de la señal para limitar la señal en banda.
>
Mensaje MIDI que permite interrumpir todas las notas de un sistema MIDI.
Amplit Amp litud ud
Cantidad de desplazamiento desde un punto cero. La amplitud de un sonido acústico es una medida del desplazamiento de la presión del aire, mientras que la amplitud de las señales analógicas es una medición del incremento o decremento de voltaje.
Analógico Analóg ico
Literalmente “similar a”. Las señales eléctricas analógicas a la salida de un transductor representan el sonido físico; su cambio de amplitud sobre el tiempo es equivalente al de la señal acústica original (ver Transductor ))..
Ancho Anc ho de Banda Banda
Rango de frecuencias presentes en el sonido.
Archivar Arc hivar
Proceso de hacer una guarda permanente de los datos; normalmente se hace en cintas, o discos magneto-ópticos, DAT u otros medios digitales removibles.
Archivo Arc hivo de d e Soni Sonido do
(Soundfile) Archivo de ordenador que contiene datos de audio digital.
91
Armónic Armó nico o
Frecuencia secundaria de un sonido. Todos los sonidos naturales están formados por una combinación de múltiples (infinitos) armónicos.
Ataque Ataque
Primer segmento de una envolvente de amplitud, principio de un sonido.
Audible Audi ble
Rango de audición humano; frecuencias entre 20 Hz y 20 kHz.
Bend Bend
(Pitch Bend) Mensaje MIDI de cambio contínuo de altura.
Bit Bit
Dígito binario; valor lógico (0 ó 1).
Bits de Resoluc Resolución ión
Número de bits utilizados por un sistema de grabación digital. Para calidad de audio CD se requieren r equieren 16 bits.
Bucle Bucle
(Looping) Reproducción de datos repetidamente.
>
Mensaje MIDI exclusivo de sistema que transmite el contenido de las memorias de un aparato.
Byte Byte
Grupo de ocho bits.
Canal de Audio Audio Cartucho Ca rtucho Removible Removible
Salida discreta a través de la cual se encamina la sseñal eñal de audio. (Cartidge Removable) Disco duro portátil encapsulado en un pequeño cartucho. Aunque es compacto y manipulable, los cartuchos removibles generalmente tienen capacidad limitada y tiempos de acceso relativamente lentos (ver Disco Duro y Syquest).
CD CD
(Compact Disk Disk – – Disco Disco Compac Compacto) to) Estánd Estándar ar de de disc disco o ópti óptico co de de solo solo lectura que normalmente contiene datos de audio digitalizado.
CPU CPU
(Central Processing Unit – Unidad de Procesamiento Central) Microprocesador central del ordenador, responsable de toda la lógica del sistema y de la organización de la memoria.
Clock Clock
Reloj informático.
Compresión de Datos Datos
Técnica matemática que permite almacenar los datos en el disco de forma compacta.
ADC ADC
(Conversor Analógico a Digital – Analog Digital Converter) – Componente que muestrea la señal eléctrica que llega en intervalos de tiempo regulares muy cortos y genera una secuencia de números equivalentes al voltaje recibido en cada intervalo.
DAC DAC
(Conversor Digital a Analógico – Digital Analog Converte) Converte) – Componente que recibe una señal digital continua de un medio de almacenamiento y genera un voltaje equivalente por cada número recibido.
Cruce por Cero Cero
Punto en el cual la onda onda de audio tiene amplitud amplitud cero. Cuando se truncan, desdoblan, o se crean bucles sobre regiones de archivos de sonido, es muy importante la detección de cruce por cero para evitar “pops” o “clics” espúreos en el sonido.
92
Cuantificación Cuantificación
Función que sirve para la colocación automática de la información registrada.
DAT DAT
(Digital Audio Tape) Tape) – Grabador digital de consumo similar al grabador de cinta de vídeo. El medio de cinta físico es una cinta pequeña cerrada, de aproximadamente la mitad de una cinta de audio.
Decibelio De cibelio (dB) (dB)
Unidad de medida utilizada para describir la amplitud de un sonido. Esta medición es relativa y logarítmica, en lugar de lineal. Por lo tanto, un incremento en amplitud de 1 dB equivale realmente a una señal 10 veces más fuerte.
Digital Digital
Literalmente, “usando dígitos”. Un ordenador es un dispositivo digital típico, el cual puede “pensar” sólo en términos binarios uno (encendido) y cero (apagado).
Disco Duro Duro
Medio de almacenamiento de alta capacidad. Esta compuesto por una serie de platos concéntricos encerrados en un recinto herméticamente cerrado. Los discos duros pueden estar montados dentro del ordenador o pueden ser dispositivos externos.
Ecualización Ecualización
Proceso mediante el cual son atenuadas o reforzadas diversas
DEQ DEQ
áreas de frecuencia de una señal. (Digital EQualization – Ecualización Digital) Digital) –– Proceso Proceso median mediante te el cual son atenuadas o realzadas diferentes áreas de frecuencia de la señal. señal.
Ecualización Paramétrica Paramétrica Proceso de ecualización que permite al usuario especificar la frecuencia central y el ancho de banda de cada área a atenuar o realzar (ver Anc Ancho ho de Ban Banda da, Ecualización Digital y Ecualización). Editor
Muestra los datos en la pantalla del ordenador y permite alterarlos.
Editor de Ondas Ondas
Programa que permite realizar operaciones de “microcirugía” sobre los archivos de audio digital, tal como la manipulación manual sobre secciones de la onda para eliminar “pops” o “clics”, o crear efectos de fundido, o aplicar envolventes de amplitud o frecuencia definidas por el usuario. Los editores de forma de ondas también proveen un conjunto de herramientas para la definición precisa de regiones de archivos de sonido, para la construcción de listas de reproducción, y para eliminar datos indeseables (ver Lista de Reproducción).
Envolvente Envolvente
Componente hardware o software que provoca variaciones de la amplitud, altura o timbre del sonido en el tiempo.
Evento Eve nto de Audio Aud io
Región de un fichero de sonido, colocada en una pista. Un evento de audio contiene un puntero a un área específica de un archivo de sonido. Algunos le llaman “segmento”. “segmento”.
Excitador Aural Aural
Efecto psicoacústico único que añade armónicos a la señal de entrada.
Filtro Filtro
Componente digital o analógico que elimina de un sonido frecuencias indeseadas.
93
Filtro Anti-Imagen Anti-Imagen
A veces denominado filtro de “suavizamiento”. Componente digital que reduce el error de cuantización interpolando entre puntos de muestra.
Filtro Anti-Solapamiento Anti-Solapamiento
Filtro paso-bajo analógico cuya frecuencia de corte es elegida aproximadamente a la mitad de la frecuencia de muestreo seleccionada. Se coloca justo antes del conversor analógico-adigital. Este filtro resuelve efectivamente el problema del solapamiento.
Filtro Paso Bajo Bajo
Filtro que elimina frecuencias por encima de una frecuencia de corte en particular y deja pasar todas las frecuencias que estén por debajo de ella.
Filtro de Suavizado Suavizado
ver Filtro Anti-Imagen.
Formatear
Proceso de inicialización de un medio de almacenamiento como disco o cinta para trabajar con un sistema en particular. Esta operación borra todos los datos grabados anteriormente.
Fragmentación Fragmentación
Situación indeseable donde los archivos de datos están almacenados en distintas áreas físicas de un disco (provoca tiempos de acceso más lentos).
Frecuencia Frecuencia
Número de ciclos de una onda que ocurren en un período de tiempo dado. La unidad de medida de la frecuencia es el Hertzio (Hertz).
Frecuencia de Corte Corte
Área de frecuencia central de un filtro definida por el usuario. Un filtro paso-bajo elimina las señales que estén por encima de la frecuencia de corte y permite el paso de las señales que estén por debajo.
Frecuencia de Muestreo Muestreo
Frecuencia con la cual un conversor analógico a digital rastrea una señal eléctrica. Frecuencias de muestreo altas proporcionan audio de mayor fidelidad pero requieren de mayor capacidad de almacenamiento (ver Conversor Analógico a Digital, CD y DAT).
FSK FSK
Señal empleada para la sincronización de un secuenciador y una grabadora de cinta.
Generador Ge nerador de d e Tonos Tonos
(Tone Generator) Instrumento musical electrónico que produce señales de audio, ya sea por manipulación directa de la señal eléctrica (como en los sintetizadores analógicos) ya sea mediante funciones matemáticas para alterar una secuencia de números (como en los sintetizadores digitales contemporáneos).
Gigabyte Gigabyte
Un millón de bytes (o sea, mil megabytes) de datos.
Hertzio (Hz) (Hz)
Unidad de medida de la frecuencia, representa un ciclo de onda por segundo.
Interfaz Interfaz
Punto en el cual interactúan sistemas independientes. Una interfaz puede ocurrir entre maquinas (como en la interfaz MIDI, que permite interactuar a los instrumentos musicales electrónicos y/o a los ordenadores) o entre hombre y máquina (como la interfaz de usuario software, que determina cómo el usuario navega a través
94
del programa). Interfaz MIDI MIDI
Dispositivo físico (hardware) que permite al ordenador “dialogar” el lenguaje MIDI y comunicarse con otros dispositivos MIDI como los instrumentos musicales electrónicos.
Kilobyte Kilobyte
1024 bytes de datos.
KiloHertzio (kHz) (kHz)
Unidad de medida de frecuencia, representa mil ciclos de onda por segundo.
Lista de Reproducc Reproducción ión
(Playlist) Lista de regiones de un archivo de sonido a reproducir secuencialmente, con un tiempo de disparo SMPTE específico para cada una (ver Editor de Formas de Ondas).
Magneto Ma gneto – Óptico (MO) (MO)
Medio de almacenamiento de muy alta capacidad que combina campos magnéticos y óptica láser para escribir datos en discos construidos especialmente. Como estos manipuladores tienen tiempos de acceso relativamente lentos, se recomiendan sólo para archivar datos de audio digital (ver Tiempo de Acceso).
Manipulador
(Driver) Componente software que permite al ordenador el acceso a un dispositivo periférico.
Matriz Matriz
Dispositivo que permite las conexiones entre diversos aparatos.
Megabyte Megabyte
Un millón de bytes de datos. A veces llamado “mega”.
Mezclador
Dispositivo que fusiona señales de audio desde numerosas fuentes (como instrumentos electrónicos, micrófonos, reproductores de cintas, reproductores de CD, etc.). A menudo contienen potenciómetros deslizantes (sliders) que permiten el ajuste independiente del nivel y la posición panorámica de cada fuente (ver Panorámica).
MIDI MIDI
(Musical Instrument Digital Interface) Acrónimo de Interfaz Digital de Instrumentos Musicales, un “lenguaje” digital estándar que permite comunicarse entre sí a instrumentos musicales electrónicos y ordenadores.
MTC MTC
(MIDI Time Code – Código de Tiempo MIDI) Mensaje de tiempo real de un sistema MIDI que asigna una dirección única a cada instante de tiempo (normalmente cada 120 partes de un segundo). Es similar al código de tiempo SMPTE, pero es transmitido por los puertos MIDI. Se utiliza principalmente para la sincronización de la reproducción de archivos MIDI y audio digital (ver SMPTE y Reloj Universal).
Muestra Muestra
(Sample) Grabación digital de un instante de un sonido natural (ver Conversor Analógico a Digital y Conversor Digital a Analógico).
Muestreador
(Sampler) Instrumento musical electrónico que soporta la grabación y reproducción de muestras digitales (ver Muestra).
Multipista Multipista
Se refiere a un dispositivo o componente software que provee más de dos pistas para el almacenamiento de la información (ver Pistas y Pistas Virtuales).
95
Mute Mute
Comando que permite silenciar iindividualmente ndividualmente una pista.
Onda Onda
Vibración regular hacia adelante – hacia detrás. El sonido es una forma de energía transmitida en ondas.
Optimización Optimización
(Defragmentación) Procedimiento que consolida los archivos existentes sobre el disco duro (sin borrarlos) de manera tal que elimina los espacios en blanco contiguos (ver Fragmentación).
Panorámica Panorámica
Posicionamiento de los sonidos entre los altavoces izquierdo y derecho para crear el efecto de estéreo (ver Mezclador ). ).
PCM PCM
(Pulse Code Modulation - Modulación de Impulsos Codificados) Técnica utilizada por la mayoría de los sistemas de grabación digital para codificar matemáticamente las señales de audio.
Periférico Periférico
Elemento accesorio de un sistema.
Pista Pista
Lugar para almacenar información de audio o MIDI. Las grabadoras de cinta proveen una o más pistas físicas en la cinta, mientras que la interfaz de los secuenciadores MIDI y los programas de edición de audio digital proveen una o más áreas de memoria para almacenar los datos (ver Multipista y Pista Virtual).
Pista Virtual Virtual
Pista digital, llamada “virtual” porque no se corresponde con una localización física (ver Multipista y Pista).
Plataforma Plataforma
Tipo de ordenador utilizado en una aplicación particular.
Polifónico Polifónico
Capaz de reproducir varias notas simultáneamente.
Politímbrico Politímbrico
(Multitimbre) Capaz de reproducir varios timbres simultáneamente.
Preset Preset
Conjunto de instrucciones almacenadas en memoria configuradas de fábrica.
Procesado Señal Señal
Digital
de Operaciones matemáticas realizadas sobre una señal digitalizada que alterar la señal de audio final. La capacidad del procesado digital de señal puede incluir efectos de reverberación, retardo, flanging, phasing, variación de la altura, chorus, modulación de anillo, excitador aural, compresión/limitación, expansión, puerta de ruido, filtrado gráfico o paramétrico, etc.
Programa Programa
(Patch) Número asociado a un instrumento de un sintetizador.
Programa MIDI MIDI
(Software) Programa de ordenador que puede grabar, manipular, reproducir, y/o almacenar datos MIDI.
Puerto MIDI MIDI
Conector físico a través del cual entran o salen los datos MIDI.
Puerto Serie Serie
Conexión física del ordenador a través de la cual entran y salen datos de forma serie.
RAM RAM
(Random Access Memory – Memoria de Acceso Aleatorio) Tipo de memoria de ordenador de alta velocidad que permite editar los datos pero requiere del suministro eléctrico constante para conservar los datos. Cuando se carga un programa de aplicación desde disco en un ordenador, este código es colocado en la RAM
96
del ordenador, donde permanece hasta que se apaga. Rango Dinámico Dinámico
Diferencia entre el sonido más fuerte y más débil en una situación dada. El rango dinámico típico en audio digital de alta calidad es de aproximadamente 144 dB. Cada bit de cuantificación aporta 6 dB aproximadamente.
Recalibración Recalibración
Procedimiento que ocurre siempre que un disco duro aparca su mecanismo de cabezas interno para protegerlo contra golpes. Algunos discos duros se recalibran automáticamente cada cierto intervalo periódico de tiempo en ausencia de actividad. Esto no es recomendable para el uso en audio digital (ver Disco Duro).
Región Región
Área de un archivo de sonido definida por el usuario (ver Segmento).
Reloj Universal Universal
Señal de sincronización extremadamente estable con la cual el código de tiempo SMPTE resuelve las situaciones de difusión profesional (ver SMPTE y Sincronización).
Reverberación Reverberación
Tipo de procesado digital de señal que añade espacio y ambiente al sonido (ver Procesado Digital de Señal).
ROM ROM
(Read Memoryque – Memoria de Solo Lectura)deTipo memoria de altaOnly velocidad no permite la edición losdedatos que almacena pero que no requiere de suministro eléctrico constante para preservarlos (ver RAM).
Ruido de Cuantización Cuantización
Distorsión de la señal de audio original que resulta del hecho de que el conversor analógico-a-digital recibe una señal eléctrica variable continua, pero sólo puede asignar a cada muestra individual un número finito de valores. Este problema se puede minimizar sobremuestreando y aplicando un filtro anti-imagen (ver Conversor Analóg Analógico ico a Digital, Filtro Anti-Imagen y Sobremuestreo).
SCSI SCSI
Acrónimo de Small Computer System Interface (Interfaz de Sistemas de Ordenador Pequeños). Protocolo de transferencia de datos de alta velocidad utilizado en muchos sistemas de computación para interconectar discos duros, CD-ROM, y otros periféricos. Todas los ordenadores Apple Macintosh (excepto los modelos 128 y 512) y los Atari TT y los Falcon tienen puertos SCSI de serie; las IBM-PC compatibles y las Atari ST o Ste sólo pueden utilizar SCSI si se añaden tarjetas o convertidores especiales.
Secuenciador
Dispositivo dedicado o aplicación de ordenador capaz de grabar y reproducir datos MIDI y/o de audio digital en sincronía con un reloj. Un secuenciador se comporta como una grabadora de cinta sin cinta, sin embargo, provee mayor capacidad de edición. Algunos teclados MIDI llevan incluidos un secuenciador para utilizar en actuaciones en directo.
Segmento Segmento
En algunos programas de audio (como Cubase), una región específica de un archivo de sonido.
Serie Serie
Tipo de interfaz de ordenador que envía y recibe datos sobre un sólo hilo, un bit cada vez. e.g., MIDI, puertos de comunicaciones de un ordenador IBM-PC (RS232C), puertos de modem e impresora
97
de un ordenador Macintosh (RS422). Sincronización Sincronización
Proceso de alinear eventos uno con otro. Normalmente, los códigos de tiempo SMPTE o MIDI (en los cuales se asigna una dirección única a cada subdivisión de tiempo) se utilizan con el propósito de sincronizar (ver SMPTE y Reloj Universal).
Sintetizador
Dispositivo que permite la generación de sonido.
SMPTE SMPTE
(Código de Tiempo SMPTE) Estándar adoptado por la Society of Motion Picture and Television Engineers en la cual se asigna a cada instante de tiempo (normalmente 120 partes de un segundo) una dirección única. Se utiliza masivamente en la industria del cine y el vídeo para sincronizar marcas de audio y visuales una con otra (ver MTC y Sincronización).
Sobremuestreo Sobremuestreo
Proceso software mediante el cual el ordenador interpola entre números adyacentes (suministra valores entre ellos) para reducir el error de cuantización (ver Filtro Anti-Imagen y Ruido de Cuantización).
S/PDIF S/PDIF
Acrónimo de Sony/Philips Digital Interface Format. Estándar de bajo consumo para la transferencia a alta velocidad de dos canales de datos de digital. Philips (veraudio AES/EB AES /EBU U). Desarrollado conjuntamente por Sony y
Syquest Syquest
Mecanismo de cartucho de disco duro removible utilizado por muchos manipuladores populares (ver Cartucho Removible).
Teorema de Nyquist Nyquis t
Teoría matemática que establece que, el ancho de banda de una señal digitalizada es aproximadamente la mitad de su frecuencia de muestreo. El corolario de esto es que, cualquier sistema de grabación digital puede sólo muestrear con precisión frecuencias inferiores a la mitad de su frecuencia de muestreo; por ejemplo, si se utiliza una frecuencia de muestreo de 44.1 kHz, sólo serán muestreadas con precisión aquellas frecuencias que estén por debajo de 20 kHz (ver Ali Aliasi asing ng y Filtro Anti-Solapamiento Anti-Solapamiento).
Tiempo Tie mpo de Acceso A cceso
(a menudo llamado tiempo de búsqueda). Es la cantidad de tiempo promedio que toma un periférico (e.g., disco duro) en localizar un dato, dado normalmente en milisegundos (milésimas de segundo).
Timbre Timbre
Calidad tonal de un sonido, determinada por la amplitud y frecuencia de sus componentes armónicos.
Trama Trama
Imagen, en cine y vídeo el movimiento se descompone en 24 ó 25 imágenes por segundo.
Transductor
Dispositivo que convierte una forma de energía en otra, por ejemplo el micrófono (convierte los cambios de presión del aire en una señal eléctrica analógica) y el altavoz (que convierte una señal eléctrica analógica en movimiento del aire) (ver Aná Análog logo o).
Trasiente Trasiente
Variación brusca de la amplitud del sonido.
98
B General MIDI El conjunto de programas General MIDI fue diseñado para asegurar la compatibilidad de los archivos MIDI y define un conjunto común de nombres de instrumentos y números MIDI. Esto significa que, si se selecciona el programa 4 (Patch), “Piano Honky-tonk”, este debe de sonar más o menos igual cuando se reproduzca sobre cualquier otro sintetizador o tarjeta de sonido General MIDI. Los sonidos de los instrumentos corresponden a los números en la columna del programa. PIANO 1 Acoustic Grand Piano 2 Bright Acoustic Piano 3 Electric Grand Piano 4 Honky-tonk Piano 5 Rhodes Piano 6 Chorused Piano 7 Harpsichord 8 Clavinet Chromatic
GUITAR 25 Acoustic Guitar (nylon) 26 Acoustic Guitar (steel) 27 Electric Guitar (jazz) 28 Electric Guitar (clean) 29 Electric Guitar (muted) 30 Overdriven Guitar 31 Distortion Guitar 32 Guitar Harmonics
ENSEMBL ENSEM BLE E 49 String Ensemble 1 50 String Ensemble 2 51 Synth Strings 1 52 Synth Strings 2 53 Choir Aahs 54 Voice Oohs 55 Synth Voice 56 Orchestra Hit
PERCUSSION PERCUSSION 9 Celesta 10 Glockenspiel 11 Music Box 12 Vibraphone 13 Marimba 14 Xylophone 15 Tubular Bells 16 Dulcimer
BA SS BASS 33 Acoustic Bass 34 Electric Bass (finger) 35 Electric Bass (pick) 36 Fretless Bass 37 Slap Bass 1 38 Slap Bass 2 39 Synth Bass 1 40 Synth Bass 2
BRASS 57 Trumpet 58 Trombone 59 Tuba 60 Muted Trumpet 61 French Horn 62 Brass Section 63 Synth Brass 1 64 Synth Brass 2
ORGAN 17 Hammond Organ 18 Percussive Organ 19 Rock Organ 20 Church Organ 21 Reed Organ 22 Accordion 23 Harmonica 24 Tango Accordion
STRING 41 Violin 42 Viola 43 Cello 44 Contrabass 45 Tremolo Strings 46 Pizzicato Strings 47 Orchestral Harp 48 Timpani
REED 65 Soprano Sax 66 Alto Sax 67 Tenor Sax 68 Baritone Sax 69 Oboe 70 English Horn 71 Bassoon 72 Clarinet
99
PIPE 73 Piccolo 74 Flute 75 Recorder 76 Pan Flute 77 Bottle Blow 78 Shakuhachi 79 Whistle 80 Ocarina
SYNTH EFFECTS 97 FX 1 (rain) 98 FX 2 (soundtrack) 99 FX 3 (crystal) 100 FX 4 (atmosphere) 101 FX 5 (brightness) 102 FX 6 (goblins) 103 FX 7 (echoes) 104 FX 8 (sci-fi)
PERCUSIVE 113 Tinkle Bell 114 Agogo 115 Steel Drums 116 Woodblock 117 Taiko Drum 118 Melodic Tom 119 Synth Drum 120 Reverse Cymbal
SYNTH LEA LEAD D 81 Lead 1 (square) 82 Lead 2 (saw) 83 Lead 3 (calliope lead) 84 Lead 4 (chiffer lead) 85 Lead 5 (charang) 86 Lead 6 (voice) 87 Lead 7 (fifths) 88 Lead 8 (bass + lead)
ETHNIC 105 Sitar 106 Banjo 107 Shamisen 108 Koto 109 Kalimba 110 Bagpipe 111 Fiddle 112 Shanai
SOUND EFFECTS 121 Guitar Fret Noise 122 Breath Noise 123 Seashore 124 Bird Tweet 125 Telephone 126 Helicopter 127 Applause 128 Gunshot
SYNTH PAD 89 Pad 1 (new age) 90 Pad 2 (warm) 91 Pad 3 (polysynth) 92 Pad 4 (choir) 93 Pad 5 (bowed) 94 Pad 6 (metallic) 95 Pad 7 (halo) 96 Pad 8 (sweep)
100
Mapa de Notas de la Batería General MIDI Al igual que el conjunto de programas General MIDI, el mapa de notas de la batería General MIDI asegura la compatibilidad entre los archivos MIDI de forma igual que, en la reproducción MIDI, la batería suene igual en todos los sintetizadores o tarjetas de sonido General MIDI. Los sonidos de la batería corresponden a las teclas del piano de un piano vertical de cualquier ventana de pianola de un secuenciador. Si se dispone de un instrumento General MIDI (GM) en el canal 10, cuando se inserten notas del piano sobre la ventana de edición de pianola, sonarán los sonidos de la batería. En la siguiente tabla, la columna de la izquierda indica los números MIDI, la columna central representa la nota del piano en la ventana de edición de pianola y, la columna de la derecha muestra los l os sonidos de percusión correspondientes.
No. MIDI
35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58
Nota
B2 C3 C#3 D3 D#3 E3 F3 F#3 G3 G#3 A3 A#3 B3 C4 C#4 D4 D#4 E4 F4 F#4 G4 G#4 A4 A#4
Descripción
Acoustic Bass Drum Bass Drum 1 Side Stick Acoustic Snare Hand Clap Electric Snare Low Floor Tom Closed Hi-Hat Hi Floor Tom Pedal Hi-Hat Low Tom Open Hi-Hat Low-Mid Tom High-Mid Tom Crash Cymbal 1 High Tom Ride Cymbal 1 Chinese Cymbal Ride Bell Tambourine Splash Cymbal Cowbell Crash Cymbal 2 Vibraslap
No. MIDI Nota
59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81
B4 C5 C#5 D5 D#5 E5 F5 F#5 G5 G#5 A5 A#5 B5 C6 C#6 D6 D#6 E6 F6 F#6 G6 G#6 A6
Descripción
Ride Cymbal 2 High Bongo Low Bongo Mute High Conga Open High Conga Low Conga High Timbale Low Timbale High Agogo Low Agogo Cabasa Maracas Short Whistle Long Whistle Short Guiro Long Guiro Claves High Wood Block Low Wood Block Mute Cuica Open Cuica Mute Triangle Open Triangle
101
Tiposs de Controlador General MIDI Tipo Los tipos de controlador General MIDI están especificados con los números del 0 -127 y controlan diversos parámetros como la variación continua de la altura (pitch bend), profundidad de los efectos, y volumen.
1 2 4 5 6 7 8 10 11 64 65 66 67 68 84 91 92 93 94 95 96 97 121 123 124 125 126 127
Nombre Modulation Wheel Breath Foot Pedal Portamento Time Data Slider Main Volume Continuos Release Pan Expression Control Sustain Portamento Switch Sustenuto Switch Soft Switch 2nd Release Switch Portamento Effects 1 Depth Effects 2 Depth Effects 3 Depth Effects 4 Depth Effects 3 Depth Data Plus Data Minus Reset All Controllers All Notes Off Omni Mode Off Omni Mode On Mono Mode On Poly Mode On
Valores Posib Posibles les 0 - 127 0 - 127 0 - 127 0 - 127 0 - 127 0 - 127 0 - 127 0 - 127 0 - 127 0 = off / 127 = on 0 = off / 127 = on 0 = off / 127 = on 0 = off / 127 = on 0 = off / 127 = on 0 - 127 0 - 127 (Normalmente Reverb) 0 - 127 0 - 127 (Normalmente Chorus) 0 - 127 0 - 127 0 = off / 127 = on 0 = off / 127 = on normalmente 0 normalmente 0 normalmente 0 normalmente 0 0 / todas las voces a mono normalmente 0
View more...
Comments