Professional Documents
Culture Documents
CURSO 14/15
a) El fonógrafo
b) El gramófono
En un principio utilizaba discos de 5″. El material con el que estaban hechos los
discos que reproducía el gramófono era goma endurecida o “vulcanite”.
Sin embargo, el fonógrafo tenía una ventaja con respecto al gramófono: los
usuarios podían grabar sus propios cilindros, con música o voces. Esta posibilidad tenía
múltiples aplicaciones que ni el gramófono ni el disco de vinilo posterior permitieron, y
que se encontraron disponibles nuevamente con la aparición de los magnetófonos de
carrete abierto, los grabadores de alambre metálico, los grabadores de cintas de cassette
y los dispositivos digitales, tales como computadoras equipadas con tarjetas de audio y
grabadores digitales portátiles.
AMPLIACIÓN
En 1827, Charles Wheatstone utiliza por primera vez la palabra “micrófono” para
describir un dispositivo acústico diseñado para amplificar sonidos débiles. Procede de
los vocablos griegos “micró” (pequeño) y “phon” (sonido). El primer micrófono
formaba parte del Fonógrafo, el dispositivo más común para reproducir sonido grabado
desde la década de 1870 hasta la década de 1880 y donde precisamente comenzó la
historia del micrófono y las grabaciones de audio. Fue conocido como el primer
“micrófono dinámico”.
El elemento típico del transmisor en este tiempo era no eléctrico occidental 323. Al
principio él fue utilizado como hablando en él pues uno utilizaría un teléfono. El paso
siguiente era proveer de los actores un micrófono que permitiría que estuvieran parados
y que se realizaran. Para este uso el constructor tomó el transmisor del teléfono del
candlestick, substituyó la boquilla corta por el megáfono y resbaló esta combinación
dentro de una manga alineada fieltro de la baquelita cerca de ocho pulgadas de largo y
puso pernos de argolla pequeños en cada extremo para suspenderlo de arriba.
El primer micrófono, que hizo para la industria de la película era el PB17. Era a sand
blasted el cilindro de aluminio, 17 pulgadas de largo y el fondo del The de 6 pulgadas
de diámetro fue redondeado con un yugo para llevar a cabo el elemento de la cinta, que
tenía una pantalla perforada protectora. La estructura magnética utilizó un electroimán
que requería seis voltios en un amperio.
En años recientes, algunos de los acercamientos más radicales al diseño del modelo del
micrófono han incluido la detección del movimiento, en respuesta a variaciones de
presión sana, de partículas cargadas, a un sistema análogo al altavoz iónico.
FIN AMPLIACIÓN
convierte la energía mecánica en ondas de frecuencia acústica. Es por tanto la puerta por
donde sale el sonido al exterior desde los aparatos que posibilitaron su amplificación, su
transmisión por medios telefónicos o radioeléctricos, o su tratamiento.
El sonido se transmite mediante ondas sonoras, en este caso, a través del aire. El oído
capta estas ondas y las transforma en impulsos nerviosos que llegan al cerebro y se
transforman en señales que se identifican con cosas como música, sonidos y
onomatopeyas. Si se dispone de una grabación de voz, de música en soporte magnético
o digital, o si se recibe estas señales por radio, se dispondrá a la salida del aparato de
señales eléctricas que deben ser convertidas en sonidos; para ello se utiliza el altavoz.
tanto en el disco como en la púa y el control del volumen del sonido. Además dio a
lugar a nuevas velocidades para los discos. Generalmente los tocadiscos reproducen a
33 RPM y 45 RPM.
Hay dos características clave para clasificar las tecnologías de cintas magnéticas.
A mediados del siglo XIX, un matemático inglés autodidacta de nombre George Boole
(1815-1864), desarrolló el sistema de Leibniz para hacerlo aplicable a las nuevas
técnicas de desarrollo industrial, denominado en su honor álgebra de Boole.
Este sistema basado en parte en la lógica aristotélica, definió de manera radical la forma
en que un sistema puede expresarse sin ambigüedades. En este sistema basado en dos
dígitos, 1y 0, cada uno de estas cifras expresa de manera inequívoca un estado o
resultado: verdadero o falso. Puede parecer curioso que un sistema de casi doscientos
años todavía tenga tanto que ver con nuestro mundo cotidiano.
Binario, del latín binarĭus, es algo formado por un par de componentes o unidades. Es
posible, por lo tanto, aplicar este adjetivo a diversos conceptos.
El sistema binario es aquel que numera empleando sólo ceros (0) y unos (1). Esto quiere
decir que, en el marco de estos sistemas, cualquier cifra puede expresarse a partir de
estos números. Este sistema es utilizado por las computadoras u ordenadores, que
funcionan con un par de voltajes diferentes y que atribuyen el 0 al apagado y el 1 al
encendido.
Cabe destacar que todos los números del sistema decimal pueden convertirse al sistema
binario. Es necesario dividir la cifra del sistema decimal entre 2, obteniendo un
resultado entero que se volverá a dividir entre 2 de manera sucesiva hasta que el
dividendo sea menor que el divisor (o sea, 2). Finalmente hay que ordenar los restos,
comenzando con el último y finalizando en el primero.
Señal digital
Con esto en claro, podemos comprender qué es una señal digital. Se trata de la señal
cuyos signos representan ciertos valores discretos que contienen información
codificada. Los sistemas que emplean señales digitales suelen apelar a la lógica binaria
(de dos estados): estos estados son reemplazados por unos y ceros, que indican el estado
alto o bajo del nivel de tensión eléctrica.
Una señal digital pierde poca calidad y puede reconstruirse y amplificarse en un proceso
simultáneo. Estas señales, además, pueden procesarse de manera sencilla y son poco
susceptibles al ruido ambiental.
Mientras que las señales analógicas son continuas, las señales digitales tienen la
capacidad de pasar de un valor a otro sin atravesar los valores intermedios. Esto está
vinculado a lo que comentábamos antes de la lógica binaria: cada señal digital sólo
puede tomar dos estados, representados por unos y ceros.
lo tanto, son unos y ceros que el sistema “sabe” cómo interpretar para responder a las
órdenes del usuario.
a) CD: El disco compacto (conocido popularmente como CD por las siglas en inglés de
Compact Disc) es un disco óptico utilizado para almacenar datos en formato digital,
consistentes en cualquier tipo de información (audio, imágenes, vídeo, documentos y
otros datos).
Esta tecnología fue inicialmente utilizada para el CD audio, y más tarde fue expandida y
adaptada para el almacenamiento de datos (CD-ROM), de video (VCD y SVCD), la
grabación doméstica (CD-R y CD-RW) y el almacenamiento de datos mixtos (CD-i,
Photo CD y CD EXTRA).
Detalles físicos
b) DAT
Cinta de Audio Digital, (del inglés Digital Audio Tape y abreviado DAT) es un medio
de grabación y reproducción de señal desarrollado por Sony a mediados de 1980. Fue el
primer formato de casete digital comercializado y, en apariencia, es similar a una cinta
de audio compacto, utilizando cinta magnética de 4 mm encapsulada en una carcasa
protectora, pero es aproximadamente la mitad del tamaño con 73 mm × 54 mm × 10,5
mm. Como su nombre lo indica, la grabación se realiza de forma digital en lugar de
analógica, la grabación y conversión a DAT tiene mayor, igual o menor tasa de
Como muchos formatos de vídeo cassete, un casete DAT solo puede ser grabado por un
lado, a diferencia de un casete de audio análogo compacto.
Actualmente queda superado por la potencia de los PC, que dotados de potentes
softwares de edición, permiten la mezcla y la creación posterior del CD, el cual se va a
"copiar" en la empresa de fabricación de CD.
Sentemos un poco las bases de este embrollo. Por síntesis analógica modular
entendemos un método de síntesis de sonidos mediante circuitería no digital que
permite la interconexión de varios módulos en cascada para obtener un sonido final.
Existen, en general, (y esto está aplicado tanto al terreno digital como al terreno
analógico) varios tipos de síntesis. Diremos primero que el elemento fundamental en un
sistema de síntesis (sea analógico o digital) es el oscilador, un sistema que entregue una
onda periódica y audible con una determinada forma (cuadrada, sinusoidal, triangular,
etc). Como decíamos antes, tenemos varios tipos de síntesis.
b) Síntesis sustractiva - A partir de una forma de onda muy rica en armónicos (como
resultado, por ejemplo de una síntesis no lineal), vamos eliminando y/o atenuando
aquellas componentes espectrales no deseadas.
c) Síntesis por modulación de amplitud (AM) - Nos encontramos ante un sistema algo
más complejo. El caso más simple es utilizando una señal portadora de una determinada
frecuencia y modular su amplitud mediante otra señal de frecuencia, por lo general,
múltiplo de la primera (a esta nueva señal se le denomina moduladora). De esta forma
se consiguen timbres muy variados usando formas de onda, a priori, muy simples.
Estas cuatro técnicas de síntesis son las más utilizadas en sistemas analógicos y se
denominan técnicas de síntesis lineal, debido a que existe un relación lineal entre el
espectro de las frecuencias iniciales (portadora y moduladora, por ejemplo) y el espectro
de salida. Citaremos, a continuación otros métodos de síntesis, en este caso, no lineales,
y que, por lo general siempre han estado más asociados a la síntesis digital.
h) Síntesis por modelado físico : Se trata de una técnica de síntesis muy poderosa ya
que genera unos timbres my buenos. Está destinada para la emulación de instrumentos
existentes y se basa en las propiedades físicas de cada instrumento (por ejemplo, para
emular el sonido de una guitarra implementa todas las ecuaciones implicadas en la
vibración de la cuerda y en las propiedades acusticas de la caja). Es un método de
c) Dientes de sierra, tiene más armónicos que la anterior pero de menor intensidad.
Parecido al saxo o al oboe.
2. Métodos de síntesis
El vocoder: Si pasamos un sonido cualquiera (B) a través del sonido original (A),
el sonido resultante (C) poseerá características de los dos sonidos (A y B).
El sampler: Sample en inglés significa muestra, por lo que podemos decir que un
sampler es un muestreador
a.- THEREMIN
Apariencia
El diseño clásico consiste en una caja con dos antenas. Se ejecuta acercando y alejando
la mano de cada una de las antenas correspondientes, sin llegar a tocarlas. La antena
derecha suele ser recta y en vertical, y sirve para controlar la frecuencia o tono: cuanto
más cerca esté la mano derecha de la misma, más agudo será el sonido producido. La
antena izquierda es horizontal y con forma de bucle, y sirve para controlar el volumen:
cuanto más cerca de la misma esté la mano izquierda, más baja el volumen.
de Theremin disponen tan solo de la antena que controla el tono, lo cual siendo
rigurosos les convierte en realidad en un "Eterófono", y su uso frecuentemente es el de
un aparato para efectos especiales más que un instrumento musical, al no poder acentuar
ni separar las notas producidas.
También se han llegado a producir theremines de forma más o menos artesanal con
formas de interactuar muy distintas, como por ejemplo, theremines ópticos que miden la
cantidad de luz que llega a un sensor. También la empresa Roland comercializa en
algunos de sus módulos un sensor de infrarrojos llamado D-Beam, con el cual se puede
controlar no solo el tono, sino alternativamente el parámetro que se elija.
Las ondas Martenot fueron usadas por muchos compositores, entre ellos Olivier
Messiaen, que las incluye en la Sinfonía Turangalila, en Trois Petites Liturgies de la
Présence Divine y en su ópera Saint-François d'Assise. Otros compositores que han
escrito para este instrumento son Pierre Boulez, Edgar Varèse, Darius Milhaud, Arthur
Honegger, Maurice Jarre y André Jolivet. Bohuslav Martinů autorizó la adaptación de
su Fantasie para ondas Martenot cuando llegó a la conclusión de que era difícil
interpretarla en el theremín, para el cual había sido originalmente escrita.
- El que se encuentra alrededor de la torre o CPU, y que por lo tanto, si que vemos
a simple vista, y que denominamos periféricos.
Software Musical:
1.-EDITORES DE PARTITURAS:
Estas herramientas, están pensadas para permitir todas las expresiones del lenguaje
musical, y en general, tienen más opciones de las que nunca llegaremos a usar fuera del
terreno de la Edición Profesional.
Con ellos podrás escribir e imprimir con gran calidad todo tipo de música, desde una
simple melodía, hasta complejas partituras para varios instrumentos, incluyendo
Tabulados de Guitarra, Letras de las Canciones, toda clase de Articulaciones,
Dinámicos, Reguladores, etc.
Una de las ventajas de trabajar con un Editor de Partituras, es que estas suenan.
Todos ellos poseen un comando "Play", que permite escuchar lo escrito, en este sentido
estos programas funcionan de forma parecida a un secuenciador, y cuentan con la
mayoría de funciones básicas de estos.
Otra de las ventajas de los Editores de Partituras, es que permiten cambiar de tonalidad
las notas y el cifrado con sólo apretar un botón, esto es sumamente cómodo cuando
tenemos, por ejemplo, una melodía escrita para Piano, y deseamos escribirla para
Guitarra, Bajo, Saxo, Trompeta, o cualquier otro instrumento transpositor.
Encore 5: Uno de los más populares y fáciles de utilizar. está distribuido por la empresa
http://www.gvox.com/. Existen versiones pra Mac y Windows.
Sibelius 5: Posiblemtente uno de los más utilizados por los músicos profesionales.
http://www.sibelius.com/
Power Tab Editor 1.7: La alternativa gratuita a Guitar Pro. Se puede descargar en:
http://power-tab-editor.softonic.com/
2.-SECUENCIADORES:
Permiten la creación de varias pistas melódicas, armónicas o rítmicas, que pueden ser
tratadas, editadas y reproducidas de forma individual o simultánea.
Aparte de la afinación, duración y posición de las notas, hay muchos otros parámetros a
los que los secuenciadores nos permiten acceder, tales como volumen, efectos, sonido,
etc. todo ello siempre con la posibilidad de tratar no sólo la pista en conjunto sino cada
una de sus notas de forma individual.
Es importante recalcar que los secuenciadores no tienen sonidos propios, sino que
utilizan los de la Tarjeta de Sonido.
Lo que el secuenciador hace es informar a la Tarjeta de cuando debe reproducir una
nota, con que volumen sonará, cuanto durará, etc.
Por lo tanto la calidad del sonido no depende del Software (secuenciador) sino del
Hardware (Tarjeta)
Permiten cargar, editar y reproducir su propio formato, aparte del formato Standard
Midi Files.
http://www.apple.com/es/logicstudio/
- Pro Tools: Es una estación de trabajo de audio digital (Digital Audio Workstation o
DAW, en inglés), una multiplataforma de grabación multipista de audio y midi, que
integra hardware y software. Actualmente, por sus altas prestaciones, es el estándar de
grabación en estudios profesionales, usado mundialmente.
La empresa Digidesign, que desarrolla el programa Pro Tools, elabora algunos de los
mejores hardwares de audio del mercado, por lo que su calidad y sólida fiabilidad son
ampliamente reconocidos. Esto ha llevado a este potente software de producción
musical y postproduccion audiovisual a convertirse en uno de los referentes de esta
industria.
El estigma de Pro Tools es que sólo puede usarse con un hardware especifico, y no
admite otras marcas.
http://www.digidesign.com/
-Cubase: Cubase es una serie de aplicaciones informáticas para editar audio digital,
MIDI y un secuenciador de música, (comúnmente conocidas como DAW - Digital
Audio Workstation), creadas originalmente por la firma alemana Steinberg en 1989.
Sin embargo, los sistemas operativos modernos están diseñados para soportar
aplicaciones multimedia, así que las versiones actuales de Cubase no usan MROS.
El lanzamiento de Cubase Audio en 1991 para el Atari Falcon abrió una brecha en la
tecnología de programas DSP poniendo al alcance domestico la manipulación de audio
en tiempo real. Esto era posible sin la necesidad de costosas tarjetas adicionales, como
era el caso con el costoso Pro Tools y otros sistemas similares.
http://www.steinberg.net
3.-EDITORES DE AUDIO:
Los editores diseñados para usarse con música permiten al usuario realizar las siguientes
tareas:
* Grabar audio desde una o más entradas y almacenar las grabaciones en la memoria de
la computadora como audio digital.
* Reproducir sonido (a menudo despues de haber sido mezclado) que puede ser enviado
a una o más salidas, como parlantes, procesadores adicionales o un medio de grabación.
Audacity: Es una aplicación informática multiplataforma libre, que se puede usar para
grabación y edición de audio, fácil de usar, distribuido bajo la licencia GPL.
http://audacity.sourceforge.net/
Audition: Adobe Audition (anteriormente Cool Edit Pro) es una aplicación en forma de
estudio de sonido destinado para la edición de audio digital de Adobe Systems
Incorporated que permite tanto un entorno de edición mezclado de ondas multipista no-
destructivo como uno destructivo, por lo que se lo ha referido como el "cuchillo suizo
multiuso" del audio digital por su versatilidad.
http://www.adobe.com/es/products/audition/
Soundforge: Sound Forge está reconocido como un estándar para la edición de audio en
la plataforma Windows.
Este programa es un completo editor de audio digital, que contiene una gran variedad de
opciones para el proceso de audio. Sound Forge soporta video para Windows, lo que le
permite sincronizar audio y video con la precisión de un fotograma.
Algunas de sus características más destacadas son: edición no lineal en el disco duro;
toneladas de efectos de audio, procesos, y herramientas; lee y escribe los formatos de
todos los ficheros soportados; procesado especial de ficheros de audio orientado a
Internet; producción con calidad de estudio para profesionales; compresión de ficheros
en 8 bits para su distribución; listas de reproducción y listas de regiones para
masterizado de CD; soporte de filtros especiales para la reducción de ruido, etc.
http://www.sonycreativesoftware.com/soundforgesoftware
c) Comunicación MIDI
MIDI son las siglas de Musical Instrument Digital Interface (Interfaz Digital de
Instrumentos Musicales). Se trata de un protocolo de comunicación serial estándar que
permite a los computadores, sintetizadores, secuenciadores, controladores y otros
dispositivos musicales electrónicos comunicarse y compartir información para la
generación de sonidos.
Esta información define diversos tipos de datos como números que pueden corresponder
a notas particulares, números de patches de sintetizadores o valores de controladores.
Gracias a esta simplicidad, los datos pueden ser interpretados de diversas maneras y
utilizados con fines diferentes a la música. El protocolo incluye especificaciones
complementarias de hardware y software.
Permite por ejemplo reproducir y componer música en este formato. Se caracteriza por
la ligereza de los archivos, pudiendo almacenarse multitud de melodías complejas,
como las de música clásica tocadas con varios instrumentos, en muy poca memoria.
Historia
El repentino inicio de los sintetizadores analógicos en la música popular de los años
1970 llevó a los músicos a exigir más prestaciones de sus instrumentos. La
interconexión de sintetizadores analógicos es relativamente fácil ya que éstos pueden
controlarse a través de osciladores de voltaje variable.
Jossie Arenal Pretto Página 21
DEPARTAMENTO DE MÚSICA L.P.M. CURSO 14/15
Cabe aclarar que MIDI no transmite señales de audio, sino datos de eventos y mensajes
controladores que se pueden interpretar de manera arbitraria, de acuerdo con la
programación del dispositivo que los recibe. Es decir, MIDI es una especie de
"partitura" que contiene las instrucciones en valores numéricos (0-127) sobre cuándo
generar cada nota de sonido y las características que debe tener; el aparato al que se
envíe dicha partitura la transformará en música completamente audible.
Hardware
Buena parte de los dispositivos MIDI son capaces de enviar y recibir información, pero
desempeñan un papel diferente dependiendo de si están recibiendo o enviando
información; también depende de la configuración del programa o programas que
pueden usar dichos dispositvos. El que envía los mensajes se denomina Maestro (del
inglés master, o ‘amo’) y el que responde a esa información, Esclavo (slave).
Aparatos
Éstos son los tres grandes tipos de aparatos MIDI. Aun así, podemos encontrar en el
mercado aparatos que reúnen dos o tres de las funciones descritas. Por ejemplo, los
órganos electrónicos disponen de un controlador (el propio teclado) y una unidad
generadora de sonido; algunos modelos también incluyen un secuenciador.
Cables y conectores
Un cable MIDI utiliza un conector del tipo DIN de 5 pines o contactos. La transmisión
de datos sólo usa uno de éstos, el número 5. Los números 1 y 3 se reservaron para
añadir funciones en un futuro. Los restantes (2 y 4) se utilizan -respectivamente- como
blindaje y para transmitir una tensión de +5 voltios, para asegurarse que la electricidad
fluya en la dirección deseada. La finalidad del cable MIDI es la de permitir la
transmisión de los datos entre dos dispositivos o instrumentos electrónicos. En la
actualidad, los fabricantes de equipos económicos y por ello, muy populares, de
empresas tales como Yamaha, Casio, Korg y Roland han previsto la sustitución de los
cables y conectores MIDI estándar, por los del tipo USB que son más fáciles de hallar
en el comercio y que permiten una fácil conexión a las computadoras personales.
Conexiones
Para entender bien el sistema de conexión, debemos saber que en un aparato MIDI
puede haber hasta tres conectores:
MIDI OUT: conector del cual salen los mensajes generados por el dispositivo maestro.
MIDI IN: sirve para introducir mensajes al dispositivo esclavo.
MIDI THRU: también es un conector de salida, pero en este caso se envía una copia
exacta de los mensajes que entran por MIDI IN.
Software
La especificación MIDI incluye un aspecto de software que parte de la misma
organización de los bytes.
Bytes MIDI
Existen dos tipos de bytes: De estado -status byte- y de información -data byte-. Se
diferencian por el primer bit: si es un 1, tenemos un byte de estado, y si es un 0, es un
byte de datos. Al generar un mensaje MIDI, por norma general, siempre enviamos un
byte de estado, que puede estar seguido de cierta cantidad de bytes de datos. Por
ejemplo, podemos enviar un primer mensaje de estado "activar nota", seguido de un
byte de datos informando qué nota es la que se activa. En algunas ocasiones y según el
dispositivo MIDI que se trate, puede ocurrir que se omita el byte status si es idéntico al
anterior. Por ejemplo, si tocamos la tecla do de un piano mandaría:
Pero al soltarla, puede omitir el status byte y apagarla por volumen (otra
posibilidad es que usase el 1000xxxx (note off) para apagarla).Es decir
transmitiría sólo los dos siguientes bytes:
00000000 (la velocidad cero, que indica que tiene que dejar de sonar esa nota)
En la siguiente tabla tenemos una lista con todos los mensajes disponibles.
1110ccccc Pitch
11110100 Indefinido
11110101 Indefinido
11111001 Indefinido
11111010 Inicio
11111011 Continuación
11111100 Parada
11111101 Indefinido
Los primeros bytes, cuyos últimos cuatro bits están marcados como "cccc", se refieren a
mensajes de canal; el resto de bytes son mensajes de sistema.
Canales MIDI
Como se comentó con anterioridad, MIDI está pensado para comunicar un único
controlador con varias unidades generadoras de sonido (cada una de las cuales puede
tener uno o varios instrumentos sintetizados que deseemos utilizar), todo por un mismo
medio de transmisión. Es decir, todos los aparatos conectados a la cadena MIDI reciben
todos los mensajes generados desde el controlador. Ello hace necesario un método para
diferenciar cada uno de los instrumentos. Este método es el denominado canal.
MIDI puede direccionar hasta 16 canales (también llamados voces, o instrumentos); por
ello, al instalar el sistema MIDI será necesario asignar un número de canal para cada
dispositivo.
Modos MIDI
Dentro del sistema MIDI, se decidió crear una serie de diferentes modos de
funcionamiento, cada uno con ciertas características. Antes de verlo, debemos
diferenciar entre los siguientes conceptos:
Una vez aclarado este aspecto, podemos resumir los modos MIDI en la siguiente tabla:
Los dos primeros modos se denominan "Omni on". Esto se debe a que en esos modos la
información de canal está desactivada. Esas configuraciones se reservan para
configuraciones donde sólo utilicemos un instrumento. Los otros dos modos, "Omni
off", sí admiten la información de canal.
Mensajes de canal
Channel o Canal; es el mensaje más común. Existen siete tipo de mensajes channel: -
Note on - Note off - Pitch-Bend - Program change - Aftertouch - Polyphonic Aftertouch
- Control change.
Secuenciador
Frecuencia modulada
Empezaremos a explicar los tipos de archivos de sonido que existen distinguiendo entre
aquellos con pérdida y sin pérdida.
Los archivos de sonido con pérdida son aquellos que usan un algoritmo de
compresión con pérdida, es decir un tipo de compresión que representa la
información (por ejemplo una canción), pero intentando utilizar para ello una
cantidad menor de información. Esto hace que sea imposible reconstruir
exactamente la información original del archivo.
Los archivos de sonido sin pérdida son aquellos que usando o no métodos de
compresión, representan la información sin intentar utilizar menor cantidad de la
información original. Hacen posible una reconstrucción exacta de la información
original.
Además un archivo mp3 consigue reducir el tamaño del archivo de sonido sin
influir en su calidad, aproximadamente 1 minuto de audio en formato mp3 ocupa
1 MB con una calidad prácticamente igual a la calidad de Cd.
Estas ventajas han conseguido que el formato mp3 pueda ser reproducido en casi
todos los reproductores de audio, que sea el formato por excelencia para el
intercambio a través de internet, una de las mejores opciones en estos momentos
para almacenar música con buena calidad, y también el formato de audio que
más se utiliza en reproductores portátiles, es un estándar y por tanto la
compatibilidad con todos los medios está garantizada.
El formato de audio mp3 permite seleccionar la calidad del audio que vamos a
comprimir, la calidad de cd sería equivalente a 128 Kbps (Bit rate), pero
podemos seleccionar la compresión entre los 8 Kbps y los 320 Kbps teniendo en
cuenta que cuanto mayor sea la transmisión de datos (Kbps), mayor espacio
ocupará el archivo.
ACC soporta 48 canales distintos como máximo, lo que lo hace indicado para
sonido envolvente o Surround y sonidos polifónicos, es decir que sería una
buena opción en caso de no escuchar el audio en cualquier sistema de audio de
dos canales (estéreo), y en el caso de películas, vídeo o en caso de disponer de
un reproductor compatible conseguiremos reducir el tamaño del archivo. Es más
eficiente que MP3 en casi todos los aspectos, ofrece mayor calidad y archivos de
menor tamaño, pero no goza por el momento de la compatibilidad y la
popularidad del MP3.
Este formato está pensado para codificar desde la calidad de telefonía 8kHz
hasta la calidad de alta definición 192 KHz, y para sistemas monoaurales,
estereofónicos, polifónicos, cuadrafónicos, 5.1, ambisónicos y hasta 255 canales
discretos. Los bitrates disponibles van desde 32 Kbps hasta 500 Kbps. El
formato Ogg ofrece una mejor fidelidad de sonido entre 8 KHz y 48 KHz que el
mp3 y sus archivos ocupan menos espacio. En cuanto a compatibilidad, tampoco
es un formato todavía tan universal como el mp3 pero cada vez más dispositivos
y programas lo reconocen y pueden trabajar con el.
Real Audio o RM: Es un formato de archivo pensado para las transmisiones por
internet en tiempo real, por ejemplo las radios que emiten online o cuando un
servidor tiene un archivo de sonido almacenado y nosotros lo escuchamos sin
que el archivo se cargue por completo ni se almacene en nuestro ordenador, esto
es posible gracias al proceso de Buffering que básicamente es recibir un paquete
de sonido en nuestro reproductor en este caso (Real Player) mientras el siguiente
se almacena en la carpeta de temporales hasta que sea requerido por el
reproductor. Con este sistema los archivos no pueden ser copiados.
Los datos en AIFF no están comprimidos, y usan una modulación por impulsos
codificados o PCM. También existe una variante estándar conocida como AIFC
que sí posee compresión.
AIFF es uno de los formatos líderes, junto a SDII y WAV, usados a nivel
profesional para aplicaciones de audio ya que está comprimido sin pérdida lo
que permite un rápido procesado de la señal a diferencia del MP3 por ejemplo,
pero la desventaja de este tipo de formatos es la cantidad de espacio que ocupa,
que es aproximadamente 10MB para un minuto de audio estéreo con una
frecuencia de muestreo de 44.1kHz y 16 bits. Además el estándar da soporte a
bucles para notas musicales para uso de aplicaciones musicales o samplers, sus
extensiones son .aif, .aiff y .aifc para la variante.
FLAC o Free Lossless Audio Codec: es otro códec de compresión sin pérdida,
y consigue reducir el tamaño de un archivo de sonido original de entre la mitad
hasta tres cuartos del tamaño inicial. El formato FLAC se suele usar para la
venta de música por internet, y como alternativa al MP3 para compartila cuando
se desea reducir el tamaño que trendría un archivo WAV-PCM sin perder
calidad, ya que con este tipo de compresión podremos reconstruir los datos
originales del archivo. También se suele usar para realizar copias de seguridad
de CDs de audio y admite cualquier resolución PCM de 4 a 32 bits, y cualquier
bitrates según la complejidad de la transmisión de audio, en la relación calidad-
bitrate, se encuentra parejo con MPEG-2 y en la mayoría de los frecuencia de
muestreo (sample rate) desde 1 a 65535KHz, en incrementos de 1Hz.
Puede soportar casi todos los códecs de audio, se utiliza principalmente con
PCM (no comprimido). Se usa profesionalmente, para obtener calidad de CD se
debe grabar el sonido a 44100 Hz y a 16 bits, por cada minuto de grabación de
sonido se consumen unos 10 megabytes de disco duro. Y su limitación es que
solo puede grabar archivos de 4GB que son aproximadamente unas 6 horas y
No se usa a penas para compartir música por internet, ya que existen otros
formatos de audio sin pérdida que reducen mucho más el tamaño de los
archivos.
VIDEOS COMPLEMENTARIOS
LA SINTESIS DIGITAL:
http://www.ccapitalia.net/reso/articulos/audiodigital/09/sintesisysonidodigita
l.htm
http://www.tecn.upf.es/~sjorda/ME2003/6-SintesisDigital/ME-
6SintesisDigital.pdf