Microprocesadores
Como ya sabemos, el microprocesador
es el corazón de
la PC, con millones de transistores,
funcionando con el sistema
binario.
Cada 18 meses los microprocesadores
doblan su velocidad. En
tal sentido dentro de 25 años una computadora
será más poderosa que todas las que estén
instaladas actualmente en el Silicon Valley californiano. La
performance de estos pequeños y grandes artefactos ha
mejorado 25.000 veces en sus 25 años de vida y he
aquí algunas prospectivas :
- Los microprocesadores del futuro brindarán
aún mas recursos a la
memoria
cache para acercar la actual brecha de velocidad
que existe entre ambos. - Los modernos microprocesadores superescalables
desempeñan desde tres a seis instrucciones por ciclo de
reloj. Por tal motivo, a 250 MHz, un microprocesador superescalable de cuatro
direcciones puede ejecutar un billón de instrucciones
por segundo. Un procesador del
siglo XXI podría lanzar docenas de instrucciones en cada
paso. - Algunos sostienen que la tecnología óptica reemplazará inevitablemente
a la tecnología electrónica. Las computadoras
podrían ser, por ejemplo, construidas completamente de
materiales
biológicos. - Pipeling, organizaciones
superescalares y cachés continuarán
protagonizando los avances de la tecnología, estando presente
también el multiprocesamiento
paralelo. - Probablemente, los microprocesadores existan en varias formas,
desde llaves de luz
páginas de papel. En el
espectro de aplicaciones, estas extraordinarias unidades
soportarán desde reconocimiento de voz hasta realidad
virtual. - En el futuro cercano, los procesadores y
memorias
convergirán en un chip, tal como en su momento el
microprocesador unió componentes
separados en un solo chip. Esto permitirá achicar la
distancia entre el procesado y la memoria y
sacar ventajas del procesamiento en paralelo, amortizar los
costos y usar a
pleno la cantidad de transistores de
un chip. - El microprocesador del siglo XXI será una
computadora
completa. Podría denominársela IRAM, para
expresar Intelligent Random Access Memory :
la mayoría de los transistores en
este chip dependerán de la memoria.
Mientras que los microprocesadores actuales están
asentados sobre cientos de cables para conectar a los chips de
memoria
externa, los IRAMs no necesitarán más que una
red y un cable
de electricidad.
Todas las unidades de entrada y salida estarán
vinculadas a ellos vía red. Si precisan
más memoria,
tendrán mas poder de
procesamiento y viceversa. Mantendrán la capacidad de
memoria y
velocidad de
procesamiento en equilibrio. - Los microprocesadores IRAMs son la arquitectura
ideal para el procesamiento en paralelo. Debido a que
requerirían tan pocas conexiones externas, estos chips
podrían ser extraordinariamente pequeños.
Podríamos estar ante microprocesadores más
pequeños que el antiguo 4004 de Intel. Si el
procesamiento en paralelo prospera, este mar de transistores
podría ser, además frecuentado por
múltiples procesadores en
un solo chip, creándose el
"micromultiprocesador". - La performance de los microprocesadores se
duplicará cada 18 meses cerca del giro del milenio. Una
comparación no descabellada para el primer cuarto del
siglo venidero señala que una computadora
del 2020 será tan poderosa como todas las que
están instaladas en este momento en Silicon
Valley.
NUEVAS
TECNOLOGIAS
Con décadas de innovaciones potenciales por
delante, los diseños microelectronicos convencionales
dominarán el siglo próximo. Esta tendencia impulsa
a los laboratorios a explorar una variedad de nuevas
tecnologías que podrían ser útiles en el
diseño
de nuevas computadoras y
unidades de procesamiento. En algunos casos estos avances
contribuirán a obtener chips más diminutos, niveles
inalcanzables a través de las técnicas
convencionales litográficas. Entre las tecnologías
que se investigan en el presente, de cara al siglo XXI, se
encuentran las siguientes :
- Cuántica de puntos y otras unidades de
electrones simples la cuántica de puntos son "acuerdos
moleculares "que habilitan a los investigadores a circunscribir
los electrones individuales y monitorear sus movimientos. Estas
unidades pueden, en teoría ser usadas como registro
binarios en los cuales la presencia o ausencia de un solo
electrón se utiliza para representar los ceros y unos de
los bits. En una variante de este esquema, el rayo láser
iluminado sobre los átomos podría producir el
intercambio entre sus estados electrónicos
mínimos de energía y los de excitación con
el fin de activar el valor de
bit. Una complicación de fabrica los transistores y
cables extremadamente pequeños está dada cuando
los efectos mecánicos comienzan a interrumpir su
función. Los componentes lógicos mantienen sus
valores I y
O menos confiables porque la ubicación de los electrones
Individuales se vuelve difícil de especificar. Pero aun
esta propiedad
puede ser mejorada : los investigadores del MIT (Instituto
Tecnológico de Massachusetts) estudian en este momento,
las posibilidades de desarrollar técnicas de computación cuántica, que
ayudarían a los sistemas
informáticos a cumplir comportamientos no
convencionales. - Computación molecular: en lugar de
fabricar componentes de silicio, se investiga el desarrollo
de almacenamiento utilizando moléculas
biológicas. Por ejemplo, se analiza el potencial
computacional de moléculas relacionadas con
"bacteriorhodopsin", un pigmento que altera su
configuración cuando reacciona a la luz. Una
ventaja de este sistema
molecular es que puede ser aplicado a una computadora
óptica, en la que los flujos de fotones
tomarían el lugar de los electrones. Otra posibilidad es
que muchas de estas moléculas podrían ser
sintetizadas por microorganismos, más que fabricados en
plantas
industriales. De acuerdo con algunas estimaciones, los
biomoléculas activadas fotónicamente pueden
vincularse en un sistema de
memoria
tridimensional que tendría una capacidad 300 veces mayor
que los actuales CD-ROMs - Puertas lógicas reversibles: como la
densidad de los
componentes de los chips crece, la disipación del
calor
generado por los sistemas de
microprocesamiento se volverá más dificultosa.
Investigadores de Xerox e IBM están testeando las
posibilidades de retornar a los capacitores
a sus estados originales al final de los cálculos.
Debido a que las puertas de acceso lógico podrían
recapturar algo de la energía expulsada,
generarían menos pérdidas de calor. - Aún no está claro de que manera
se las ingeniará la industria
informática para crear transistores
más delgados y más rápidos en los
años venideros. Por ejemplo, en la técnica
fotolitográfica, la luz es empleada
para transferir patrones de circuitos de
una máscara o plantilla de cuarzo a un chip de silicio.
Ahora la tecnología modela diseños de chips
de alrededor de 0,35 micrones de ancho, pero achicar esta
medida parece imposible mientras se utilice la luz; las
ondas
luminosas son muy anchas. Muchas compañías han
invertido en la búsqueda de maneras de sustituir los
más pequeños haces de luz por
rayos X. De
cualquier manera, los rayos X
aún no han resultado como método
para masificar la producción de los chips de última
generación.
Pentium II
El procesador
Pentium con
tecnología
MMX™, ahora disponible con 166 MHz y 200
MHz.
Con tecnología MMX de Intel, las PCs
obtienen un nuevo nivel de funcionamiento en multimedia y
otras nuevas capacidades que sobre pasan lo experimentado
anteriormente.
- sonido intenso
- colores brillantes
- rendimiento 3D
realístico - animación y video
fluido
Para beneficios de funcionamiento completo, se
debe combinar un procesador
Pentium con una
PC basada en tecnología MMX con programas
especialmente diseñados para tecnología
MMX.
Características
Con el procesador
Pentium II, se
obtienen todos los últimos avances de la familia de
microprocesadores de Intel: la potencia del
procesador
Pentium Pro
más la riqueza en capacidad de la tecnología
mejorada de medios MMX. El
procesador Pentium II,
entregando el más alto desempeño de Intel, tiene
abundante capacidad de desempeño para medios,
comunicaciones
e Internet a nivel
empresarial.
Operando a 233 MHz y 266 MHz para desktops y
servidores y a
300 MHz para estaciones de trabajo, el procesador utiliza la
tecnología de alto desempeño Dual Independent
Bus (Bus Dual Independiente) para
entregar un amplio ancho de banda adecuado para su elevado
poder de
procesamiento. El diseño
del cartucho Single Edge Contact (S.E.C) [Contacto de un Solo
Canto] incluye 512KB de cache dedicada de nivel dos (L2). El
procesador Pentium II también incluye 32KB de cache L1
(16K para datos, 16K para
instrucciones), el doble de la del procesador Pentium
Pro.
Características
Técnicas:
- Arquitectura Dual Independent Bus (Bus Dual
Independiente): al igual que el procesador Pentium Pro, el
procesador Pentium II también usa la arquitectura
D.I.B. Ésta tecnología de alto desempeño
combina ambos, un bus cache L2
dedicado de alta velocidad
más un bus del sistema con
anticipación que hace posible múltiples
transacciones simultáneas. - La tecnología MMX de Intel: la nueva
tecnología mejorada de medios de
Intel permite al procesador Pentium II ofrecer un alto
rendimiento para aplicaciones de medios y
comunicaciones. - Ejecución dinámica: el procesador Pentium II usa
esta combinación única de técnicas de
procesamiento, utilizadas por primera vez en el procesador
Pentium Pro, para acelerar el desempeño del software. - Cartucho Single Edge Contact (S.E.C) [Contacto
de un Solo Canto]: el nuevo e innovador diseño de empaquetamiento de Intel para
éste y los procesadores
futuros, el cartucho S.E.C. permite que todas las
tecnologías de alto desempeño de los procesadores
Pentium II sean entregadas en los sistemas
dominantes de hoy en día.
Todas estas características serán luego
explicadas con mayor profundidad.
El Procesador Pentium II
Trabajando:
Diseñado para desktops, estaciones de
trabajo y servidores de
alto desempeño, la familia de
procesadores
Pentium II es completamente compatible con las generaciones
precedentes de procesadores de Arquitectura
Intel.
Las empresas
pequeñas tanto como las grandes pueden beneficiarse del
procesador Pentium II. Éste entrega el mejor
desempeño disponible para las aplicaciones que se ejecutan
en sistemas
operacionales avanzados tales como Windows 95,
Windows NT y
UNIX.
Sobre su poder
intrínseco como procesador Pentium Pro, el procesador
Pentium II aprovecha el software diseñado
para la tecnología MMX de Intel para desbordar la pantalla
plena, video de movimiento
total, colores
más vivos, gráficas más rápidas y
otras mejoras en los medios. Con el
tiempo, muchas
aplicaciones para empresas se
beneficiarán del desempeño de la tecnología
MMX. Éstas incluyen:
- suites para oficina
- lectura óptica de documentos
- manejo de imágenes
- video conferencia
- edición y ejecución de video
La tecnología MMX mejora la
compresión/descompresión de video,
manipulación de imágenes,
criptografía y el procesamiento I/O – todas estas se usan
hoy en día en una variedad de características de las suites de oficina y medios
avanzados, comunicaciones
e Internet.
Técnica de la
Instrucción Simple, Datos
Múltiples (SIMD)
Las aplicaciones de multimedia y
comunicaciones
de hoy en día con frecuencia usan ciclos repetitivos que,
aunque ocupan 10 por ciento o menos del código total de la
aplicación, pueden ser responsables hasta por el 90 por
ciento del tiempo de
ejecución. Un proceso
denominado Instrucción Simple Múltiples Datos (SIMD, por
sus siglas en inglés)
hace posible que una instrucción realice la misma
función sobre múltiples datos, en forma
semejante a como un sargento de entrenamiento
ordena a la totalidad de un pelotón "media vuelta", en
lugar de hacerlo soldado a soldado. SIMD permite al chip reducir
los ciclos intensos en computación comunes al video,
gráfica y animación.
Nuevas
Instrucciones
Los ingenieros de Intel también agregaron
57 poderosas instrucciones nuevas, diseñadas
específicamente para manipular y procesar datos de video,
audio y gráficas más eficientemente. Estas
instrucciones están orientadas a las sucesiones
supremamente paralelas y repetitivas que con frecuencia se
encuentran en las operaciones de
multimedia.
Aunque la tecnología MMX del procesador
Pentium II es compatible binariamente con la usada en el
procesador Pentium con tecnología MMX, también
está sinérgicamente combinada con la avanzada
tecnología central del procesador Pentium II. Las
poderosas instrucciones de la tecnología MMX aprovechan
completamente las eficientes técnicas de procesamiento de
la Ejecución Dinámica, entregando las mejores
capacidades para medios y comunicaciones.
Arquitectura Dual Independent
Bus (Bus Dual Independiente)
Para satisfacer las demandas de las aplicaciones y
anticipar las necesidades de las generaciones futuras de
procesadores, Intel ha desarrollado la arquitectura Dual
Independent Bus (Bus Dual Independiente) para resolver las
limitaciones en el ancho de banda de la arquitectura de
la plataforma actual de la PC.
La arquitectura Dual Independent Bus (Bus Dual
Independiente) fue implementada por primera vez en el procesador
Pentium Pro y tendrá disponibilidad más amplia con
el procesador Pentium II. Intel creó la arquitectura del
bus dual independiente para ayudar al ancho de banda del bus del
procesador. Al tener dos buses independientes el procesador
Pentium II está habilitado para acceder datos desde
cualesquiera de sus buses simultáneamente y en paralelo,
en lugar de hacerlo en forma sencilla y secuencial como ocurre en
un sistema de bus
simple.
Cómo
Trabaja
- Dos buses conforman la arquitectura Dual
Independent Bus (Bus Dual Independiente): el "bus del
caché L2" y el "bus del sistema" entre
el procesador y la memoria
principal. - El procesador Pentium II puede utilizar
simultáneamente los dos buses. - La arquitectura Dual Independent Bus (Bus Dual
Independiente) permite al caché L2 del procesador
Pentium II de 266MHz, por ejemplo, operar al doble de velocidad
del caché L2 de los procesadores Pentium. Al aumentar la
frecuencia de los procesadores Pentium II futuros,
también lo hará la velocidad del caché
L2. - El bus del sistema de procesamiento por
canalización permite transacciones múltiples
simultáneas (en lugar de transacciones únicas
secuenciales), acelerando el flujo de la información dentro del sistema y elevando
el desempeño total.
Conjuntamente estas mejoras en la arquitectura
Dual Independent Bus (Bus Dual Independiente) brindan hasta tres
veces el desempeño del ancho de banda sobre un procesador
de arquitectura de bus sencillo. Además, la arquitectura
Dual Independent Bus (Bus Dual Independiente) soporta la evolución del bus de memoria del
sistema actual de 66 MHz a velocidades más elevadas en el
futuro. Esta tecnología de bus de alto ancho de banda
está diseñada para trabajar concertadamente con el
poder de
procesamiento de alto desempeño del procesador Pentium
II.
Ejecución
Dinámica
¿Qué es Ejecución Dinámica?
Utilizada por primera vez en el procesador Pentium
Pro, la Ejecución Dinámica es una innovadora
combinación de tres técnicas de procesamiento
diseñada para ayudar al procesador a manipular los datos
más eficientemente. Éstas son la predicción
de ramificaciones múltiples, el análisis del flujo de datos y la
ejecución especulativa. La ejecución dinámica hace que el procesador sea
más eficiente manipulando datos en lugar de sólo
procesar una lista de instrucciones.
La forma cómo los programas de
software
están escritos puede afectar el desempeño de un
procesador. Por ejemplo, el desempeño del software será
afectado adversamente si con frecuencia se requiere suspender lo
que se está haciendo y "saltar" o "ramificarse" a otra
parte en el programa.
Retardos también pueden ocurrir cuando el procesador no
puede procesar una nueva instrucción hasta completar la
instrucción. La ejecución dinámica permite
al procesador alterar y predecir el orden de las
instrucciones.
La Ejecución
Dinámica Consiste de:
Predicción de
Ramificaciones Múltiples
Predice el flujo del programa a
través de varias ramificaciones: mediante un algoritmo de
predicción de ramificaciones múltiples, el
procesador puede anticipar los saltos en el flujo de las
instrucciones. Éste predice dónde pueden
encontrarse las siguientes instrucciones en la memoria con
una increíble precisión del 90% o mayor. Esto es
posible porque mientras el procesador está buscando y
trayendo instrucciones, también busca las instrucciones
que están más adelante en el programa. Esta
técnica acelera el flujo de trabajo enviado al
procesador.
Análisis del Flujo de
Datos
Analiza y ordena las instrucciones a ejecutar
en una sucesión óptima, independiente del orden
original en el programa:
mediante el análisis del flujo de datos, el procesador
observa las instrucciones de software decodificadas y
decide si están listas para ser procesadas o si dependen
de otras instrucciones. Entonces el procesador determina la
sucesión óptima para el procesamiento y ejecuta las
instrucciones en la forma más eficiente.
Ejecución
Especulativa
Aumenta la velocidad de ejecución
observando adelante del contador del programa y
ejecutando las instrucciones que posiblemente van a necesitarse.
Cuando el procesador ejecuta las instrucciones (hasta cinco a la
vez), lo hace mediante la "ejecución especulativa". Esto
aprovecha la capacidad de procesamiento superescalar del
procesador Pentium II tanto como es posible para aumentar el
desempeño del software. Como las instrucciones del
software que se procesan con base en predicción de
ramificaciones, los resultados se guardan como "resultados
especulativos". Una vez que su estado final
puede determinarse, las instrucciones se regresan a su orden
propio y formalmente se les asigna un estado de
máquina.
Cartucho Single Edge Contact
(S.E.C) (Contacto de un Solo Canto)
¿Qué es el cartucho de
empaquetamiento S.E.C.?
El cartucho Single Edge Contact (S.E.C) [Contacto
de un Solo Canto] es el diseño
innovador de empaquetamiento de Intel que permite la entrega de
niveles de desempeño aún más altos a los
sistemas
predominantes.
Utilizando esta tecnología, el
núcleo y el caché L2 están totalmente
encerrados en un cartucho de plástico y metal. Estos
subcomponentes están montados superficialmente a un
substrato en el interior del cartucho para permitir la
operación a alta frecuencia. La tecnología del
cartucho S.E.C. permite el uso de los BSRAMs de alto
desempeño y gran disponibilidad para el caché L2
dedicado, haciendo posible el procesamiento de alto
desempeño a los precios
predominantes. Esta tecnología de cartucho también
permite al procesador Pentium II usar la misma arquitectura Dual
Independent Bus (Bus Dual Independiente) utilizada en el
procesador Pentium Pro.
El procesador Pentium II se conecta a una tarjeta madre
mediante un conector simple de borde en lugar de hacerlo mediante
las patillas múltiples utilizadas en los empaquetamientos
PGA existentes. Similarmente, el conector de la ranura 1
reemplaza al zócalo PGA utilizado en los sistemas
anteriores. Las versiones futuras del procesador Pentium II
también serán compatibles con el conector de la
ranura 1.
Aplicaciones del cartucho S.E.C.
de Intel
Intel se está moviendo hacia el diseño
del cartucho S.E.C. como la solución para los procesadores
de alto rendimiento de la siguiente década. El primer
cartucho S.E.C. está diseñado para desktops,
estaciones de trabajo y servidores de
procesamiento sencillo y dual. Posteriormente, Intel
optimizará los diseños del cartucho para estaciones
de trabajo y servidores de
desempeño aún mayor y diseñará
soluciones
similares, altamente integradas para los sistemas de computación móvil.
La llamada crisis del
año 2000
Se trata del hecho de que en algunas computadoras, en particular en las
de
modelos viejos, las fechas son almacenadas en
tres campos de dos dígitos cada uno, lo cual impide
distinguir entre las fechas del siglo XX y las del siglo XXI.
Por si esto fuera poco, algunos programadores utilizaron en
aquella época el 99 como un valor
especial suponiendo que para 1999 ya existirían otras
aplicaciones.
Los especialistas en informática consideran hoy en día
que se trata del problema más grande al que se ha
enfrentado la industria de
la computación en sus 50 años de
existencia. Por desgracia, muy pocas organizaciones
están preparadas para encontrar una solución
oportuna.
La dimensión real del
problema
Cada cuatro años suele haber un
pequeño ajuste en el calendario gregoriano utilizado hoy
en día desde su implantación en 1582. Dicho ajuste
es el que ha llevado a la existencia de un día adicional
en febrero de cada cuatro años, o sea, al llamado
año bisiesto. Muchos programadores de computadoras
no tomaron en cuenta este hecho al definir sus fórmulas
para el cálculo de
fechas. No obstante, el ajuste de un día cada cuatro
años no representa el mayor reto de los sistemas
complejos: la llegada del año 2000 y los problemas que
implica van mucho más allá.
Considere, por ejemplo, un sistema gubernamental
de pagos que maneje cifras de 5 años hacia atrás.
En el año 2001, al visualizar los pagos anteriores, los
operadores esperarán obtener en su pantalla una lista de
arriba hacia abajo con indicaciones acerca de los años 01,
00, 99, 98, 97, etc. Sin embargo, las listas clasificadas en
forma descendente por fechas les mostrarán los datos
correspondientes a los años 99, 98, 97… 01 y 00 en vez
de lo originalmente deseado. El significado de los datos
será totalmente alterado.
Entre las necesidades existentes debido a la
llegada del año 2000 cabe mencionar los
siguientes:
- El rediseño de formas y de reportes en
los cuales el campo de fecha no aparece completo o de manera
adecuada. - La reindexación de aquellas bases de datos
que utilizan la fecha como índice. - La reprogramación de sistemas de los que
no existe el código fuente. - La elaboración de procedimientos
especiales para el manejo de listas basadas en fechas, o para
la recuperación de información existente en cintas de
respaldo en las cuales el 99 aparece como separador o como
indicador de terminación de una
lista. - El rediseño de los sistemas de
código de barras dado que hasta ahora ninguno de los
dispositivos existentes para tal fin utiliza 4 dígitos
para el manejo del año. - La reingeniería de casi todas las computadoras
portátiles dado que no están preparadas para el
cambio de
fecha del 31 de diciembre de 1999 al 01 de enero de 2000
(porque el BIOS no
soporta el año 2000).
Desgraciadamente, el problema causado por la
crisis del
2000 abarca muchos más aspectos no necesariamente
técnicos:
Por ejemplo, para calcular la edad de una
persona nacida
en 1960, la fórmula utilizada hasta ahora es 97-60=37,
pero en el año 2000 dicha fórmula sería
00-60=?. En este caso la lógica implícita para calcular los
años transcurridos puede fallar. El resultado puede ser
un número negativo, o bien, un entero extremadamente
grande. En ambos casos, el resultado puede dar lugar a la
cancelación de tarjetas de
crédito, a errores en el cálculo
de pensiones, al pago indebido de intereses, a la
obtención de saldos telefónicos erróneos,
etc.
Han de ser verificados el 100%
de los sistemas actuales
Las pruebas de
cómputo en los mainframes y las bases de datos
muy grandes implican
simular el año 2000, pero son muy pocas las
organizaciones
con la capacidad de cómputo requerida para duplicar todos
los sistemas, los archivos, los
respaldos, etc. Además, la prueba de todos los sistemas
obliga probablemente a trabajar los fines de
semana.
Ha de ser debidamente
presupuestada la estrategia a
seguir
La manera más efectiva de evitar esta
crisis
consiste en cambiar el 100% del software por versiones listas
para operar con fechas del año 2000. Este procedimiento
sería de un costo
excesivamente alto, en especial para programas cuyo
código fuente ya es inaccesible.
En este contexto cabe señalar que el
costo de
corrección de una línea de código en
COBOL fue
estimado por Gartner Group entre $1.10 y $1.50 dólares, lo
cual implica que el costo total de la
solución a la crisis del
2000, tan solo en los Estados Unidos,
es superior a $1500 millones de dólares.
En términos de desarrollo de
aplicaciones, existirán problemas
sólo si los campos tipo fecha no son debidamente
utilizados. Estos problemas son
ajenos a la herramienta de desarrollo
pero dependen de cada programador. Por ejemplo, Microsoft
Visual Basic
está preparado para calcular correctamente fechas del
próximo siglo, pero si no se utilizan las funciones
internas de cálculo de
fechas, o sea, se convierten las fechas en números
seriales, o se utilizan campos enteros como fechas, las
aplicaciones pueden ser incompatibles a la
larga.
Existen otros problemas de
menor importancia, como por ejemplo el hecho de que MS-DOS no ha
de aceptar la fecha 00 y de que ha de obligar a la captura
completa del "2000", o bien de que ciertos programas tales
como Microsoft
Windows 3.1,
despliegan incorrectamente las fechas de los archivos del
año 2000 mostrándolos con caracteres no
numéricos (basura). Este
problema se solucionaría con el simple hecho de que ya
todos los usuarios se actualicen a los nuevos sistemas
operativos.
DVD (Digital Video
Disc)
No es fácil encontrar, en el campo de la
electrónica de consumo, un
estándar capaz de poner de acuerdo a los principales
fabricantes de CD-ROM,
vídeos VHS, laserdiscs y equipos musicales. La
tecnología DVD ha
obrado el milagro, situándose en una posición de
privilegio para convertirse en el estándar de almacenamiento digital del próximo
milenio.
Introducción
Migrar de un sistema a otro, en cualquiera de los
eslabones de la compleja cadena que da lugar al hardware de un ordenador, es
uno de los procesos
más complicados a los que un avance tecnológico
debe enfrentarse.
En el caso de los compatibles PC, con cientos de
millones de máquinas funcionando bajo miles de
configuraciones distintas, en manos de millones de usuarios con
distintos niveles económicos, es todavía más
complejo.
A modo de ejemplo, tenemos el sistema de almacenamiento
que todos conocemos con el nombre de CD-ROM y que,
paradójicamente, si todas las previsiones se cumplen,
será sustituido por las nuevas unidades DVD-ROM, que
aquí vamos a tratar de analizar. Han sido necesarios
más de 10 años, cinco desde que se produjo la
espectacular bajada de precios de los
lectores, para que el CD-ROM se haya
convertido en un elemento imprescindible en todos los
ordenadores. Ahora que casi todo el mundo se ha habituado a
utilizar este derivado de los clásicos CD musicales,
un nuevo formato amenaza con enterrarlo definitivamente. El
proceso, por
supuesto, será muy lento; tendrán que pasar unos
cuantos años para que alcance el nivel de popularidad de
los CD, pero pocos
dudan que acabará convirtiéndose en el
estándar digital del siglo XXI.
Al contrario que otros sistemas similares, como es
el caso de los discos removibles, donde cada fabricante utiliza
su propio estándar -con la dificultad que esto implica a
la hora de implantarse en todos los ordenadores-, la
tecnología DVD no
sólo unifica aquellos criterios relacionados con el
almacenamiento de
datos informáticos, sino que va mucho más
allá, abarcando todos los campos donde se utilice la
imagen y el
sonido.
Todavía es muy pronto para predecir el
impacto que las siglas mágicas DVD
provocarán en nuestras vidas. Pero, si las previsiones de
sus creadores se cumplen, dentro de dos o tres años no
existirán los televisores, altavoces, vídeos,
laserdiscs, cadenas musicales, consolas, tarjetas
gráficas, o lectores de CD-ROM, tal
como hoy los conocemos.
Una primera
aproximación
La especificación DVD
-según algunos fabricantes, Digital Vídeo Disc,
según otros, Digital Versatile Disc-, no es más que
un nuevo intento por unificar todos los estándares
óptico-digitales de almacenamiento,
es decir, cualquier sistema de grabación que almacene
imágenes o sonido. DVD
abarca todos los campos actualmente existentes, por lo que, si
llega a implantarse, un mismo disco DVD podrá utilizarse
para almacenar películas, música, datos
informáticos, e incluso los juegos de
consolas.
La gran ventaja del DVD, en relación a los
sistemas actuales, es su mayor velocidad de lectura -hasta
4 veces más que los reproductores CD
tradicionales-, y su gran capacidad de almacenamiento, que
varía entre los 4.7 y los 17 Gigas, es decir, el
tamaño aproximado de 25 CD-ROM. Todo
ello, en un disco DVD que, externamente, es exactamente igual que
un CD
tradicional. Esta elevada capacidad permite, no sólo
almacenar gran cantidad de información, aplicable a todo tipo de
enciclopedias, programas o
bases de
datos, sino también reproducir 133 minutos de
vídeo con calidad de
estudio, sonido Dolby
Surround AC-3 5.1, y 8 pistas multilenguaje para reproducir el
sonido en 8
idiomas, con subtítulos en 32 idiomas. Estos minutos
pueden convertirse en varias horas, si se disminuye la calidad de la
imagen hasta
los límites actuales. Las más importantes
compañías electrónicas, los más
influyentes fabricantes de hardware y software, y las
más sobresalientes compañías
cinematográficas y musicales están apoyando
fuertemente el proyecto.
No obstante, pese a todas estas características tan espectaculares, la gran
baza de la tecnología DVD está todavía por
desvelar: gracias a la compatibilidad con los sistemas actuales,
los lectores DVD-ROM son capaces de leer los CD-ROM y CD
musicales que actualmente existen, por lo que el cambio de
sistema será mucho más llevadero, ya que podremos
seguir utilizando los cientos de millones de discos digitales
existentes en el mercado.
Distintas
ramificaciones
Tal como hemos visto, las siglas DVD se
implantarán en los más dispares medios de
almacenamiento. Para satisfacer todas las necesidades y
bolsillos, está previsto que se comercialicen tres
reproductores DVD independientes: DVD-Audio, DVD-Vídeo, y
DVD-ROM. En realidad, son el equivalente a las cadenas musicales,
los vídeos VHS o laserdisc, y el CD-ROM. Los lectores
DVD-Audio serán los más baratos, ya que sólo
podrán reproducir discos sonoros DVD. Los DVD-Vídeo
se conectarán al televisor, y se utilizarán para
visionar películas, con imagen de alta
calidad.
Incluso es posible que la propia película venga
acompañada de la banda sonora completa, todo en un mismo
disco. Más de 50 películas han sido anunciadas para
este mes, y se han planeado más de 500 para final de
año, con una estimación de unos 8000 títulos
en el año 2000.
Los lectores más apetecibles son los
conocidos como DVD-ROM, ya que son capaces de reproducir CD-ROM,
CD musicales, discos DVD-ROM, discos de audio DVD y, bajo ciertas
condiciones que veremos a continuación, las mencionadas
películas DVD. En definitiva, los tres aparatos
señalados quedan condensados en uno
sólo.
Las primeras unidades DVD-ROM, fabricadas por
Pioneer y Hitachi, ya pueden encontrarse en Japón. Para
finales de año, aparecerán las unidades grabables,
que cerrarán el ciclo reproducción-grabación
que todo estándar óptico-digital debe
completar.
La especificacion
DVD-ROM
Pese a que los lectores DVD-Vídeo y
DVD-Audio son, a priori, muy interesantes, vamos a centrarnos en
los lectores DVD-ROM, más acordes con la temática
de nuestra revista. Pero,
antes de discutir sus posibilidades, vamos a conocer todas sus
características
principales.
Los lectores DVD-ROM más básicos nos
permiten leer discos DVD-ROM -obviamente-, así como CD
musicales y CD-ROM, a una velocidad 8X, es decir, 1200 Ks/sg, y
un tiempo de
acceso situado entre los 150 y 200 milisegundos. Esta
compatibilidad es posible, no sólo porque soporta el
estándar ISO 9660
utilizado por los CD-ROM, sino también porque los discos,
externamente, son iguales a los CD convencionales. Al contrario
que los CD-ROM, existen discos DVD de distinto tamaño.
Todos están formados por dos capas de sustratos de 0.6 mm,
que se unen para formar un sólo disco.
En primer lugar, tenemos los discos que podemos
considerar estándar (120 mm), de una cara, una capa, y una
capacidad de 4.7 Gigas, o 133 minutos de vídeo de alta
calidad,
reproducido a una velocidad de 3.5 Megas. Puesto que un CD-ROM
sólo puede almacenar 650 Megas, este espacio es el
equivalente a 6 CD-ROM. Estos serán los discos utilizados
para almacenar películas.
Llegados este punto, hay que decir que los Gigas
ofrecidos por los fabricantes de unidades DVD, no se corresponden
exactamente con Gigas informáticos, ya que los primeros
utilizan múltiplos de 1000, mientras que en informática, el cambio de
unidad se realiza multiplicando o dividiendo por 1024.
Así, los 4.7 Gigas de esta primera clase de discos se
corresponden con 4.38 Gigas informáticos, mientras que 17
Gigas equivalen a 15.9 Gigas reales. A pesar de ello,
mantendremos durante todo el artículo la primera nomenclatura, ya
que es la utilizada por los diferentes
fabricantes.
Continuaremos con el segundo tipo de disco DVD.
Hasta ahora, hemos hablado de los discos de una cara, y una capa.
Si se almacena información en la segunda cara, entonces
tenemos un disco de dos caras y una capa, con 9.4 Gigas de
capacidad. También es posible añadir una segunda
capa a cualquiera de las dos caras. Esta doble capa utiliza un
método
distinto al de los CD tradicionales, ya que se implementa
mediante resinas y distintos materiales
receptivos/reflectantes. Si la capa es de 120 mm, y dispone de
una sola cara, la cantidad almacenada es de 8.5 Gigas, o 17 Gigas
si dispone de dos caras. En el caso, también posible, de
que la capa disponga de un grosor de 80 mm, la capacidad se
sitúa entre los 2.6 y 5.3 Gigas de capacidad -simple o
doble cara-. Puede parecer un galimatías, pero sólo
se trata de distintos discos con distintas
capacidades
Para leer la información, el lector DVD-ROM utiliza un
láser rojo con una longitud de onda situada entre los 630
y los 650 nanómetros, frente a los 780 nanómetros
de los CD convencionales. Otras diferencias, con respecto a la
arquitectura de los CD-ROM, está en el tamaño de
las pistas y los pits –marcas que
guardan la información-, ya que son más
pequeños, por lo que hay muchos más y,
consecuentemente, se almacena más
información.
Con estos primeros datos, podemos sacar las
primeras conclusiones. En primer lugar sobresalen, por encima de
todo, sus grandes ventajas: la compatibilidad CD y CD-ROM, su
velocidad, y la gran capacidad de almacenamiento, que
varía entre los 1.4 y los 17 Gigas. Todas las aplicaciones
que, por definición, necesiten una gran cantidad de
espacio, se verán beneficiadas: bases de datos,
programas con secuencias de vídeo, recopilaciones,
enciclopedias, etc. Estas últimas podrán mejorar su
contenido, al añadir muchos más vídeos,
animaciones y sonidos. Igualmente, se podrán comercializar
las versiones dobladas de un programa en todos los idiomas, y en
un sólo disco. A pesar de todo, como cualquier
tecnología nueva, no está exenta de problemas. El
primero de ellos es la incompatibilidad con ciertos
estándares. En algunos casos, como puede ser el laserdisc,
es inevitable, ya que se trata de discos de diferentes
tamaños. Pero, a estas alturas, todavía no
está muy claro si las unidades DVD serán
compatibles Photo CD y CD-I. Los DVD-ROM tampoco pueden leer
CD-R, es decir, CD-ROM grabados con una grabadora de CD-ROM. De
forma recíproca, una grabadora CD-R no puede crear discos
DVD.
La compatibilidad CD-R es un tema tan importante
que es posible que quede solucionado en muy poco tiempo, incluso
antes de que los lectores DVD-ROM vean la luz en el mercado
europeo.
Un CD-ROM grabado no es reconocido por un lector
DVD-ROM, debido a que utiliza un láser con una longitud de
onda que es incapaz de detectar las marcas realizadas
en un CD-R. Esta limitación tecnológica
provocaría que millones de CD-R grabados con valiosa
información quedasen inutilizados, por lo que ya se han
propuesto distintas medidas para superarlo. En primer lugar, los
fabricantes de CD-ROM grabables están trabajando en un
nuevo formato de disco llamado CD-R 2, que permitirá a las
grabadoras actuales crear CD-R que pueden ser leídos en
las unidades DVD-ROM. Para reconocer los discos ya grabados en el
formato CD-R 1, se barajan distintas soluciones.
Samsung ha anunciado que sus lectores DVD dispondrán de
unas lentes holográficas que reconocerán los CD-R.
Los reproductores de Sony irán equipados con dos lasers,
uno para leer DVD-ROM, y otro para los CD y CD-R. Philips
también asegura su compatibilidad con los discos
grabados… En definitiva, parece ser que este tema
quedará solucionado a lo largo del
año.
Otra de las dificultades tiene que ver con la
reproducción de películas en el ordenador. El
estándar utilizado por el sistema DVD-Vídeo es el
formato MPEG-2, a una velocidad de 24 fps (cuadros por segundo).
El problema es que ni siquiera los ordenadores más
potentes son capaces de soportar semejante flujo de datos por
segundo.
En la actualidad, los ordenadores equipados con la
tarjeta apropiada (adquirida en el último año)
pueden reproducir vídeo MPEG-1, que dispone de una
calidad
inferior al mencionado formato MPEG-2. Para solucionar esto,
existen distintos enfoques, tal como se explica en uno de los
recuadros adjuntos.
Todo se reduce a comercializar tarjetas
gráficas compatibles MPEG-2, o incluir los chips
necesarios en los propios lectores de DVD-ROM.
Como podemos observar, los posibles
obstáculos van a poder ser
solucionados en muy poco tiempo, por lo
que las posibilidades que se nos avecinan no pueden ser
más prometedoras, posibilidades que se verán
reflejadas en las actuales unidades que están a punto de
ser comercializadas.
El software, presente y
futuro
Gracias a su compatibilidad con los sistemas
actuales, los lectores de DVD-ROM nacen con decenas de miles de
títulos a sus espaldas, tanto en el apartado musical, como
en el informático. Además, aprovechando que soporta
el formato MPEG-1, también pueden utilizarse para ver las
cientos de películas existentes en formato
Vídeo-CD.
Lo más interesante de todo, se centra en
comprobar sus posibilidades como sistema de almacenamiento
independiente, es decir, utilizando discos DVD-ROM. De momento,
los títulos comercializados no son excesivos, aunque se
espera que una gran cantidad de DVD-ROM se publiquen a lo largo
del año. En un principio, los títulos más
abundantes serán las películas y las recopilaciones
de programas. En el primer caso, ya se han puesto a la venta varios
títulos (en EE.UU. y Japón), como "Blade Runner",
"Eraser", "Batman Forever" o "Entrevista con
el Vampiro". Para primeros de marzo, han sido anunciados
más de 100 títulos, que superarán los 500 a
finales de año. En el caso de las aplicaciones en DVD-ROM,
el proceso es
algo más lento, pero casi la mitad de los distribuidores
de software han anunciado que publicarán programas en
formato DVD-ROM. Algunos títulos ya presentados son
«Silent Steel», de Tsunami Media, y «PhoneDisc
PowerFinger USA I», de Digital Directory. Este
último es nada menos que la guía telefónica
de Estados
Unidos, en donde se guardan más de 100 millones de
números de teléfonos, a los que se puede acceder
por nombre, dirección, e incluso distancias. Por
ejemplo, es posible localizar las tiendas de informática que se encuentran en un
radio de 5 Km
de un determinado lugar. El programa original ocupaba 6 CD-ROM,
que ahora pueden agruparse en un sólo DVD-ROM con 3.7
Gigas, y sobra espacio para ampliar la base de datos de
telefónica.
DVD-R y DVD-RAM
Los discos DVD-ROM no se pueden grabar, pero a
finales de año esto va a cambiar, con la entrada en escena
de las grabadoras DVD, en dos versiones diferentes. Las
grabadoras DVD-R serán el equivalente a las grabadoras
CD-R actuales, es decir, mecanismos "write once" que permiten
escribir en un disco DVD en blanco una sola vez. Los discos
dispondrán de una capacidad cercana a los 3 Gigas, aunque
se acercarán a los 4.7, para equipararse al formato
DVD-Vídeo. Así, las grabadoras DVD-RAM. son discos
DVD que pueden borrarse y escribirse múltiples veces. Su
capacidad es de 2,6 Gigas.
MPEG-2: EL NUEVO ESTÁNDAR
DE VÍDEO
La tecnología DVD utiliza el formato MPEG-2
para reproducir vídeo digital. La primera consecuencia
lógica
de esta decisión, es que será necesario disponer de
una tarjeta gráfica compatible MPEG-2 para visionar
películas almacenadas en formato DVD, en un ordenador. El
problema es que ningún ordenador actual, ni siquiera los
Pentium Pro más potentes, son capaces de reproducir
vídeo MPEG-2, y las tarjetas MPEG-2
son demasiado caras o están poco extendidas en el mercado.
Las placas gráficas actuales reproducen
vídeo MPEG-1, ya sea mediante hardware o software, pero no
pueden ir más allá. Antes de conocer las soluciones que
los distintos fabricantes tienen pensado aportar, vamos a
descubrir las características principales que encierra el
sistema MPEG-2.
Es un hecho conocido por todos, que el
almacenamiento digital de imágenes
en movimiento
necesita una gran cantidad de espacio. Por ejemplo, una sola
película de hora y media de duración con unas
mínimas garantías de calidad, bajo una
resolución de 640×480 y color de 16 bits,
puede utilizar varios CD-ROM. La única solución
viable, si se quiere reducir este espacio a uno o dos CD, es
comprimir el vídeo. Así nacieron los conocidos
formatos de compresión AVI y QuickTime. No obstante, la
compresión de vídeo trae consigo dos desventajas:
la calidad de la imagen es mucho
menor, y además se necesita un hardware relativamente
elevado para descomprimir las imágenes
en tiempo real, mientras se reproducen.
El estándar MPEG es otro más de
estos sistemas de compresión, solo que mucho más
avanzado. La calidad de imagen se acerca
a la del vídeo no comprimido, pero se necesita un hardware muy potente -es
decir, una tarjeta de vídeo muy rápida, y un
procesador muy veloz-, para poder reproducirlo. Con la
tecnología actual, es posible reproducir vídeo
MPEG-1 mediante software, en un Pentium con una tarjeta
medianamente rápida. Sin embargo, el nuevo protocolo MPEG-2,
utilizado por los reproductores DVD-Vídeo, es mucho
más exigente.
El formato MPEG-2 está basado en el
protocolo
ISO/IEC 13818.
La especificación DVD toma sólo algunas de sus
reglas, para reproducir vídeo de alta calidad,
según el estándar NTCS (720×640), a 24 fps (cuadros
por segundo).
En realidad, éste es el estándar DVD
de máxima calidad, ya que la propia especificación
es compatible AVI, QuickTime, MPEG-1 y Vídeo CD, en donde
la resolución es más o menos la mitad, es decir,
vendría a ser: 352×240.
Por lo tanto, para reproducir una película
DVD en un ordenador, será necesario disponer, no
sólo de un decodificador MPEG-2 para las imágenes,
sino también un decodificador Dolby para el sonido.
Las soluciones
previstas para solucionar esto, son muy variadas. Algunos
fabricantes adaptarán sus tarjetas
gráficas al formato MPEG-2. Precisamente, los nuevos
procesadores MMX pueden jugar un papel esencial
en este apartado, ya que la aceleración multimedia que
aportan es ideal para este tipo de procesos. Otra
solución consiste en comercializar placas independientes,
que incorporen los chips necesarios para reproducir vídeo
DVD. Finalmente, la propuesta más lógica
apuesta por incluir los mencionados chips en los propios
reproductores DVD-ROM, como ya han confirmado algunas empresas. Esto
encarecerá un poco el precio de la
unidad, pero asegurará la total compatibilidad con los
miles de títulos cinematográficos que
comenzarán a comercializarse en el segundo cuatrimestre de
1997.
CÓDIGOS REGIONALES: LA
PRIMERA POLÉMICA
Una de las primeras discusiones que se han
entablado, relacionadas con las unidades DVD, es la más
que previsible implantación de códigos regionales
que impedirán que ciertos discos DVD puedan leerse en
lectores DVD adquiridos en zonas regionales distintas a la zona
de venta del
disco.
Afortunadamente, no serán utilizados en los
discos DVD-ROM, ya que sólo afectan a las películas
DVD.
El código regional no es más que un
byte de información, que llevarán implantados
algunos discos DVD. Cada reproductor DVD tendrá su propio
código regional, por lo que, si encuentra un byte que no
se corresponde con el suyo, no leerá el disco. Esta medida
de protección ha sido impuesta por las
compañías cinematográficas, ya que las
películas no se estrenan simultáneamente en todo el
mundo. Puesto que es una protección opcional, sólo
los estrenos llevarán este código. En un principio,
parece ser que las zonas geográficas serán las
siguientes, aunque pueden variar:
1: Norteamérica (Estados Unidos
y Canadá).
2: Japón.
3: Europa,
Australia y Nueva Zelanda.
4: Sudamérica y México.
5: Asia (excepto
China y
Japón) y Africa.
6: China.
Como no podía ser de otra forma, hecha la
ley, hecha la
trampa, y no ha faltado tiempo para extenderse el rumor de que
algunas compañías asiáticas ya disponen de
chips que anulan la protección. Incluso se habla de la
posible comercialización de reproductores capaces
de leer DVD con cualquier código
regional.
VIDEO
DIGITAL
INTRODUCCION.
La información de video es provista en una
serie de imágenes ó "cuadros" y el efecto del
movimiento es
llevado a cabo a través de cambios pequeños y
continuos en los cuadros. Debido a que la velocidad de estas
imágenes es de 30 cuadros por segundo,los cambios
continuos entre cuadros darán la sensación al ojo
humano de movimiento
natural. Las imágenes de video están compuestas de
información en el dominio del
espacio y el tiempo. La información en el dominio del
espacio es provista en cada cuadro, y la información en el
dominio del
tiempo es provista por imágenes que cambian en el tiempo
(por ejemplo, las diferencias entre cuadros). Puesto que los
cambios entre cuadros colindantes son diminutos, los objetos
aparentan moverse suavemente. En los sistemas de video digital,
cada cuadro es muestreado en unidades de pixeles ó
elementos de imagen. El valor de
luminancia de cada pixel es cuantificado con ocho bits por pixel
para el caso de imágenes blanco y negro. En el caso de
imágenes de
color, cada pixel mantiene la información
de color asociada;
por lo tanto, los tres elementos de la información de
luminancia designados como rojo, verde y azul, son cuantificados
a ocho bits. La información de video compuesta de esta
manera posee una cantidad tremenda de información; por lo
que, para transmisión o almacenamiento, se requierede la
compresión (o codificación) de la imagen. La
técnica de compresión de video consiste de tres
pasos fundamentalmente, primero el preprocesamiento de las
diferentes fuentes de
video de entrada (señales de TV, señales de
televisión de alta definición HDTV,
señales de videograbadoras VHS, BETA, S-VHS, etc.), paso
en el cual se realiza el filtrado de las señal de entrada
para remover componentes no útiles y el ruido que
pudiera haber en esta. El segundo paso es la conversión de
la señal a un formato intermedio común (CIF), y por
último el paso de la compresión. Las
imágenes comprimidas son transmitidas a través de
la línea de transmisión digitaly se hacen llegar al
receptor donde son reconvertidas a el formato común CIF y
son desplegadas después de haber pasado por la etapa de
post-procesamiento. Mediante la compresión de la imagen se
elimina información redundante, principalmente la
información redundante en el dominio de
espacio y del tiempo. En general, las redundancias en eldominio
del espacio son debidas a las pequeñas diferencias entre
pixeles contiguos de un cuadrodado, y aquellas dadas en el
dominio del
tiempo son debidas a los pequeños cambios dados en
cuadroscontiguos causados por el movimiento de
un objeto. El método
para eliminar las redundancias en el dominio del espacio es
llamado codificación intracuadros, la cual puede ser
dividida en codificación por predicción,
codificación de la transformada y codificación de
la subbanda. En el otro extremo, las redundancias en el dominio
del tiempo pueden ser eliminadas mediante el método de
codificación de intercuadros, que también incluye
los métodos de
compensación/estimación del movimiento, el cual
compensa el movimiento a través de la estimación
del mismo.
El Estándar MPEG (Grupo de
Expertos en Imágenes en movimiento).
Codificación de
video.
El estándar MPEG especifica la
representación codificada de video para medios de
almacenam iento digital y especifica el proceso de
decodificación. La representación soporta la
velocidad normal de reproducción así como
también la función especial de acceso aleatorio,
reproducción rápida, reproducción hacia
atrás normal, procedimientos de
pausa y congelamiento de imagen. Este estándar
internacional es compatible con los formatos de televisión
de 525 y 625 líneas y provee la facilidad de
utilización con monitores de
computadoras personales y estaciones de trabajo. Este
estándar internacional es aplicable primeramente a los
medios de almacenamiento digital que soporten una velocidad de
transmisión de más de 1.5 Mbps tales como el
Compact Disc, cintas digitales de audio y discos duros
magnéticos. El almacenamiento digital puede ser conectado
directamente al decodificador o a través de vías de
comunicación como lo son los bus, LANs o
enlaces de telecomunicaciones. Este estándar
internacional esta destinado a formatos de video no interlazado
de 288 líneas de 352 pixeles aproximadamente y con
velocidades de imagen de alrededor de 24 a 30
Hz.
Codificación de
audio
Este estándar especifica la
representación codificada de audio de alta calidad para
medios de almacenamiento y el método
para la decodificación de señales de audio de alta
calidad. Es compatible con los formatos corrientes (Compact disc
y cinta digital de audio) para el almacenamiento y
reproducción de audio. Esta representación soporta
velocidades normales de reproducción. Este estándar
esta hecho para aplicaciones a medios de almacenamiento digitales
a una velocidad total de 1.5 mbps para las cadenas de audio y
video, como el CD, DAT y discos duros
magnéticos. El medio de almacenamiento digital puede ser
conectado directamente al decodificador, ó vía otro
medio tal como líneas de comunicación y la capa de sistemas MPEG.
Este estándar fue creado para velocidades de muestreo de 32
khz, 44.1 khz, 48 khz y 16 bit PCM entrada/salida al
codificador/decodificador.
Trabajo realizado por:
Gustavo Markel