Indice
1.
Introducción
2. Transmisión de vídeo:
vídeo digital.
3. Formato MPEG
4. Soluciones de
vídeo
5. Conclusiones
La transmisión de vídeo sobre redes de telecomunicaciones está llegando al punto
de convertirse en un sistema habitual
de comunicación debido al crecimiento masivo
que ha supuesto Internet en estos
últimos años. Lo estamos utilizando para ver
películas o comunicarnos con conocidos, pero
también se usa para dar clases remotas, para hacer
diagnósticos en medicina,
videoconferencia, distribución de TV, vídeo bajo
demanda, para
distribuir multimedia en
Internet…
Debido a la necesidad de su uso que se plantea en el presente y
futuro, se han proporcionado distintas soluciones y
sucesivos formatos para mejorar su transmisión.
Pero hoy, ya hemos oído
hablar negativamente de los sistemas actuales
de distribución de vídeo debido a su dudosa
calidad en
redes como Internet.
Estas aplicaciones normalmente demandan un elevado ancho de banda
y a menudo crean cuellos de botella en las redes. Este es el gran
problema al que esta sometida la transmisión de
vídeo. ¿Por qué es el vídeo tan
problemático?
¿Qué es el vídeo?
El vídeo no es nada más que la reproducción en forma secuencial de
imágenes, que al verse con una determinada
velocidad y
continuidad dan la sensación al ojo humano de apreciar el
movimiento
natural. Junto con la imagen, el otro
componente es el sonido.
2. Transmisión de
vídeo: vídeo digital.
La transmisión digital y la distribución
de información audiovisual permite la
comunicación multimedia sobre las redes que soportan
la comunicación de datos, brindando
la posibilidad de enviar imágenes en movimiento a lugares
remotos. Pero no es todo tan bonito a la hora de transmitirlo por
red, debido a que
nos encontramos con sucesos como lentitud entre la
reproducción de imágenes, errores de
transmisión, o perdidas de datos…
Existen dos formas de transmisión de datos,
analógico y digital. Una de las características del vídeo es que
está compuesto por señales analógicas, con
lo que se pueden dar las dos formas de transmisión. En los
últimos años la transmisión de datos se ha
volcado hacia el mundo digital ya que supone una serie de
ventajas frente a la transmisión analógica. Al
verse la información reducida a un flujo de bits, se
consigue una mayor protección contra posibles fallos ya
que se pueden introducir mecanismos de detección de
errores, se elimina el problema de las interferencias, podemos
disminuir el efecto del ruido en los
canales de comunicación, conseguir codificaciones
más óptimas y encriptado, mezclar con otros tipos
de información a través de un mismo canal, y
poder
manipular los datos con ordenadores para comprimirlos, por
ejemplo.
Además si queremos difundir el vídeo por
vías digitales tendremos que digitalizarlo, con lo que
debe ser capturado en su formato analógico y almacenado
digitalmente logrando así que sea menos propenso a
degradarse durante la transmisión.
Existen dos tipos de redes
de comunicación, de conmutación de circuitos y de
conmutación de paquetes. En la conmutación de
circuitos, donde la comunicación está
permanentemente establecida durante toda la sesión, un
determinado ancho de banda es asignado para la conexión, y
el tiempo de
descarga del vídeo puede predecirse, pero tienen la
desventaja de que las sesiones son punto a punto y limitan la
capacidad de usuarios.
En la conmutación de paquetes pueden acomodarse más
fácilmente las conferencias multipunto. Aquí el
ancho de banda esta compartido pero es variable, lo que supone
una importante mejora puesto que, si el bit rate (o número
de bits por segundo) es fijo la calidad de la imagen
variará dependiendo del contenido de los fotogramas. Debe
de cumplirse que el ancho de banda, la resolución, y la
compresión de audio sean idénticos para cada
cliente que
recibe el vídeo, lo que dificulta la configuración
del sistema.
El vídeo es muy sensible al retardo de la red, ya que
puede provocar cortes en las secuencias. La pérdida de
alguna información en el vídeo sin comprimir no es
muy relevante, ya que al perderse un fotograma, el siguiente
fotograma proporciona la suficiente información para poder
interpretar la secuencia. En cambio el
vídeo comprimido es mucho más sensible a errores de
transmisión, ya que las técnicas
de compresión que se valen de la redundancia espacial y
temporal pueden perder la información de esta redundancia
y los efectos de la falta de datos pueden propagarse en los
próximos fotogramas. Es por eso que actualmente la
comunicación con vídeo vía Internet no
prometen una elevada fiabilidad de transmisión.
Algunas técnicas de compresión compensan esta
sensibilidad a la pérdida de datos enviando la
información completa sobre un fotograma cada cierto
tiempo, incluso si los datos del fotograma no han cambiado. Esta
técnica también es útil para los sistemas de
múltiples clientes, para
que los usuarios que acaban de conectarse, reciban las
imágenes completas.
Nos podemos preguntar cuál es la tecnología de red
adecuada para las aplicaciones de vídeo, pero siempre
dependeremos del entorno en el que trabajemos. Por ejemplo si
disponemos de una alto ancho de banda el tipo de red adecuada
seria ATM; para un
entorno de red de área local podríamos usar Fast
Ethernet, y
actualmente para que el usuario de Internet, ADSL.
Pero la solución para resolver el cuello de botella del
ancho de banda del vídeo no está en un solo tipo de
red, sino en una infraestructura de red flexible que pueda
manejar e integrar diferentes redes y que deje paso
también a futuras redes sin cambiar el hardware. También
debe ser capaz de negociar las variables de
ancho de banda, resolución, número de fotogramas
por segundo y algoritmo de
compresión de audio. Así que se necesita un nodo
que permita la interconectividad entre todas las redes. Es el MCU
(unidad de control
multipunto). Cada red- RDSI, IP, ASTM- usa
protocolos
específicos que definen la naturaleza de las
ráfagas de vídeo. Las combinaciones de protocolos y
estándares son muchas: para vídeo H.261 o H.263,
CIF o QCIF, de 7.5 fps a 30 fps; y para audio G.711, G.728, G.722
o G.723. Por ejemplo en una conferencia
múltiple el número de posibles combinaciones de
estándares y protocolos es muy elevado y puede saturar el
MCU. Muchos MCU no son capaces de negociar todas estas variables,
forzando a los terminales de los clientes a reducir sus
protocolos al más bajo común denominador de todos
los participantes, bajando así la calidad del
vídeo.
Digitalización
La información a digitalizar será la de las
imágenes. Cada cuadro de la imagen es muestreado en
unidades de pixeles, con lo que los datos a almacenar
serán los correspondientes al color de cada
pixel.
Tres componentes son necesarias y suficientes para representar el
color y para ser interpretado por el ojo humano. El sistema de
codificación de color usado es el RGB (Red, Green,
Blue).
Para digitalizar una señal de vídeo
analógico es necesario muestrear todas la líneas de
vídeo activo. La información de brillo y color son
tratadas de forma diferente por el sistema visual humano, ya que
es más sensible al brillo que al color. Con lo que se usa
un componente especial para representar la información del
brillo, la luminancia, una para el color y la saturación,
la crominancia. Cada muestra de color
se codifica en señal Y-U-V (Y- luminancia, U y V
crominancia) partiendo de los valores
del sistema RGB. Con este sistema las diferencias de color pueden
ser muestreadas sin resultados visibles, lo que permite que la
misma información sea codificada con menos ancho de
banda.
Un ejemplo de conversión de señal analógica
de televisión
en color a una señal en vídeo digital
sería:
Sistema PAL : 576 líneas activas, 25 fotogramas por
segundo, para obtener 720 pixels y 8 bit por muestra a
13,5Mhz:
- Luminancia(Y): 720x576x25x8 = 82.944.000 bits por
segundo - Crominancia(U): 360x576x25x8 = 41.472.000 bits por
segundo - Crominancia(V): 360x576x25x8 = 41.472.000 bits por
segundo
Número total de bits: 165.888.000 bits por
segundo (aprox. 166Mbits/sg). Ninguno de los sistemas comunes de
transmisión de vídeo proporcionan transferencias
suficientes para este caudal de información
Las imágenes de vídeo están compuestas de
información en el dominio del
espacio y el tiempo. La información en el dominio
del espacio es provista por los pixels, y la información
en el dominio del tiempo es provista por imágenes que
cambian en el tiempo. Puesto que los cambios entre cuadros
colindantes son diminutos, los objetos aparentan moverse
suavemente.
El valor de
luminancia de cada pixel es cuantificado con ocho bits para el
caso de imágenes blanco y negro. En el caso de
imágenes de color, cada pixel mantiene la
información de color asociada; una imagen completa es una
composición de tres fotogramas, uno para cada componente
de color, así los tres elementos de la información
de luminancia designados como rojo, verde y azul, son
cuantificados a ocho bits.
Pero la transmisión digital de vídeo tiene
también alguna desventaja respecto a la analógica,
por ejemplo, en una videoconferencia, cuando distintos usuarios
envían sonido al mismo tiempo, si el proceso fuera
analógico las distintas ondas se
sumarían y podríamos escuchar el conjuntos de
todas ellas. Al ser digital, los datos llegan en paquetes
entremezclados, lo que dificulta la compresión.
Tipos comprimido/descomprimido
Como hemos dicho para cada punto de la imagen se le asigna un
determinado número de bits que representarán el
color de dicho punto. Si la imagen es en blanco y negro,
bastará un bit para representarlo, mientras que para 256
colores
serán necesarios 8 bits. De esta forma tendremos la imagen
digitalizada, pero almacenar esta información
dependerá del número de pixels que utilicemos por
imagen. Por ejemplo una imagen de 640 x 480 puntos con 256
colores ocupan 300 Kb, y si tenemos una secuencia de vídeo
a 25 fotogramas por segundo significaría que un solo
segundo ocuparía 7.500 Kb. Y todo esto sin contar el
audio.
La información de vídeo compuesta de esta manera
posee una cantidad tremenda de información; por lo que,
para transmisión o almacenamiento,
se requiere de la compresión de la imagen.
La compresión del vídeo generalmente implica una
pérdida de información y una consecuente
disminución de calidad. Pero esto es aceptable porque los
algoritmos de
codificación están diseñados para descartar
la información redundante o que no es perceptible por el
ojo humano. Aunque sabemos que la calidad del vídeo es
inversamente proporcional al factor de compresión.
La compresión es un arma de doble filo, ya que el
vídeo comprimido es más sensible a los errores. Un
error en vídeo comprimido puede hacer ilegible la imagen,
con lo que se añade redundancia para recuperar esa
información.
El vídeo comprimido en general debe transmitir
información por un canal más pequeño del que
necesitaría para ser transmitido y poder ser visualizado
en tiempo real. Así la información de audio y
vídeo deben ser procesadas por los codecs antes de ser
transmitidos. Los codecs derivan de las palabras compresor y
descompresor, y son los módulos de software que permiten la
compresión y descompresión de los ficheros de audio
y vídeo para que puedan ser transmitidos por redes de baja
velocidad.
La digitalización y la compresión pueden darse
conjuntamente y en tiempo real para facilitar la
comunicación y la interacción.
Los codecs más utilizados son los siguientes: Microsoft
Video1, Microsoft RLE, Intel Indeo R2, Intel Indeo R3, Intel
YUV9, CinePak, Captain Crinch, Creative Compressor.
Las señales recibidas deben ser decodificadas antes de
poder ser visualizadas por el usuario. Durante este proceso se
puede producir:
– lo que se llama "vídeo fantasma" o suavización de
imagen, que es la forma con la que los codecs compensan los
elevados flujos de información. Cuando ocurre esto, el
codec comprime la información reduciendo el "frame rate"
(número de imágenes por segundo), el cual puede
hacer que los movimientos rápidos parezcan borrosos. El
codec también modifica la resolución para comprimir
la información lo cual puede hacer que la imagen se vea
desplazada. Entonces, para reducir estos efectos, se disminuye el
flujo de información visual.
También puede darse un retardo de audio.
En la red de Internet por ejemplo la mayoría de los
usuarios están conectados a velocidades de 56.6 kilobits
por segundo (Kbps), 33.6 kbps o 28.8 kbps, y el vídeo
descomprimido para ser enviado en calidad broadcast requiere un
ancho de banda de red de 160 megabits por segundo (Mbps), en
calidad CD requiere
aproximadamente 2.8 Mbps, y con los modems actuales sería
imposible conseguir las velocidades requeridas para su
transmisión. Aquí es donde juegan un papel
importante los codecs.
Los codecs se optimizan para conseguir la mayor calidad posible
en bajos índices de transferencia. Son usados para
codificar el vídeo en tiempo real o pregrabado y ser
mandado por la red para que el usuario final solamente con una
aplicación que lo descomprima podrá al instante
visionar en su terminal.
Compresión
La técnica de compresión de vídeo consiste
de tres pasos fundamentalmente, primero el preprocesamiento de la
fuente de vídeo de entrada, paso en el cual se realiza el
filtrado de la señal de entrada para remover componentes
no útiles y el ruido que pudiera haber en esta. El segundo
paso es la conversión de la señal a un formato
intermedio común (CIF), y por último el paso de la
compresión. Las imágenes comprimidas son
transmitidas a través de la línea de
transmisión digital y se hacen llegar al receptor donde
son reconvertidas al formato común CIF y son desplegadas
después de haber pasado por la etapa de
post-procesamiento.
Mediante la compresión de la imagen se elimina
información redundante. Se ayuda de la redundancia
espacial y temporal. La redundancia temporal es reducida primero
usando similitudes entre sucesivas imágenes, usando
información de las imágenes ya enviadas. Cuando se
usa esta técnica, sólo es necesario enviar la
diferencia entre las imágenes, es decir las zonas de la
imagen que han variado entre dos fotogramas consecutivos, lo que
elimina la necesidad de transmitir la imagen completa. La
compresión espacial se vale de las similitudes entre
pixeles adyacentes en zonas de la imagen lisas, y de las
frecuencias espaciales dominantes en zonas de color muy variado.
El método
para eliminar las redundancias en el dominio del tiempo pueden
ser eliminadas mediante el método de codificación
de intercuadros, que también incluye los métodos de
compensación/estimación del movimiento, el cual
compensa el movimiento a través de la estimación
del mismo.
En el otro extremo, las redundancias en el dominio espacio es
llamado codificación intracuadros, la cual puede ser
dividida en codificación por predicción y
codificación de la transformada usando la transformada del
coseno.
La transformada del coseno o DCT es una implementación
específica de la transformada de Fourier donde la imagen
es transformada de su representación espacial a su
frecuencial equivalente. Cada elemento de la imagen se representa
por ciertos coeficientes de frecuencia. Las zonas con colores
similares se representan con coeficientes de baja frecuencia y
las imágenes con mucho detalle con coeficientes de alta
frecuencia. La información resultante son 64 coeficientes
DCT. El DCT reordena toda la información y la prepara para
la cuantización.
El proceso de cuantización es la parte del algoritmo que
causa pérdidas. La cuantización asigna un
número de bits específico a cada coeficiente de
frecuencias y entonces comprime los datos asignando unos cuantos
bits a los coeficientes de alta frecuencia. sin que lo note el
observador. Los parámetros de la cuantización son
optimizados, pero el proceso aún deteriora la calidad del
vídeo. Generalmente se acepta que un factor de
compresión de 2:1 (aproximadamente 10Mb/seg), se pueden
apreciar visualmente algunas pérdidas en la integridad del
vídeo.
El proceso de decodificación es
básicamente el inverso del proceso de
codificación.
La compresión del audio está descrita por tres
parámetros: ratio de muestreo (numero
de muestras por segundo), bits por muestra (numero de bits para
representar cada valor), y número de canales (mono o
estéreo).
Los estándares de vídeo digital más
conocidos son: MPEG, Quicktime, AVI, MOV, real vídeo,
ASF…
Y para vídeo analógico: NTSC, PAL, SECAM
MPEG (Grupo de
Expertos en Imágenes en movimiento) es un estándar
internacional, definido por un comité llamado MPEG formado
por la ISO, para la
representación codificada y comprimida de imágenes
en movimiento y audio asociado, orientado a medios de
almacenamiento digital
El algoritmo que utiliza además de comprimir
imágenes estáticas compara los fotogramas presentes
con los anteriores y los futuros para almacenar sólo las
partes que cambian. La señal incluye sonido en calidad
digital. El inconveniente de este sistema es que debido a su alta
complejidad necesita apoyarse en hardware específico.
MPEG aplica la compresión temporal y la espacial. En
primer lugar se aplica una transformada d coseno discreta,
seguida de una cuantización para finalmente comprimir
mediante un algoritmo RLE. Los bloques de imagen y los de
predicción de errores tienen una gran redundancia
espacial, que se reduce gracias a la transformación de los
bloques desde el dominio del espacio al dominio de
frecuencia.
MPEG requiere una intensiva computación para su codificación,
aunque se consiguen ratios desde 50:1 hasta 200:1
Existen diferentes opciones dependiendo del uso:
MPEG-1 guarda una imagen, la compara con la siguiente y almacena
sólo las diferencias. Se alcanzan así grados de
compresión muy elevados. Define tres tipos de
fotogramas:
- Fotogramas I o Intra-fotogramas, son los fotogramas
normales o de imagen fija, proporcionando una compresión
moderada, en JPEG. - Fotogramas P o Predichos: son imágenes
predichas a partir de la inmediatamente anterior. Se alcanza
una tasa de compresión muy superior. - Fotogramas B o bidireccionales: se calculan en base a
los fotogramas inmediatamente anterior y posterior. Consigue el
mayor grado de compresión a costa de un mayor tiempo de
cálculo. Estándar escogido por
Vídeo-CD: calidad VHS con sonido digital.
MPEG-2
Con una calidad superior al MPEG-1, MPEG-2 fue universalmente
aceptado para transmitir vídeo digital comprimido con
velocidades mayores de 1Mb/s aproximadamente.
Con MPEG-2 pueden conseguirse elevados ratios de hasta 100:1,
dependiendo de las características del propio
vídeo.
MPEG-2 normalmente define dos sistemas de capas, el flujo de
programa y el
flujo de transporte. Se
usa uno u otro pero no los dos a la vez. El flujo de programa
funcionalmente es similar al sistema MPEG-1. La técnica de
encapsulamiento y multiplexación de la capa de
compresión produce paquetes grandes y de varios
tamaños. Los paquetes grandes producen errores aislados e
incrementan los requerimientos de buffering en el
receptor/decodificador para demultiplexar los flujos de bits. En
contraposición el flujo de transporte consiste en paquetes
fijos de 188 bytes lo que decrementa el nivel de errores ocultos
y los requerimientos del buffering receptor.
Los estándares MPEG fueron desarrollados para ser
independientes de la red específica para proporcionar un
punto de interoperabilidad en entornos de red
heterogéneos.
MPEG4
Es un estándar relativamente nuevo orientado inicialmente
a las videoconferencias, y para Internet. El objetivo es
crear un contexto audiovisual en el cual existen unas primitivas
llamadas AVO (objetos audiovisuales). Se definen métodos
para codificar estas primitivas que podrían clasificarse
en texto y
gráficos
La comunicación con los datos de cada primitiva se realiza
mediante uno o varios "elementary streams" o flujos de datos,
cuya característica principal es la calidad de
servicio requerida para la transmisión.
Ha sido especialmente diseñado para distribuir videos con
elevados ratios de compresión, sobre redes con bajo ancho
de banda manteniendo una excelente calidad para usuarios con buen
ancho de banda.
Ofrece un ancho rango de velocidades desde usuarios con modems de
10kbps a usuarios con anchos de banda de 10Mbps.
Es rápido codificando el vídeo de alta calidad,
para contenidos en tiempo real y bajo demanda.
Codificación de vídeo MPEG bajo
demanda
En soluciones como vídeo bajo demanda los datos
codificados en el formato MPEG tienen que ser transmitidos sobre
redes de comunicaciones. Puesto que el ancho de banda del
medio de transmisión es limitado, para mantener una
constante velocidad de salida, debe hacerse una negociación entre la velocidad y la calidad
de la imagen. De esto se encargan los algoritmos de
cuantización, los cuales seleccionan diferentes tablas de
cuantización para diferentes tipos de imágenes
durante la codificación de datos. Una solución
simple es codificar los datos originales dinámicamente en
el servidor, pero
necesita grandes recursos. Una
alternativa es almacenar los ficheros codificados en MPEG en el
servidor y adaptativamente recodificarlo en base a las
velocidades disponibles.
El objetivo es recodificar y codificar los ficheros MPEG dinámica y eficientemente en un flujo de
bits constante.
MJPEG
Motion-JPEG es una
versión extendida del algoritmo JPEG que comprime
imágenes. Básicamente consiste en tratar al
vídeo como una secuencia de imágenes
estáticas independientes a las que se aplica el proceso de
compresión del algoritmo JPEG una y otra vez para cada
imagen de la secuencia de vídeo. Existen cuatro modos de
operación para el JPEG: secuencial, progresiva, sin
perdida, y jerárquica. Normalmente se utiliza el modo
secuencial.
La ventaja es que se puede realizar en tiempo real e incluso con
poca inversión en hardware. El inconveniente de
este sistema es que no se puede considerar como un
estándar de vídeo pues ni siquiera incluye la
señal de audio. Otro problema es que el índice de
compresión no es muy grande.
JPEG utiliza una técnica de compresión espacial, la
intracuadros o DCT. El sistema JPEG solamente utiliza la
compresión espacial al estar diseñado para
comprimir imágenes individuales.
Motion-JPEG es el metodo elegido para las aplicaciones donde se
envia la misma informacióin a todos los usuarios, las
broadcast.
Servir el vídeo
Muchas aplicaciones actuales como el vídeo requieren que
los mismos datos de un servidor sean distribuidos a
múltiples clientes. Si varios clientes solicitan los
mismos datos y esta información fuera enviado una vez por
cada cliente, estaríamos malgastando el ancho de banda ya
que estaríamos transmitiendo la misma información
varias veces por el mismo tramo de red y el número de
clientes estaría limitado por el ancho de banda
disponible. La solución es IP multicast. Soporta
eficientemente este tipo de transmisión permitiendo al
servidor enviar una sola copia de la información a
múltiples clientes quienes deseen recibir la
información.
El vídeo puede servirse como un fichero, o en
tiempo real. A este última forma de enviar el vídeo
se le conoce como streaming.
Streaming video
Streaming video, o
vídeo en tiempo real, es la tecnología que permite
la transmisión y recepción de imágenes y
sonidos de manera continua a través de una red. A diferencia de
otros formatos de audio y vídeo, en los que es necesario
esperar que el archivo sea
cargado en el equipo para su visualización, esta
tecnología permite apreciar el contenido conforme se va
teniendo acceso a la información del archivo.
EL servidor de streaming permite visionar el vídeo de
forma continua porque hace uso de un buffer, donde van
cargándose algunos segundos de la secuencia antes de que
sean mostrados. Entonces cuando se detecta un periodo de
congestión de red, se visualizarán los datos que
tenemos ya almacenados en el buffer. De esta forma el cliente
obtiene los datos tan rápido como el servidor y la red lo
permitan. Hay pocos formatos hoy en dia que soporten este tipo de
visualización progresiva, probablemente en el futuro
próximo, el estandar para el streaming vídeo
será en Advanced streaming format (ASF).
El streaming puede decirse que funciona de forma inteligente ya
que asegura al usuario que recibirá la más alta
calidad posible dependiendo de la velocidad de conexión o
de los problemas de
conexión de la red. Tradicionalmente la congestión
de la red forzaba al usuario a detener la visualización
del vídeo almacenando en un buffer la información
para posteriormente continuar mostrando la secuencia. Con los
nuevos formatos de streaming como el MPEG-4, el cliente y el
servidor pueden degradar la calidad de forma inteligente para
asegurar una reproducción continua del
vídeo.
¿Cómo funciona?
Si se dan problemas de congestión de red, primeramente el
servidor de vídeo disminuye el número de fotogramas
que está enviando para mantener la calidad del audio e ir
llenando el búffer mínimamente. Si las condiciones
empeoran, el servidor deja de mandar frames de vídeo, pero
mantiene la calidad del audio. Finalmente, si la calidad del
audio empieza a degradarse, el cliente reconstruye de manera
inteligente las secuencias que tiene almacenadas para no perder
calidad.
Video en Internet
Existen dos métodos para la distribución de
contenido con audio y vídeo sobre la Web. El primer
método usa un Servidor Web estándar para repartir
los datos a un medio visualizador. El segundo método usa
un servidor de streaming.
¿Cómo funciona un servidor web para
distribución de vídeo? Una vez disponemos del
vídeo digitalizado el archivo será codificado o
comprimido a un fichero para ser distribuido sobre una red con un
específico ancho de banda como un modem de 56.6
kbps. Entonces el fichero se almacena en un servidor web. Ahora
sólo hemos de crear una página web
en un servidor con un enlace al fichero, el cual cuando sea
pulsado por un cliente permitirá la descarga
automática.
El protocolo usado
es el HTTP (Hypertext
Tansport Protocol), que opera en la parte alta del TCP el cual
maneja la transferencia de datos. Este protocolo no esta
optimizado para aplicaciones en tiempo real, con lo que el
objetivo es maximizar el ratio de transferencia, para lograrlo
usa un algoritmo llamado "comienzo lento", TCP manda primero
datos con un bajo ratio, y gradualmente va incrementando el ratio
hasta que el destinatario comunica una perdida de paquetes.
Entonces el TCP asume que ha llegado al límite del ancho
de banda y vuelve a enviar datos a baja velocidad, y a
volverá a incrementar la velocidad repitiendo el proceso
anterior. TCP se asegura una fiable transmisión de datos
con la retransmisión de los paquetes perdidos. Sin embargo
lo que no puede asegurar es que todos los paquetes recientes
llegarán al cliente para ser visualizados a tiempo, con lo
que podremos experimentar pérdida de imágenes en
las secuencias de vídeo.
Una solución sobre Internet
Internet no puede considerarse un medio adecuado para la
transmisión de vídeo en tiempo real. La calidad de
los vídeos transmitidos en tiempo real es bastante pobre
con lo que debes elegir poca velocidad y mucha calidad o ganar
velocidad y perder calidad en imagen. Pese a todo esto existen
soluciones desarrolladas que con las mejoras de las
técnicas y de la velocidad de los modems han ido
evolucionando.
Veamos como podríamos montar un servidor de vídeo
como podría ser el que hasta ahora ha sido el
estándar de transmisión de vídeo sobre
Internet, RealVídeo.
Para poder distribuir vídeo sobre Internet, y
especialmente un sistema de stream vídeo, los componentes
que necesitamos son un codificador para digitalizar el
vídeo y comprimirlo, un software de servidor web, que
puede ser una máquina distinta o la misma que el
codificador, y una conexión a la red con suficiente ancho
de banda, dependiendo del número de usuarios a los que
queremos dar servicio. El
usuario final necesitará solamente el programa cliente
para descargar y visualizar los flujos de
vídeo.
Videoconferencia
Como dijimos, el problema básico del vídeo es el
gran ancho de banda que requiere.
En videoconferencia suele trabajarse con ventanas de 300×200
pixeles
El vídeo estándar utiliza 30 imágenes
(frames) por segundo, por tanto, 30 imágenes de 60 KB dan
la friolera de 1,8 millones de bytes por segundo, la
mayoría de los fabricantes se orienta hacia la adopción
de la RDSI
Otra solución al cuello de botella del ancho de banda en
videoconferencia es la compresión de las imágenes.
Complejos algoritmos basados en la transformada discreta del
coseno (DTC) suelen ser los más utilizados. Lo más
significativo de la compresión es la ratio que se puede
alcanzar.
El formato JPEG permite definir la calidad de la imágenes,
es decir, cuanta pérdida queremos aceptar en la
compresión.
Los sistemas de videoconferencia establecen la compresión
mediante un dispositivo de hardware y/o software llamado
códec (codificador/decodificador), encargado además
de muestrear las señales de audio y vídeo
así como de transmitirlas.
Hace algunos años podíamos pensar en la
comunicación mediante video digital en tiempo real, pero
sólo imaginarlo. Hoy en día puede decirse que es
una realidad. Pero no está todo logrado. Tenemos la
posibilidad de solicitar una película de cine desde
casa, y que se nos sea servida inmediatamente via
satélite. Pero no sólo queremos eso, queremos poder
disfrutar de la comunicación multimedia y a bajo precio. Ahora
mismo esto significa que a través de Internet ya que es la
red que nos llega a todos hasta la puerta de nuestras casas. Pero
no nos vale ver a nuestro amigo en blanco y negro, o
estático, o borroso, queremos verlo como si lo
tuviéramos delante. Y para esto, todavía tendremos
que esperar un poco. Y es que no puede circular un camión
por un carril de bicicleta; al menos hasta que no ensanchemos el
carril.
Autor:
Luis