El interés en la comunicación
utilizando video ha crecido con la disponibilidad de la
televisión comercial iniciada en 1.940. Los
adultos de hoy han crecido utilizando al televisor como un
medio de información y de entretenimiento, se han
acostumbrado a tener un acceso visual a los eventos
mundiales más relevantes en el momento en que estos
ocurren. Nos hemos convertido rápidamente en
comunicadores visuales. Es así, que desde la
invención del teléfono, los usuarios han tenido
la idea de que el video podría eventualmente ser
incorporado a éste.
AT&T presentó en 1.964 en la feria del
comercio
mundial de Nueva York un prototipo de videoteléfono el
cual requería de líneas de comunicación
bastante costosas para transmitir video en movimiento, con costos de cerca de mil
dólares por minuto. El dilema fue la cantidad y tipo
de información requerida para desplegar las
imágenes de video.
Las señales de video incluyen frecuencias
mucho más altas que las que la red telefónica
podía soportar (particularmente las de los años
60's). El único método posible para transmitir la
señal de video a través de largas distancias
fue a través de satélite. La industria
del satélite estaba en su infancia
entonces, y el costo del
equipo terrestre combinado con la renta de tiempo de
satélite excedía con mucho los beneficios que
podrían obtenerse al tener pequeños grupos de
personas comunicados utilizando este medio.
A través de los años 70's se
realizaron progresos substanciales en muchas áreas
claves, los diferentes proveedores de redes telefónicas
empezaron una transición hacia métodos de transmisión
digitales. La industria de las computadoras también avanzó
enormemente en el poder y
velocidad
de procesamiento
de datos y se descubrieron y mejoraron significativamente
los métodos de muestreo y
conversión de señales analógicas (como
las de audio y video) en bits digitales.
El procesamiento de señales digitales
también ofreció ciertas ventajas, primeramente
en las áreas de calidad y análisis de la
señal; el almacenamiento y transmisión
todavía presenta obstáculos significativos. En
efecto, una representación digital de una señal
analógica requiere de mayor capacidad de
almacenamiento y transmisión que la original. Por
ejemplo, los métodos de video digital comunes de fines
de los años 70 y principios de
los 80 requirieron de relaciones de transferencia de 90
megabits por segundo. La señal estándar de
video era digitalizada empleando el método
común PCM (Modulación por codificación de
pulsos) de 8 bits, con 780 pixeles por línea, 480
líneas activas por cuadro de las 525 para NTSC
(Netware Transmisión System Codification) y con 30
cuadros por segundo.
La necesidad de una compresión confiable de
datos
digitales fue crítica. Los datos de video digital son
un candidato natural para comprimir, debido a que existen
muchas redundancias inherentes en la señal
analógica original; redundancias que resultan de las
especificaciones originales para la transmisión de
video y las cuales fueron requeridas para que los primeros
televisores pudieran recibir y desplegar apropiadamente la
imagen.
Una buena porción de la señal de video
analógica esta dedicada a la sincronización y
temporización del monitor de
televisión. Ciertos métodos de
compresión de datos fueron descubiertos, los cuales
eliminaron enteramente esta porción redundante de
información en la señal, con lo cual se obtuvo
una reducción de la cantidad de datos utilizados de un
50% aproximadamente, es decir, 45 mbps, una razón de
compresión de 2:1. Las redes telefónicas en su
transición a digitales, han utilizado diferentes
relaciones de transferencia, la primera fue 56 Kbps necesaria
para una llamada telefónica (utilizando métodos
de muestreo actuales), enseguida grupos de canales de 56 Kbps
fueron reunidos para formar un canal de información
más grande el cual corría a 1.5 mbps
(comúnmente llamado canal T1). Varios grupos de
canales T1 fueron reunidos para conformar un canal que
corría a 45 mbps (ó un "T3"). Así usando
video comprimido a 45 mbps fue finalmente posible, pero
todavía extremadamente caro, transmitir video en
movimiento a través de la red telefónica
pública. Estaba claro que era necesario el comprimir
aún más el video digital para llegar a hacer
uso de un canal T1 (con una razón de compresión
de 60:1), el cual se requería para poder iniciar el
mercado.
Entonces a principios de los 80's algunos métodos de
compresión hicieron su debut, estos métodos
fueron más allá de la eliminación de la
temporización y sincronización de la
señal, realizando un análisis del contenido de
la imagen para eliminar redundancias. Esta nueva
generación de video codecs (COdificador/DECodificador
), no sólo tomó ventajas de la redundancias, si
no también del sistema de la visión humana. La
razón de imágenes presentadas en el video en
Norte América es de 30 cuadros por segundo,
sin embargo, esto excede los requerimientos del sistema
visual humano para percibir movimiento. La mayoría de
las películas cinematográficas muestran una
secuencia de 24 cuadros por segundo. La percepción del movimiento continuo
puede ser obtenida entre 15 y 20 cuadros por segundo, por
tanto una reducción de 30 cuadros a 15 cuadros por
segundo por sí misma logra un porcentaje de
compresión del 50 %. Una relación de 4:1 se
logra obtener de esta manera, pero todavía no se
alcanza el objetivo
de lograr una razón de compresión de
60:1.
Los codecs de principios de los 80's utilizaron una
tecnología conocida como codificación de la
Transformada Discreta del Coseno (abreviado DCT por su nombre
en inglés). Usando esta tecnología
DCT las imágenes de video pueden ser analizadas para
encontrar redundancia espacial y temporal. La redundancia
espacial es aquella que puede ser encontrada dentro de un
cuadro sencillo de video, "áreas de la imagen que se
parecen bastante que pueden ser representadas con una misma
secuencia". La redundancia temporal es aquella que puede ser
encontrada de un cuadro de la imagen a otro " áreas de
la imagen que no cambian en cuadros sucesivos". Combinando
todos los métodos mencionados anteriormente, se
logró obtener una razón de compresión de
60:1.
El primer codec fue introducido al mercado por la
compañía Compression Labs Inc. (CLI) y fue
conocido como el VTS 1.5, el VTS significaba Video
Teleconference System, y el 1.5 hacia referencia a 1.5 mbps
ó T-1. En menos de un año CLI mejoró el
VTS 1.5 para obtener una razón de compresión de
117:1 (768 Kbps), y renombró el producto a
VTS 1.5E. La corporación británica GEC y la
corporación japonesa NEC entraron al mercado lanzando
codecs que operaban con un T-1 (y debajo de un T-1 si la
imagen no tenia mucho movimiento). Ninguno de estos codecs
fueron baratos, el VTS 1.5E era vendido en un promedio de
$180.000 dólares, sin incluir el equipo de video y
audio necesarios para completar el sistema de conferencia, el
cual era adquirido por un costo aproximado de $70.000
dólares, tampoco incluía costos de acceso a
redes de transmisión, el costo de utilización
de un T-1 era de aproximadamente $1.000 dólares la
hora.
A mediados de los 80's se observó un
mejoramiento dramático en la tecnología
empleada en los codecs de manera similar, se observó
una baja substancial en los costos de las medios de
transmisión. CLI (Compression Labs Inc) introdujo el
sistema de video denominado Rembrandt los cuales utilizaron
ya una razón de compresión de 235:1 (384 Kbps).
Entonces una nueva compañía, Picture Tel
(originalmente PicTel Communications), introdujo un nuevo
codec que utilizaba una relación de compresión
de 1600:1 (56 Kbps). PictureTel fue el pionero en la
utilización de un nuevo método de
codificación denominado Cuantificación
jerárquica de vectores
(abreviado HVQ por su nombre en inglés). CLI
lanzó poco después el codec denominado
Rembrandt 56 el cual también operó a 56 Kbps
utilizando una nueva técnica denominada
compensación del movimiento. Al mismo tiempo los
proveedores de redes de comunicaciones empleaban nuevas
tecnologías que abarataban el costo del acceso a
las redes de comunicaciones. El precio de
los codecs cayó casi tan rápido como aumentaron
los porcentajes de compresión.
videoconferencia
básicos de un sistema de
Videoconferencia.
Para fines de estudio y de diseño
los sistemas de videoconferencia suelen subdividirse en tres
elementos básicos que son:
- La red de comunicaciones,
- La sala de videoconferencia y
- El CODEC.
A su vez la sala de videoconferencia se subdivide en
cuatro componentes esenciales: el ambiente físico, el
sistema de video, el sistema de audio y el sistema de control.
A continuación se describe brevemente cada uno de
los elementos básicos de que consta un sistema de
videoconferencia.
La red de comunicaciones.
Para poder realizar cualquier tipo de
comunicación es necesario contar primero con un medio que
transporte la información del transmisor al receptor y
viceversa o paralelamente (en dos direcciones). En los sistemas
de videoconferencia se requiere que este medio proporcione una
conexión digital bidireccional y de alta velocidad entre
los dos puntos a conectar. Las razones por las cuales se requiere
que esta conexión sea digital, bidireccional y de alta
velocidad se comprenderán más adelante al
adentrarnos en el estudio del procesamiento de las señales
de audio y video.
El número de posibilidades que existen de redes
de comunicación es grande, pero se debe señalar que
la opción particular depende enteramente de los
requerimientos del usuario.
Es importante hacer notar que, como se observa en la
figura 1 el círculo que representa al CODEC no toca al que
representa a la red, de hecho existe una barrera que los separa
la que podemos denominarle como una interface de
comunicación, esto es para representar el hecho de que la
mayoría de los proveedores de redes de comunicación
solamente permiten conectar directamente equipo aprobado y hasta
hace poco la mayoría de los fabricantes de CODECs no
incluían interfaces aprobadas en sus equipos.
Figura 1 Elementos básicos de un
sistema de videoconferencia.
La Sala de Videoconferencia.
La sala de videoconferencia es el área
especialmente acondicionada en la cual se alojará el
personal de videoconferencia, así como también, el
equipo de control, de audio y de video, que permitirá el
capturar y controlar las imágenes y los sonidos que
habrán de transmitirse hacia el(los) punto(s)
remoto(s).
El nivel de confort de la sala determina la calidad de
la instalación. La sala de videoconferencia perfecta es la
sala que más se asemeja a una sala normal para
conferencias; aquellos que hagan uso de esta instalación
no deben sentirse intimidados por la tecnología requerida,
más bien deben sentirse a gusto en la instalación.
La tecnología no debe notarse o debe de ser transparente
para el usuario.
Debemos aquí hacer un alto, ya que actualmente se
distinguen varios tipos de videoconferencia, las cuales se
diferencian entre si por el ámbito físico desde el
que se transmiten, el equipamiento que utilizan (cámaras,
micrófonos), etc. De acuerdo con estos aspectos existen 3
tipos de videoconferencia:
- Las que se realizan desde y hacia sala especialmente
preparadas. Generalmente este tipo de conferencias
reúnen a un gran número de personas (seis o
más), e implican el uso de equipamiento costoso que
ofrece una gran calidad de imagen y sonido. - Las que se realizan utilizando un módulo
rollabout - Las que se realizan desde el escritorio. Este tipo de
videoconferencia generalmente seta intimamanete asociado con el
concepto de
videotelefonía. Si bien en la actualidad existen
dispositivos para este fin, estos no se han popularizado debido
en parte a que son muy costosos, tanto los dispositivos como
las comunicaciones. Es por eso que actualmente la gran
mayoría de las videoconferencias de escritorio se
realizan mediante el uso de un P.C. un pequeña
cámara, comercialmente conocida como Webcam, y un
programa de
comunicaciones (como el Netmeeting de Microsoft)
Configuración de | Esquema | Dispositivo de | Cámaras | Cantidad de | Micrófonos/ |
Habitación preparada | Gran sala de conferencia | Proyectores o grandes monitores de TV. | Generalmente muchas cámaras | Gran cantidad de personas | Muchos micrófonos |
Rollabout | Módulo autocontenido dentro de una sala | Uno o dos TVs incluidos en el módulo | Una o dos camaras | Pequeño grupo | Generalmente sólo un |
Escritorio | Cámara/monitor situados en un escritorio | Un perqueño TV o monitor de | Una cámara pequeña | Una sola persona | Pequeño micrófono |
- Esquema básico de sala de
videoconferencia
El Codec
Las señales de audio y video que se desean
transmitir se encuentran por lo general en forma de
señales analógicas, por lo que para poder
transmitir esta información a través de una red digital, ésta
debe de ser transformada mediante algún método a
una señal digital, una vez realizado esto se debe de
comprimir y multiplexar estas señales para su
transmisión. El dispositivo que se encarga de este trabajo
es el CODEC (Codificador/Decodificador) que en el otro extremo de
la red realiza el trabajo
inverso para poder desplegar y reproducir los datos provenientes
desde el punto remoto. Existen en el mercado equipos modulares
que junto con el CODEC, incluyen los equipos de video, de audio y
de control, así como también equipos periféricos como pueden ser:
- Tabla de anotaciones.
- Convertidor de gráficos informáticos.
- Cámara para documentos.
- Proyector de video-diapositivas.
- PC.
- Videograbadora.
- Pizarrón electrónico, etc.
Forma de conexión.
En cuanto a la conexión existen
básicamente 2 modelos:
- Videoconferencia Punto a Punto.
Es cuando la videoconferencia se va a realizar entre 2
únicos terminales de videoconferencia. Previamente se
establece la llamada telefónica mediante el numero RDSI.
Es decir, un equipo de videoconferencia hace la llamada a
través del número RDSI al otro equipo y se inicia
la comunicación.
- Videoconferencia Multipunto.
En este modelo la
videoconferencia va a ser entre más de 2 terminales. Se
hace necesario pues, un equipo que sea capaz de hacer de
unión entre todos los terminales que participaran en la
Multivideoconferencia (equipo conmutador de Vídeo de
puertos RDSI). Este equipo, a partir de ahora puente de
videoconferencia, se encargará de recibir la
señal de todos los equipos de videoconferencia y de
distribuir todas estas señales a todos los equipos, con
el fin de que todos puedan participar al mismo tiempo en dicho
evento. Este puente de videoconferencia se suele contratar a
empresas de
telecomunicaciones, dado su alto coste.
La Unión Internacional de Telecomunicaciones
(ITU) forma parte de la
Organización de Naciones
Unidas, y se encarga de desarrollar "Recomendaciones"
formales para asegurar que las comunicaciones a nivel mundial
se cumplan de manera efectiva y eficiente. En 1984 se
establecieron las primeras recomendacionesEn primer lugar describiremos la
digitalización del audio, que en principio es
analógico. Para esto se muestrea (se toman
muestras de la señal) y después se codifica
(se asigna un valor
binario a esa muestra). Se empezó con tomar la
voz como el ancho de banda de un Canal Vocal
Telefónico, de 300 a 3100 Hz, aunque hay bandas de
separación, de manera que se ocupa de 0 a 4 Khz.
Para recuperar la información con la calidad
original, hay un teorema que dice que hay que tomar
muestras de la señal al menos al doble de la
frecuencia máxima, es decir, si la frecuencia
máxima es 4 Khz., debemos tomar el valor de la
señal a 8 KHz, es decir, 8000 veces por
segundo.Una vez obtenida la muestra de la señal,
a ese valor de la muestra se le asigna un código, es decir, se codifica. En
este caso el código es de 8 bits, por lo que
existen 256 posibles valores de la muestra. También
implica que 8000 muestras/segundo x 8 bits/muestra son 64
Kbps. Por tanto, la voz analógica, de 0 a 4 Khz.,
la hemos pasado a un conjunto de bits digital, de
velocidad 64 Kbps.Esto se conoce como modulación por
impulsos codificados, MIC en español (Pulse Code Manipulation o
PCM en ingles). Está establecido en la norma G.711
de ITU.Existe otra posibilidad que en lugar de
codificar el valor de la muestra, codifica la diferencia
con el valor anterior de la muestra. Como la voz es una
señal analógica continua, entre un valor y
el siguiente habrá muy poca diferencia y
podrá ser codificada con menos bits, consiguiendo
una mejora. Si en vez de muestrear a 8 KHz (en realidad
7.1 KHz, que es audio de alta calidad) se muestrea a 16
KHz, y se codifica con 4 bits, se obtienen 16 niveles de
cuantificación (valores posibles de la muestra),
manteniendo 64 Kbps, en este caso con mayor calidad. Esto
se llama codificación adaptativa, y es la norma
ITU G.722.El último método de
codificación se basa en el espectro de la voz, que
es la forma que tiene la señal entre esos límites de 0 a 4KHz. Ese espectro
puede ser modelado, aproximado, o reproducido, mediante
fórmulas matemáticas conocidas, sólo
cambiando unos parámetros. Codificar estos
parámetros es más sencillo que en casos
anteriores, por lo que hacen falta menos bits que antes.
La frecuencia de muestreo sigue siendo de 8 KHz, como en
G.711, pero ahora los bits por muestra son 2 (4 de
niveles de cuantificación). Esto da un
régimen binario de 16 Kbps, que ya es mejora sobre
los anteriores. Esto es ITU G.728.- Codificación de audio.
El video también es una señal
analógica que habrá que muestrear y
codificar, para pasarla a bits.Existen básicamente dos formatos de
video, PAL y NTSC. Fundamentalmente las diferencias son
que PAL son 25 cuadros (tramas o fotogramas) por segundo
(fps) y 625 líneas, en NTSC son 30 fps y 525
líneas.Para poder introducir las señales de
video en un sistema de videoconferencia, se normalizaron
dos formatos intermedios: CIF y QCIF (Common Intermediate
Format y Quarter CIF). CIF posee una resolución de
352×288 y QCIF 176×144.Pero la transmisión de imágenes
planteaba el siguiente problema: si se pretende realizar
una videoconferencia a 15 fps, y codificación RGB,
con 8 bits por color
utilizando el formato CIF, serán necesarios algo
mas que 36 Mbps (352 x 288 x 15 x (8+8+8)= 36.495.360
bps.). Por lo que se debe reducir la cantidad de
información a transmitir, mediante compresiones y
codificacionesSe emplean técnicas de codificación
estadística (de longitud variable)
las cuales ejemplificaremos de la siguiente manera: si
tomamos un texto
cualquiera (por ejemplo este trabajo), encontraremos en
él, letras (símbolos), de las cuales
algunas se repiten más que otras; seguramente las
vocales, la 's', la 'n', el ' ', la 'c' etc., y otras que
aparecen mucho menos, como la 'x', la 'ñ', la 'w',
etc. Si para transmitir este texto se asigna a cada letra
la misma codificación, se pierde eficiencia (así es como es el
ASCII,
8 bits por letra/símbolo). Sin embargo, si se
codifican las letras más frecuentes con el menor
número de bits posibles, por ejemplo al ' ' se le
asigna el código binario '1', a la 'a' el
código binario '011', a la 'e' el binario '010', a
la 'r' el '00010', y a la 'w' el '0000000111101', se
ahorra espacio al transmitir.Si de un fotograma estático, por ejemplo
un paisaje de montaña, tomamos al azar un punto
del cielo, este será azul. Casi seguro
al 100% que los puntos de alrededor también son
azules, lo que implica que si se transmite la
información del punto central, se puede ahorrar la
de los puntos de alrededor. Esto es redundancia espacial,
y se hace tomando el fotograma, dividiéndolo en
bloques de 8×8 puntos, hallando su transformada discreta
del coseno (DCT en ingles) para pasarlo a frecuencias,
aprovechando que el ojo humano es más sensible a
las frecuencias bajas, estas se codifican con mayor
precisión frente a las altas, y después se
codifican utilizando un código de longitud
variable.Si tomamos dos fotogramas seguidos de ese
paisaje, seguramente los cambios entre ellos sean
mínimos, cuando no sean la misma imagen. Con lo
cual, transmitiendo la primera imagen y sólo las
diferencias de la segunda con la primera, nuevamente se
reduce la cantidad de información a transmitir.
Esto es redundancia temporal y opera dividiendo la imagen
en bloques de 8×8, generando "macrobloques" de 4×4
bloques. En la imagen siguiente, se busca a dónde
está situado el macrobloque, en un área de
16 puntos alrededor de la situación original. Esa
diferencia se llama vector de movimiento y se vuelve a
codificar en un código de longitud
variable.Todas estas técnicas conforman la
recomendación H.261, que es codificación de
video para velocidades entre 40 Kbps y 2 Mbps. Un equipo
que cumpla H.261 ha de soportar QCIF de forma obligada,
CIF de forma opcional y la estimación de
movimiento también opcionalmente. - Codificación de vídeo.
Esta es una recomendación ITU sobre
videoconferencia la cual se aplica a medios que ofrecen
un caudal garantizado y un retardo constante (por ejemplo
RDSI, líneas punto a punto, etc).Suele ser la que cumplen los equipos o la que
deberían cumplir como mínimo. Se compone de
lo siguiente:Empezando con el vídeo, la H.320 obliga a
que la codificación de video se haga según
la H.261. De esta manera, podremos ver al
interlocutor.Sobre el audio, se obliga a que se cumpla la
recomendación G.711. Las recomendaciones G.722 y
G.728 son opcionales, pero si el equipo las cumple la
calidad de audio será superior (G.722) ó
será menor el requerimiento de ancho de banda
(G.728).Como normalmente la codificación de audio
es más sencilla que la de vídeo, hay un
retardo de canal para sincronizar ambas
señales.Poniendo un poco de orden está la H.242,
que establece la coordinación ('handshaking') entre
terminales, durante el establecimiento de la
sesión de videoconferencia. Como las características y recomendaciones
que soporta cada terminal son distintas, se encarga de
negociar las mejores características que se deben
mantener durante la videoconferencia.Si tenemos una multivideoconferencia, quien pone
orden es H.230, que establece la manera de realizar el
refresco de las imágenes, la conmutación
entre audio y video, etc.Los datos de usuario, como compartición
de aplicaciones, pizarra electronica, etc., van de
acuerdo a la recomendación T.120.Todos estos flujos de información (audio,
video, control, datos de usuario, etc.) entran en la
H.221, que la encargada del interfaz con la red.
Establece la multiplexación de los distintos
flujos de información sobre la trama de salida,
que pueden ser 1 o varios (hasta 30) canales de datos
(usualmente de RDSI) de 64 Kbps. - Recomendación H.320.
Para videoconferencias sobre LAN o
Internet,
que son medios que no garantizan un ancho de banda ni un
retardo fijo, la recomendación H.320 no es
válida.Por eso surge la H.323, que se diferencia de la
H.320 en que se implementan nuevas codificaciones de
audio y video, y las correspondientes al control de
llamada (pasan a ser H.245 y H.225) y medio de transporte
(H.225 frente a la H.221).Como nuevas recomendaciones de vídeo,
está la H.263, que es un superconjunto de la
H.261. Contempla más formatos de imagen, a saber:
16CIF (1408×1152), 4CIF (704×506), CIF y QCIF, y Sub-QCIF
que es de 128×64. Además, la reducción de
la redundancia temporal tiene en cuenta no sólo
los fotogramas pasados si no también los futuros
(los llamados cuadros B, mediante el uso de un buffer).
También aumenta el tamaño de la
región a explorar para encontrar el macrobloque de
un fotograma a otro, pasando a ser de 32 puntos frente a
los 16 anteriores, contando entonces con mayor
posibilidad de éxito.En audio, aparece la G.723, que es
codificación adaptativa como la G.722, pero
quedando en 4.3 o 5.3 Kbps, y la G.729, equivalente a la
G.728 pero reduciendo el régimen binario de 16 a 8
Kbps.Ejemplo de una terminal que
cumple con el estándar H.323. - Recomendación H.323
T.120 surge de la necesidad, en una
videoconferencia, de trabajo colaborativo. Pasarse una
hoja de
cálculo, hacer un dibujo
estilo pizarra, y que sea compartido entre ambos
conferenciantes, etc. Mucho más todavía
cuando en vez de una videoconferencia de dos, tenemos una
multivideoconferecia. Y en realidad, no está
asociada totalmente a 'Videoconferencia', aunque esta su
entorno natural, si no que es un estándar de
compartición de datos.Si se utiliza T.120 los datos pueden ser
distribuidos en tiempo real a cada uno de los
participantes, existiendo interoperabilidad entre equipos
de distintos fabricantes, asegurandose la integridad de
los datos. Además este estándar es
independiente de la red (RTC, LAN, RDSI, etc.) y de la
plataforma (Unix, PC,
Macintosh, etc.).En este tipo de conferencias siempre hay uno que
manda (es el 'proveedor principal'), que es el que ofrece
los servicios de MCS (Multipoint Conference Services). La
conexión de los terminales a este puede ser en
estrella, en cadena, en cascada, etc. Si el proveedor se
cae, la conferencia (de datos) se interrumpe.En las conferencias de datos hay un 'dominio', que basicamnte es la conferencia
en sí, y 'canales' dentro del dominio, que pueden
ser públicos (para difusión, broadcast) o
privados entre usuarios.Estos canales son los siguientes:
1. Canal de errores de control. Prioridad
máxima.2. Canal de anotaciones. Prioridad
alta.3. Canal de Imagenes de Mapa de bits. Prioridad
media.4. Canal de transferencia de ficheros. Prioridad
baja.Algunos de los componentes de la T.120
son:T.123: Protocolos de transporte de red. Presenta
al nivel superior un interfaz común, e
independiente del medio de transporte.T.122: Servicio de datos genérico
orientado a conexión que junta varias
comunicaciones punto a punto para formar un dominio
multipunto. Entre otras cosas, proporciona
difusión de datos con control de flujo,
direccionamiento multipunto, busca el camino más
corto entre estaciones, etc. Los problemas de reserva y resolución
de recursos se solucionan mediante
testigos.T.125: Protocolo de servicio de
comunicación multipunto. Especifica los mensajes
de protocolo necesarios según T.122T.124: Control Genéricode Conferencia
(GCC). Establece y libera las conexiones, maneja la lista
de participantes, listas de aplicaciones y
funcionalidades de las mismas, etc..Aquí va, con caracter opcional, T.121:
Plantilla General de Aplicaciones (GAT, General
Aplication Template). Define una plantilla con la
funcionalidad de una aplicación. Permite que quien
se enfrente a programar algo de esto, se asegure de
ajustarse a la recomendación.T.126: Protocolo de intercambio de
imágenes fijas y anotaciones.T.127: Transferencia multipunto de ficheros
binarios. Permite la difusión de varios ficheros
de forma simultanea, transmisión privada de
ficheros entre grupos de participantes, etc..T.128: Control audiovisual para sistemas
multimedia multipunto. Esto controla el
manejo de canales de audio y video en tiempo real dentro
de una videoconferencia.Las aplicaciones de usuario podrían
utilizar los servicios de T.126, 127 y 128, ir
directamente sobre T.124 ó sobre T.122/125,
utilizar T.121… - Estándar T.120
- Multivideoconferencia.
- Recomendaciones de
ITU. Codificación de audio y video.
Para poder hacer una videoconferencia entre varios
participantes a la vez, es necesario una Unidad de Control
Multipunto o de Multiconferencia (MCU). A esta unidad se conectan
(o llaman, si es vía RDSI) los participantes, y es la
responsable de enviar a los participantes las señales de
audio y video. Normalmente el audio es reenviado a todos los
participantes, y para saber qué imagen es la que se
envía a los participantes, hay dos maneras:
Conmutación manual: Hay un
control manual por parte de uno de los participantes de
qué imagen se recibe en el resto de monitores. Esto
está en la H.243.
Conmutación automática. El que tenga un
nivel de audio más alto es quien impone su imagen a los
demás.
De una unidad MCU interesa que:
- El número de usuarios conectados sea el mayor
posible. 4, 16, 48, hasta 256 son números de equipos
comerciales. 255 es un número muy, muy alto, alcanzable
con la conexión de MCU en cascada. - Ancho de banda por usuario. No es lo mismo una
multivideoconferencia con 64 Kbps por usuario que con 384 Kbps.
A mayor ancho de banda, mayor 'potencia'
habrá de tener la MCU, (y mayor número de accesos
si es vía RDSI) - Llamadas salientes. Puede ser interesante que sea la
MCU quien llame al usuario, en vez de sólo recibir
llamadas. - Facilidad de gestión. Programar videoconferencias
futuras, reservando recursos para evitar su uso indeseado
cuando de verdad necesite utilizarse. - Transcodificación. Normalmente en una
multivideoconferencia habrá participantes a 64, a 128, a
384 Kbps, etc. Para evitar problemas se suele ir a la velocidad
del menor, lo que suele perjudicar al que se ha gastado la
pasta para ir a 384. Esta facilidad permite que cada usuario
aproveche al máximo sus capacidades, aunque otros
participantes no puedan soportarlas.
Por supuesto, que soporte compartición de datos
con T.120.
- Ejemplo del uso
de la videoconferencia en el ámbito educativo. La
Universidad
ORT.
Desde 1996 y durante algunos años, la
Universidad ORT dictó cursos regulares
al interior del país por videoconferencia. Se trató
de una experiencia pionera en el ámbito regional,
cuyo objetivo fue generar oportunidades de formación
profesional superando las dificultades de acceso causadas por la
distancia física.
La red utilizada permitía la comunicación,
con audio y video bidireccional, entre los estudiantes ubicados
en los departamentos de Artigas, Colonia, Maldonado,
Paysandú, Rivera y Salto, y el docente situado en la
Universidad ORT en Montevideo. La red permitía
también la participación de docentes ubicados en el
extranjero, mediante conexiones internacionales.
El certificado final que obtienen los participantes de
un curso dictado por videoconferencia, es equivalente al que
obtienen quienes realizan dicho curso en forma presencial en
Montevideo. La Universidad ORT garantiza, para sus cursos por
videoconferencia, el mismo nivel de calidad, exigencia y
reconocimiento que tienen los cursos dictados en modalidad
presencial.
El dictado de cursos a través de la
videoconferencia interactiva multipunto obligó a los
docentes a una adaptación de su metodología. La Universidad ORT se ha
preocupado por investigar este aspecto en forma
sistemática, para optimizar el medio y favorecer el
proceso de
enseñanza–aprendizaje.
En la actualidad este panorama se ha visto modificado.
En los últimos años la Universidad ha cambiado la
estructura de
su equipamiento, y ha pasado de tener 2 equipos multipunto de
cuatro salidas cada uno, ha tener sólo 2 equipos punto a
punto. Esto se debe principalmente a que esa infraestructura era
demasiado costosa, y actualmente existen empresas como ANTELData
que brindan servicios de multivideconferencia.
En cuanto a los cursos que se dictaban en el interior
del país, estos se han interrumpido debido a
razones:
- Pedagógicas: ya que la experiencia
demostró que el dictado de cursos regulares a distancia
resultaba muy tedioso para los estudiantes. - Económicas y de mercado: pues la creciente
concentración de población en Montevideo, y el consecuente
despoblamiento en el interior del país, impedía
la formación de grupos numerosos en los centros del
interior que justificara el costo de una conexión para
videoconferencia.
- Videoconferncing and Videotelephony. Richard
Schphorst. Editorial Artech House. Norwood, 1996. - http://www.monografias.com
- http://www.universia.com
Datos del autor:
Guillermo Fragello.
Página anterior | Volver al principio del trabajo | Página siguiente |