- Ventajas de la
transmisión digital - Breve historia de
las comunicaciones - Clasificación y estructura de los
sistemas de comunicación - Señales
Ventajas de la
transmisión digital
Los sistemas de comunicaciones se han orientado desde
los años 60´s hacia sistemas digitales. La primer
ventaja de estos sistemas respecto a los sistemas
analógicos es la facilidad para regenerar señales
digitales, por ejemplo sea el pulso digital.
A estos circuitos regenerativos se les llama
repetidores.
En una señal analógica no es posible
realizar este proceso.
Observe que la forma de onda de una señal
continua contiene la información de ésta, la cual
se distorsiona paulatinamente en el canal de transmisión.
Las señales digitales tienen un número finito de
estados, que en general es pequeño, por ejemplo dos
amplitudes en el caso binario. Las señales
analógicas tienen teóricamente un número
infinito de estados, en realidad tienen un número finito
muy alto de acuerdo a la sensibilidad de los sistemas.
La segunda ventaja es el costo menor de los circuitos
digitales, como procesadores y multiplexores.
Una tercera razón es el fácil manejo de la
información, los bits siempre estarán codificados y
permiten fácilmente aplicarles técnicas contra
interferencia, ruido, o bien proveer de técnicas de
seguridad (encriptamiento).
Los sistemas digitales también tienen
desventajas. La primera es que en algunos casos requieren mayor
ancho de banda que sistemas analógicos que transmitan la
misma información. Una segunda desventaja es que requieren
de circuitos adicionales de codificación y de
sincronización.
Breve historia de las
comunicaciones
En 1605 Bacon desarrolló un alfabeto de dos
palabras para representar 24 letras usando 5 dígitos, a
estas letras a y b se les llama palabras codificadas y al
conjunto se le llama código (code).
En 1641 se extendió estas ideas a sistemas
M-arios
En 1703 Leibniz describió el código
binario usando solo 0 y 1 para representar enteros en longitud
variable.
El primer sistema de comunicaciones digitales es el
telégrafo, inventado por Morse en 1837 el cual usaba
pulsos cortos y largos. En 1875 Banfot desarrolló el
sistema de telégrafo actual con 5 dígitos por
palabra. En 1879 Marconi desarrollo el
radioteléfono.
En 1924 Nyquist propuso el teorema del muestreo. En 1928
estableció la máxima tasa de bits (bps) en un canal
de cierto ancho de banda.
En 1937 Reeves desarrolló uno de los sistemas
más importantes el PCM, modulación por pulsos
codificados.
En 1948 Shannon estableció las bases de la
teoría de información utilizando el concepto de
entropía.
En 1959 desarrollo la teoría de tasa de
distorsión que establece límites de la capacidad de
un canal.
En ese año se empieza a utilizar FM y Hamming
estableció la teoría de códigos correctores
de errores, es el año en que Bell anunció el
transistor.
Clasificación
y estructura de los sistemas de comunicación
Un sistema de comunicaciones electrónicas esta
constituido por las siguientes partes.
Para comunicaciones analógicas (de onda continua)
el transmisor y receptor están constituidos
por:
Para comunicaciones digitales, el transmisor y el
receptor son de la forma:
En el receptor, al recibir la señal pueden
existir circuitos amplificadores como primer bloque.
Codificador de fuente
Consiste en el convertidor analógico digital y en
ocasiones también comprime los datos de entrada. En el
caso de las señales digitales modifica a los niveles
deseados y comprime los datos.
Codificador de canal.
Modifica la señal para que sean menos susceptible
al ruido en su transmisión o bien introduce bits de
redundancia para corregir errores durante la transmisión,
existen los tipos:
( Codificación de línea
( Códigos duobinarios
( De forma de onda: ortogonales, biortogonales y
transortogonales.
( De secuencias estructuradas: de bloque,
convolucionales y de Trelis.
Modulador Digital
Existen varias clasificaciones como coherentes y no
coherentes. De acuerdo al tipo de modulador se clasifican
en:
Digitales binarios | Digitales M-arios |
ASK | QAM |
FSK | MFSK |
PSK | MPSK |
Señales
Clasificación.
Las señales pueden ser:
Determinísticas.- Sus valores en un instante
están predeterminados.
Aleatorias.- Existe incertidumbre en sus valores en un
instante, se les llama en matemáticas procesos aleatorios
o estocásticos.
O bien,
Energía y Potencia.
Su potencia instantánea es:
Se puede concluir que:
1. Una señal de energía tiene potencia
promedio nula. Una señal de potencia tiene energía
promedio infinita.
2. Las señales periódicas y las
señales aleatorias son de potencia.
3. Las señales determinísticas
aperiódicas son de energía.
Densidad espectral.
La energía total de una señal real esta
relacionada con su transformada de Fourier (teorema de Parseval)
por:
Una señal periódica x(t) se puede
desarrollar en una serie de Fourier con coeficientes
Cn
si cumple las condiciones de Dirichlet o bien, si es
absolutamente sumable.
Solución.
Autocorrelación.
La autocorrelación establece una medida de la
relación de la señal consigo misma pera atrasada.
Se define para una señal de energía
como:
Señales Aleatorias
Sea X una variable aleatoria se define su función
distribución de probabilidad como
La función densidad de probabilidad se define
por:
Se define la media o valor esperado de X
como:
Ejemplo. Dada la función
Solución.
Las distribuciones y densidades de las variables
aleatorias más conocidads son, entre otras, la gaussiana o
normal, la uniforme, la binomial, la de Laplace y la de
Rayleigh.
Ejemplo. La v.a. X tiene una
distribución gaussiana con media 1000 y desviación
estándar 5. Obtener la probabilidad de que la v.a.
esté entre 950 y 1100.
Solución:
Ejemplo. En el canal binario mostrado, 0 y 1 se
transmiten con la misma probabilidad
se transmiten 10 dígitos, ¿Cuál es
la probabilidad de recibir cuatro dígitos erróneos
?
Solución:
Un proceso aleatorio es un conjunto finito o no finito
de variables aleatorias. En muchas ocasiones proceden de un
experimento repetido n veces.
Se dice que un proceso es estacionario en sentido
estricto, si su estadística no cambia. Por lo tanto es
suficiente que:
Un proceso se dice ergódico si sus promedios en
el tiempo son iguales a sus promedios
estadísticos.
Ejemplo.
Solución.
Ruido
El ruido térmico es blanco, aditivo y gaussiano,
como este ruido esta presente en todos los sistemas de
comunicaciones, se utilizan sus características para
modelar ruido en comunicaciones.
Señales en sistemas
lineales
Se observa que la magnitud es constante y la fase es
lineal. Esta ecuación implica una ancho de banda infinito,
y por lo tanto este sistema no es causal ni
realizable.
Una aproximación es truncar la respuesta entre
las frecuencias fl y f2, esta función es llamada filtro
ideal.
Esta respuesta no es causal, por lo que el filtro no es
realizable.
Los filtros realizables van desde un RC hasta los
diseños de filtros digitales de orden n, y de distintos
tipos de acuerdo a su respuesta.
Enviado por:
Pablo Turmero