Según todo esto la posibilidad de que la ciencia
ficción toque a nuestros hogares, está a la vuelta
de la esquina la IPN es el camino a que la primera red con el planeta rojo se
haga realidad o que el láser de
transmisión de señales
a alta velocidad se
ponga en uso así como varias antenas de
comunicación sean instaladas en planetas,
satélites
y asteroides y con esto estar en contacto permanente con la tierra, el
resultado de tecnología y ciencia
ficción al servicio de
los seres humanos y de soñadores que como nosotros lo
pueden hacer realidad.
Una red de ordenadores es un conjunto de equipos
que pueden almacenar y procesar datos
electrónicos, interconectados de forma que sus
usuarios pueden almacenar, recuperar y compartir información con los demás.
Las máquinas conectadas pueden ser,
microordenadores, miniordenadores, grandes ordenadores,
terminales, impresoras, dispositivos de almacenamiento,
cámaras, entre otros.En una red
de ordenadores se puede almacenar cualquier
información, incluyendo textos, imágenes, mensajes de voz e
imágenes visuales como por ejemplo fotos
y vídeos.- Redes de computadoras
El Protocolo de red o también
Protocolo de Comunicación es el conjunto de reglas
que especifican el intercambio de datos u órdenes
durante la
comunicación entre las entidades que forman
parte de una red. - Protocolo de Redes
Internet es un método de interconexión
descentralizada de redes de
computadoras implementado en un conjunto de protocolos denominado TCP/IP
y garantiza que redes
físicas heterogéneas funcionen como una red
lógica única, de alcance
mundial. Sus orígenes se remontan a 1969, cuando
se estableció la primera conexión de
computadoras, conocida como ARPANET, entre
tres universidades en California y una en Utah, EE.
UU.Al contrario de lo que se piensa
comúnmente, Internet
no es sinónimo de World Wide
Web (WWW, o "la Web").
Ésta es parte de Internet, siendo uno de los
muchos servicios ofertados en la red Internet. La
Web es un sistema de
información mucho más reciente,
desarrollado inicialmente por Tim Berners Lee en 1989. El
WWW utiliza Internet como medio de
transmisión.Algunos de los servicios disponibles en
Internet, aparte de la Web, su versión
evolucionada Web 2.0 y los sistemas
operativos web (WebOS, EyeOS), son el acceso remoto a
otras máquinas (SSH y telnet), la transferencia de archivos (FTP),
el correo
electrónico (SMTP y POP), los boletines
electrónicos (news o grupos
de noticias), las conversaciones en
línea (IRC y chats), la mensajería
instantánea, la compartición de archivos
(P2P, P2M, Descarga Directa), la
radio a la
carta (Podcast), el visionado de video
a la carta
(P2PTV, Miro, Joost, Videocast) y los juegos
en línea. - Internet
- Internet: un poco de historia.
- MARCO
TEÓRICO
La historia de
Internet comienza realmente en el año 1962. Las
pocas computadoras de esa época tenían memorias de
núcleos magnéticos con capacidad para almacenar
unos pocos miles de caracteres. Los programadores, sin embargo
las componían para hacer rendir con enorme ingenio a
esos pocos caracteres, por ejemplo, procesando modelos de
simulación y de programación
lineal en una computadora
tal como la IBM 1401 que fue pensada para ser simplemente una
impresora y
que justamente se caracterizaba por tener originalmente 1400
posiciones de memoria.
El mundo de las comunicaciones estaba en ese entonces en manos
de IT&T. Existía en esa época un proyecto
estratégico del DOD, Department of Defense, Departamento
de Defensa de los Estados Unidos
denominado ARPA por Advanced Research Projects Agency, Agencia
para Proyectos de
Investigación Avanzada. Clasificado a su vez como
proyecto de alto riesgo y de
incalculables beneficios, sienta las bases de la red ARPA o
ARPANET, la cual mucho más tarde se convertiría
en Internet.
En 1992, 30 años más
tarde:
- Internet tenía un millón de
computadoras conectadas. - ARPANET ya no existía.
- Los computadores eran más rápidos en
nueve órdenes de magnitud- - Los anchos de banda eran 20 millones más
grandes.
El Programa espacial soviético
lanzó el primer satélite artificial del
mundo (Sputnik 1) el 4 de octubre de 1957. El
Congreso de los Estados Unidos lo percibió
como una amenaza a la seguridad y el Presidente Eisenhower y
sus consejeros, tras varios meses de debate, tomaron el acuerdo de fundar
una nueva agencia federal que dirigiera toda la
actividad espacial no militar.El 29 de julio de 1958 Eisenhower
firmó el Acta que funda la NASA (Administración Nacional de
Aeronáutica y del Espacio, en inglés: National Aeronautics
and Space Administration) la cual empezó a
funcionar el 1 de octubre de 1958 con cuatro
laboratorios y unos 8.000 empleados.La intención de los primeros
programas era poner una nave tripulada en
órbita y ello se realizó bajo la
presión de la competencia entre los EE.UU. y la URSS
en la denominada Carrera espacial que se produjo
durante la Guerra
Fría.El 25 de mayo de 1961 el Presidente John F.
Kennedy anunció que Estados Unidos
debía comprometerse a "aterrizar a un hombre en la Luna y devolverlo sano y
salvo a la Tierra antes del final de la
década", para lo cual se creó el
Programa Apollo. El Programa Gemini fue concebido
para probar las técnicas necesarias para el
Programa Apollo, cuyas misiones eran mucho más
complejas.Comenzó con el Gemini 3 el 21 de
marzo de 1965 y acabó con el Gemini 12 el 11
de noviembre de 1966. Edward White, quien
posteriormente murió en el accidente del
Apollo 1, hizo con el Gemini 4 el 3 de junio de 1965
la primera caminata espacial de un estadounidense. El
15 de diciembre de 1965 los Gemini 6 y 7, tripulados
por dos astronautas cada uno, hicieron su primera
cita espacial aproximando las naves hasta 1,8 m.
El vuelo del Gemini 7 tuvo una duración de dos
semanas, tiempo que se estimó necesario
para las misiones Apollo. El 16 de marzo de 1966 la
nave Gemini 8 tripulada por David Scott y Neil
Armstrong, que luego sería el primer hombre en
pisar la Luna, atracaron su nave al cohete Agena 8
preparando la maniobra de atraque entre el
módulo lunar y la nave Apollo.Durante los ocho años de misiones
preliminares la NASA tuvo la primera pérdida
de astronautas. El Apolo 1 se incendió en la
rampa de lanzamiento durante un
ensayo y sus tres astronautas murieron. El
Programa Apolo logró su meta con el Apolo 11
que aterrizó con Neil Armstrong y Edwin E.
Aldrin en la superficie de la Luna el 20 de julio de
1969 y los devolvió a la Tierra el 24 de
julio. Las primeras palabras de Armstrong al poner el
pie sobre la Luna fueron: «Éste es un
pequeño paso para un hombre, pero un gran
salto para la humanidad».Diez hombres más formarían la
lista de astronautas en pisar la Luna cuando
finalizó el programa anticipadamente con el
Apolo 17, en diciembre de 1972, cuyo resultado fue
además de la recogida de muestras de regolito,
la instalación de equipos de estudio
superficiales ALSEP que aún continúan
enviando información.La NASA había ganado la carrera
espacial y, en algún sentido, esto la
dejó sin objetivos al disminuir la atención pública capaz
de garantizar los grandes presupuestos del Congreso. Ni la casi
trágica misión del Apolo 13, donde la
explosión de un tanque de oxígeno casi costó la
vida a los tres astronautas y les obligó a
renunciar a pisar la Luna, pudo volver a atraer la
atención. Las misiones posteriores al Apolo 17
(estaban planificadas varias misiones más,
hasta el Apolo 20) fueron suspendidas. Los recortes
del presupuesto, debidos en parte a la
Guerra
de Vietnam, provocaron el fin del programa. Los
tres Saturno V no utilizados se usaron para el
desarrollo del primer laboratorio estadounidense en
órbita, el Skylab, y las ideas fueron en la
línea de desarrollar un vehículo
espacial reutilizable como el transbordador espacial.
Poco conocido es el proyecto AAP (Apollo Applications
Program), que debía ser el sustituto de las
misiones Apolo, o el LASS, destinado a establecer una
base habitada en la superficie del
satélite.Aunque la inmensa mayoría del
presupuesto de NASA se ha gastado en los vuelos
tripulados, ha habido muchas misiones no tripuladas
promovidas por la agencia espacial.En 1962 el Mariner 2 fue la primera nave
espacial en hacer un sobrevuelo cercano a otro
planeta, en este caso Venus. Los programas Ranger,
Surveyor y Lunar Orbiter eran esenciales para evaluar
las condiciones lunares antes de intentar el vuelo
tripulado del programa Apolo. Posteriormente, las dos
sondas Viking que aterrizaron en la superficie de
Marte enviaron a la Tierra las primeras
imágenes de la superficie del planeta.
Quizá las misiones no tripuladas más
impresionantes fueron los programas Pioneer 10,
Pioneer 11, Voyager 1 y Voyager 2, misiones que
visitaron Júpiter, Saturno, Urano y Neptuno y
enviaron impresionantes imágenes en color de todos ellos y la
mayoría de sus satélites.El Transbordador espacial se
convirtió en el programa espacial favorito de
la NASA a finales de los años setenta y los
años ochenta. Planeado tanto los dos cohetes
lanzadores y el transbordador como reutilizables, se
construyeron cuatro transbordadores. El primero en
ser lanzado fue el Columbia el 12 de abril de
1981.Pero los vuelos del transbordador eran mucho
más costosos de lo que inicialmente estaba
proyectado y, después que el desastre del
Transbordador Espacial Challenger en 1986
resaltó los riesgos de los vuelos espaciales, el
público recuperó el interés perdido en las misiones
espaciales.No obstante, el transbordador se ha usado
para poner en órbita proyectos de mucha importancia como el
Telescopio Espacial Hubble (HST). El HST se
creó con un presupuesto relativamente
pequeño de 2.000 millones de dólares,
pero ha continuado funcionando desde 1990 y ha
maravillado a los científicos y al
público. Algunas de las imágenes han
sido legendarias, como las imágenes del
denominado Campo Profundo del Hubble. El HST es un
proyecto conjunto entre la ESA y la NASA, y su
éxito ha ayudado en la mayor
colaboración entre las agencias.En 1995 la cooperación
ruso-estadounidense se lograría de nuevo
cuando comenzaron las misiones de acoplamiento entre
el Transbordador y la estación espacial Mir,
(en ese momento la única estación
espacial completa). Esta cooperación
continúa al día de hoy entre Rusia y Estados Unidos, los dos socios
más importantes en la construcción de la ISS. La
fuerza de su cooperación en
este proyecto fue más evidente cuando la NASA
empezó confiando en los vehículos de
lanzamiento rusos para mantener la ISS tras el
desastre en 2003 del Columbia que mantendrá en
tierra la flota de los transbordadores durante
más de un año.Costando más de cien mil millones de
dólares, ha sido a veces difícil para
la NASA justificar el proyecto ISS. La población estadounidense ha
sido históricamente difícil de
impresionar con los detalles de experimentos científicos en el
espacio. Además, no puede acomodar a tantos
científicos como había sido planeado,
sobre todo desde que el transbordador espacial
está fuera de uso, hasta marzo de 2005,
deteniendo la construcción de la ISS y
limitando su tripulación a una de mantenimiento de dos
personas.Durante la mayoría de los años
1990 la NASA se enfrentó con una
reducción de los presupuestos anuales por
parte del Congreso. Para responder a este reto, el
noveno administrador de la NASA, Daniel S.
Goldin, inventó misiones baratas bajo el lema
más rápido, más bueno,
más barato que le permitió a la NASA
que recortara los costos mientras se emprendían
una ancha variedad de programas aerospaciales. Ese
método fue criticado y llevó en 1999 a
las pérdidas de las naves gemelas Climate
Orbiter y Mars Polar Lander de la exploración
de Marte.Probablemente la misión con
más éxito entre el público en
los últimos años (1997) ha sido la de
la sonda Mars Pathfinder. Los periódicos de
todo el mundo llevaron las imágenes del robot
Sojourner, desplazándose y explorando la
superficie de Marte. Desde 1997 la Mars Global
Surveyor ha orbitado Marte con un éxito
científico innegable. Desde 2001 el orbitador
Mars Odyssey ha estado buscando evidencia de agua en el planeta rojo, en el pasado
o en el presente, así como pruebas de actividad
volcánica.En 2004 una misión
científicamente más ambiciosa
llevó a dos robots, Spirit y Opportunity, a
analizar las rocas en busca de agua, por lo que
aterrizaron en dos zonas de Marte diametralmente
opuestas y parece que encontraron vestigios de un
antiguo mar o lago salado.El 14 de enero de 2004, diez días
después del aterrizaje de Spirit, el
Presidente George W. Bush anunció el futuro de
la exploración espacial. La humanidad
volverá a la Luna en 2020 como paso previo a
un viaje tripulado a Marte.El Transbordador espacial se retirará
en 2010 y será reemplazado en 2014 por el Crew
Exploration Vehicle, capaz de atracar en la ISS y
dejar la órbita de la Tierra. El futuro del
ISS es algo incierto, tras la explosión del
Columbia el 1 de febrero de 2003, y el patrón
de los vuelos del Transbordador. La
construcción se completará, pero el
futuro de las próximas misiones es
incierto.- La exploración espacial y los
programas de la NASALa NASA planea establecer algo que se le
llama "El Internet Interplanetario" con el
lanzamiento del Orbitador de Telecomunicaciones de
Marte (OTM) en el año 2009. El dispositivo
espacial tendrá previsto llegar a la
órbita sobre Marte en el 2010 y será
usado para enviar paquetes de datos a la Tierra desde
dispositivos sobre la superficie de Marte y de otros
que se encuentren orbitándolo, por un
período de más de 10 años y con
una extremadamente alta tasa de transferencia. Se ha
pensado en este satélite de comunicaciones
dedicado debido a la vasta cantidad de
información científica que
deberá ser enviada a la Tierra tal como la del
Laboratorio de Ciencia de Marte en la superficie del
planeta. Sin embargo, el 21 de julio del 2005, se
anunció que el OTM fue cancelada debido a la
necesidad de apoyar otros objetivos a corto plazo,
incluyendo, una misión de mantenimiento del
Hubble, operaciones de la misión
extendida de los vehículos de
exploración espacial de Marte, asegurando que
el Laboratorio de Ciencia de Marte pueda volar en el
2009, y para salvar de la cancelación a una
misión de ciencia de la Tierra, llamada
Glory. - Orbitador de Telecomunicaciones de
Marte - Vinton "Vint" G. Cerf.
- Antecedentes
- MARCO
REFERENCIAL
Mejor conocido como Vinton Cerf, es un
científico de la computación estadounidense, considerado
como uno de los 'padres' de la Internet. Nacido en Connecticut
(Estados Unidos) en 1943, se graduó en Matemáticas y Ciencias de
la Computación en la universidad
de Stanford (1965). Durante su estancia posterior en la
Universidad de California (UCLA) obtuvo el Máster en
Ciencia y el Doctorado.
A principios de
los años 70 comenzó a trabajar con Robert Kahn en
el desarrollo de un conjunto de protocolos de comunicaciones
para la red militar ARPANET financiado por la agencia
gubernamental DARPA. El objetivo era
crear una "red de redes" que permitiera interconectar las
distintas redes del Departamento de Defensa norteamericano,
todas ellas de diferente tipo y funcionando sobre diferentes
sistemas
operativos, con independencia del tipo de conexión:
radioenlaces, satélites y líneas
telefónicas.
Las investigaciones, lideradas por Vinton Cerf,
primero desde la Universidad de California (1967-1972) y
posteriormente desde la Universidad de Stanford (1972-1976),
llevaron al diseño del conjunto de protocolos que hoy
son conocidos como TCP/IP
(Transmission Control
Protocol/Internet Protocol), que fue presentado por Vinton Cerf
y Robert Kahn en 1972).
Entre 1976 y 1982, trabajando en DARPA, fue pionero en
el desarrollo de la transmisión por radio y
satélite de paquetes, responsable del proyecto Internet
y del programa de investigación de seguridad en la red.
Siempre preocupado por los problemas de
conexión de redes, Cerf estableció en 1979 la
Internet Configurarion Control Board (que posteriormente se
denominó Internet Activities Board) y fue su primer
presidente.
Entre 1982 y 1986, Cerf diseñó el MCI
MAIL, primer servicio comercial de correo electrónico
que se conectaría a Internet.
En 1992 fue uno de los fundadores de la Internet
Society y su primer presidente.
Actualmente Vinton Cerf es el Chief Internet
Evangelist de Google,
ocupación que compagina con el cargo de presidente del
ICANN, también es miembro del Comité de
Asesoramiento de Sistemas de
Datos Espaciales.
Lideró el inicio del "Internet Interplanetario"
con Dr. Adrian Hooke en el Laboratorio de Propulsión a
Chorro (JPL, en inglés) de la NASA con el cual
aún siguen sus investigaciones.
En la actualidad la Internet actual está
formada por una estructura mayoritariamente cableada a pesar
de que cada vez más se hace uso de
tecnologías inalámbricas. Aún
así, hoy en día, está basada in
infraestructuras cableadas. La razón de
predominancia de este tipo de estructuras ha sido ha sido el número
de ventajas que ofrecen sobre las
inalámbricas.Estas redes son capaces de proporcionarnos enlaces
punto a punto mediante conexiones que producen poca
latencia en transferencia de mensajes en comparación
con las comunicaciones inalámbricas a grandes
distancias, así como hasta ahora, seguridad y
fiabilidad.- Internet Terrestre
- Internet "más
allá"
Si se quiere llevar Internet más allá de
las "fronteras" establecidas actualmente, deberemos ser capaces
de adaptar los medios
actuales para llevar a cabo esa expansión. Para ella,
debemos analizar el tipo de dispositivos que se van a utilizar,
sus características y el medio en el que van a
situar.
Obviamente estamos hablando de comunicaciones
inalámbricas entre nodos que pueden estar o no disponibles
en un determinado intervalo de tiempo y que a su vez van a estar
muy distanciados entre sí. Además estos nodos van a
tener una alimentación de energía limitada y
es una de las limitaciones que más van a restringir el
diseño de los sistemas de comunicación.
Las limitaciones que nos vamos a encontrar ante la
naturaleza de
estas comunicaciones serán, por lo tanto: retrasos en la
comunicación entre dos puntos, una mayor tasa de errores a
las que estamos acostumbrados, conectividad punto a punto debido
a que las partes no siempre van a estar disponibles, tasas de
envío asimétricas, y la adaptación de
mecanismos de calidad de
servicio, fiabilidad, direccionamiento.
Por lo tanto, igual que necesitamos agentes que sirvan
de enlace para unir redes incompatibles aquí en las redes
que conocemos, también necesitaremos agentes capaces de
unir las redes actuales con una red interplanetaria.
En 1998, la agencia de Investigación de proyectos
avanzados del ministerio de defensa de los Estados Unidos, DARPA
(US Defense Advanced Research Projects Agency), dentro de su
plan para la
siguiente generación de Internet, fundó un grupo de
investigación en la NASA con el objetivo de estudiar los
aspectos técnicos para formar una Internet
interplanetaria.
La idea de este grupo era usar las técnicas que
ya se habían desarrollado en la Internet actual para crear
estándares que pudiesen ser utilizados por las distintas
agencias para una comunicación interplanetaria. Sus
objetivos fueron los siguientes:
- Usar protocolos actualmente usados en Internet o
para formar distintos tipo de redes para poder
crear redes en entornos con pocos retardos de
transmisión y con relativamente poco ruido. - Crear "backbones" en el espacio capaz de comunicar
en muy largas distancias con el objetivo de interconectar las
redes mencionadas anteriormente. - La Internet resultante sería por lo tanto
una red de Internets. En esta nueva Internet Interplanetaria
se haría uso de un nuevo protocolo, el protocolo de
mensaje ("bundling") capaz de "unir" estas redes de
naturaleza heterogénea entre sí.
La IPN Trata un conjunto de nodos flotantes en el
espacio que se pueden comunicar unos con otros. Pero, a causa de
los retrasos de la velocidad de la luz en distancias
interplanetarias, aproximadamente de 20 segundos, el IPN necesita
un nuevo conjunto de protocolos y tecnología que san
tolerantes a grandes retrasos. Por otro lado, el Internet como lo
conocemos hoy día, tiende a ser una "red de redes" muy
ocupada y con tráfico alto, con demoras y errores
insignificantes y además posee un Backbone
alámbrico, el Internet Interplanetario es una red
"almacenamiento-y-reenvío" de
Internets que a menudo se desconecta, con un "backbone
inalámbrico" cargado de conexiones propensas a error, y
demoras con rangos de retrasos que van desde decenas de minutos,
incluso horas, aún cuando hay una
conexión.
Viendo las comunicaciones de espacio desde la
perspectiva histórica, ha habido una evolución constante de una costosa arquitectura
punto a punto única en su tipo, a la tecnología
reutilizable en misiones sucesivas, al desarrollo de protocolos
uniformes acordados por las agencias del Espacio de muchos
países. Esta última fase se ejecuta desde que 1982
por los esfuerzos de El Comité Consultivo para Sistemas de
Datos de Espacio (CCSDS), un cuerpo compuesto por la
mayoría de agencias del espacio del mundo. Este cuenta con
diez agencias miembro, veintidós agencias observadoras, y
más de 100 socios industriales.
La evolución de estándares de sistema de datos
del espacio ha ido en paralelo con la evolución del
Internet, con polinización cruzada conceptual donde es
fructífero, pero a un grado grande, como una
evolución separada. Desde que el final de la década
de los noventa, los protocoles familiares de Internet y los
protocolos CCSDS de vínculo espacial se han integrado y
han convergido en varias maneras, por ejemplo, la transferencia
exitosa de archivos del FTP al Orbitador de la Tierra STRV-1b el
2 de enero de 1996. El uso del Protocolo de Internet sin CCSDS ha
sido demostrado también en naves espaciales, por ejemplo
el satélite UoSAT-12 y la Constelación de Monitoreo
de Desastres. Habiendo alcanzado la era donde la IP a bordo de
una nave espacial, y IP o las Especificaciones de Protocolo de
comunicaciones de Espacios similares a IP (SCPS) para saltos
cortos, ha mostrado ser factible, un estudio de estimaciones
futuras de la idea global fue la siguiente fase.
El estudio de Internet Interplanetario en el Laboratorio
de Propulsión a Chorro de la NASA (JPL, en inglés)
fue empezado por un equipo de científicos dirigido por
Vinton Cerf y Adrian Hooke. El Dr. Cerf es uno de los pioneros
del Internet en la Tierra, y tiene actualmente la posición
de científico visitante distinguido en el JPL. El
Señor. Hooke es uno de los directores del
CCSDS.
Mientras que los protocolos SCPS similares al IP son
factibles para saltos cortos, tal como una estación en la
superficie a un orbitador, un explorador a un aterrizador, un
aterrizador a un orbitador, una sonda, etcétera. Una red
tolerante a retrasos (DTN, Delay Tolerant Network), que es
prácticamente donde esta recargada la esencia del
proyecto, es necesitada para conseguir información de una
región del sistema solar a
otra. Se hace manifiesto que el concepto de una
"región" es una factorización arquitectónica
natural del Internet Interplanetario.
Una "región" es un área donde las
características de comunicación son la misma. Las
características de una región incluyen
comunicaciones, seguridad, conservación de recursos,
quizás propiedad, y
otros factores. El Internet Interplanetario es una "red de
internet regionales".
Lo que se necesitada entonces, es una manera
estándar para lograr comunicación punto a punto por
múltiples regiones en un ambiente
desconectado, de variable demoras que utilice una serie
generalizada de protocolos. Ejemplos de regiones pueden incluir
el Internet terrestre como una región, una región
en la superficie de la luna o Marte, o una región
superficie a órbita.
El reconocimiento de este requisito llevó al
concepto de un "paquete" como una manera de alto nivel para
dirigir el generalizado problema almacenamiento-y-reenvío. Los paquetes son
un área de nuevo desarrollo de protocolo en las capas
superiores del modelo de
OSI, encima de la
Capa de Transporte con
la meta de
dirigir el asunto de empaquetar la información de
almacenamiento-y-reenvío para que pueda atravesar con
seguridad los ambientes radicalmente diferentes que constituyen
"la red de internet regionales".
La capa de servicio de empaquetado, implementado como la
suite de protocolo de Empaquetamiento, proporcionará los
servicios de protocolo tolerante a demoras de propósito
general como soporte a una gama de aplicaciones: transferencia de
custodia, segmentación y re-ensamblaje, aseguramiento
de punto a punto, seguridad de punto a punto, y enrutamiento de
punta a punta entre ellos.
Un ejemplo de una de esas aplicaciones punto-a-punto
volando en una misión espacial es CFDP, utilizado en la
misión de cometa, Impacto Profundo. CFDP es el protocolo
de Entrega de Archivo de CCSDS
un estándar internacional para la transferencia
automática y segura de archivo en ambas direcciones. CFDP
no debe ser confundido con el Protocolo de Distribución Coherente de Archivo, que
tiene desafortunadamente las mismas siglas y es un protocolo
experimental IETF-Documentado para entrega rápida de
archivos a múltiples objetivos en un ambiente de red
alto.
Además de copiar con seguridad un archivo de una
entidad (i. E. una nave espacial o una estación en la
superficie) a otra entidad, el CCSDS CFDP tiene la capacidad de
transmitir con confiabilidad, pequeños mensajes
arbitrarios definidos por el usuario, en los metadatos que
acompañan el archivo, y también la
transmisión segura de comandos
relacionados a la
administración de archivos de sistema que serán
ejecutados automáticamente en la entidad remota de punto
final (i. E., una nave espacial) luego de la recepción
exitosa de un archivo.
El grupo inactivo de intereses especiales del Internet
Interplanetario de la Sociedad de
Internet ha trabajado en definir protocolos y estándares
que harían el IPN posible. El grupo de
Investigación de la red tolerante a demoras (DTNRG) es el
investigador primario la cual tiene varias arenas mayores de
aplicación además del Internet Interplanetario,
incluyendo comunicaciones tácticas enfatizadas, redes de
sensores,
recuperación de desastres, ambientes hostiles, y puestos
avanzados remotos. Como un ejemplo de puestos avanzados remotos
imagínese una aldea ártica aislada o una isla
lejana, con electricidad, y
una o más computadoras pero ninguna conectividad de
comunicación. Con la adición de un punto
inalámbrico sencillo en la aldea, más dispositivos
DTN-Habilitados, digamos, trineos de perro o barcos pesqueros, un
residente podría verificar su correo electrónico o
hacer clic en un artículo de Wikipedia, y tener sus
pedidos enviados a la ubicación con red más cercana
y en la visita del próximo trineo o barco, obtener sus
pedidos.
Hasta el 2005, la NASA ha cancelado los planes para
lanzar el Orbitador de Telecomunicaciones de Marte en septiembre
2009; con la meta de dar soporte a misiones futuras secundarias a
Marte y podrían funcionar como un primer concentrador
definitivo posible de Internet alrededor de otro cuerpo
planetario.
El objetivo del proyecto Interplanetario del
Internet es de definir la arquitectura y hacer un protocolo
necesario para permitir interoperación del residente
del Internet en la Tierra con otro residente remotamente
localizado de internet en otros planetas o la nave espacial
en tránsito. Mientras el Internet de la Tierra es
básicamente una "la red de redes conectadas", el
Internet Interplanetario puede por lo tanto ser pensado
como una "red de Internet desconectados". Trabajar en este
ambiente requerirá nuevas técnicas para ser
desarrolladas.Muchos elementos de la serie terrestre actual del
Internet de protocolos son esperados ser útil en
ambientes de espacio de bajo-demora, las operaciones tal
como locales en y alrededor de otros planetas o dentro de
volar libre vehículos espaciales. Sin embargo, las
demoras de la velocidad de la luz, conectividad, y
característica de error-valora intermitente y
unidireccional de comunicación de espacio
interplanetario hacen su uso irrealizable a través
de distancias de espacio interplanetario.Es anticipado también que la arquitectura y
protocolos desarrollados por este proyecto serán
útiles en muchos ambientes terrestres en los que una
dependencia en el tiempo real comunicación
recíproca es o irrealizable o
desaconsejable.El IPNSIG (Interplanet Special Interest Group)
existe para permitir la participación pública
en la evolución del Internet Interplanetario.
La
investigación técnica en cómo el
Internet de la Tierra puede ser extendido en el espacio
interplanetario ha estado en camino durante varios
años como parte de un cuerpo internacional de la
estandarización de comunicaciones conocido como el
Comité Consultivo para Sistemas de Datos de Espacio
(CCSDS).El comité del IPNSIG es formado por:
Stephen Farrell, Leigh Torgerson, Scott Burleigh, Eric
Travis and Bob Durst, Vint Cerf, Adrian Hooke, entre
otros.La organización de CCSDS es concernida
principalmente con la estandarización de
comunicaciones para satélites científicos,
con un foco primario en las necesidades de misiones de
cerca de-término. Para extender este horizonte fuera
varias décadas, y para comenzar a implicar la
investigación terrestre del Internet y la ingeniería las comunidades, un
Estudio Interplanetario especial del Internet fue propuesto
y fue financiado subsiguientemente en los Estados
Unidos.El Estudio Interplanetario del Internet es
financiado por DARPA (La Agencia de Investigación de
Proyectos Avanzados de Defensa), y actualmente consiste en
un equipo del centro de investigadores del Laboratorio de
Propulsión por Reacción de la NASA, la
Corporación de MITRA, ESPARTA, la Ciencia Global
& la Tecnología e investigadores consultores del
USC/ISI, UCLA y CalTech. La meta primaria del estudio es de
investigar protocolos cuán terrestres de internet y
las técnicas pueden ser extendidas y/o utilizado a
como-yo en la exploración de espacio
interplanetario. El equipo del estudio tiene también
fundado el IPNSIG y ha formado el centro de un IPNRG bajo
el patrocinio del grupo de trabajo
de Investigación de Internet.La meta primaria del equipo del Estudio de NASA
IPN será de actuar como el enlace entre las
comunidades de satélite y espacio y las comunidades
de ISOC/IRTF. El equipo del Estudio de NASA IPN
ayudará con requisitos y ayuda con la
comprensión del ambiente de espacio interplanetario
y misiones, mientras la investigación primaria en
protocolos nuevos o modificados será realizada por
el IRTF. Además, el Equipo del Estudio de NASA
actuará como también el enlace con el
Comité Consultivo para Sistemas de Datos de
Espacio.El Equipo del Estudio de NASA permitirá
también las oportunidades simuladas y verdaderas a
probar protocolos y el uso de técnicas de Internet
en el ambiente del espacio.- SOBRE EL PROYECTO
El DTNRG es un grupo de investigación que
forma parte del IRTF (Grupo de Tareas de
Investigación sobre Internet) el cual pertenece al
grupo Internet Society. Este grupo tiene a cargo la
arquitectura y los protocolos que permitirán la
comunicación e interoperabilidad en ambientes donde
la conectividad continua end-to-end no puede ser
asumida. Dicho de otra forma, están encargados de
interconectar redes altamente heterogéneas aunque
puede que nunca llegase a existir una conectividad
end-to-end. Algunos ejemplos de estos ambientes
incluyen naves espaciales, militares y tácticas,
algunas formas de responder a desastres, bajo el agua
y algunas formas de redes ad-hoc. También
puede incluir conectividad de internet en lugares donde el
desempeño puede ser afectado por
lugares inhóspitos e inalcanzables de la
tierra.Este grupo investiga aspectos de redes tolerantes
al retraso en muchas formas como publicaciones
académicas, desarrollo y especificaciones de
estándares, varias listas de correo activas para
intercambiar conocimiento y desarrollo de código. - EL GRUPO DE INVESTIGACION DE LA RED TOLERANTE A
RETRASOS (DTNRG)- Estructura de capas
- ARQUITECTURA DE LA RED TOLERANTE A RETRASOS (RFC
4838)
Los mensajes que enviamos a través de Internet
son sometidos a distintas capas de protocolos. Las distintas
capas procesan el mensaje recibido de la capa anterior de tal
manera que se crea una jerarquía en los mensajes donde el
mensaje en cada eslabón es interpretado por el actor
correspondiente.
En la Internet, normalmente nos encontramos con las
siguientes capas:
- Capa Aplicación:
Genera y consume datos de usuario.
- Capa Transporte:
Segmentación de los mensajes de origen a destino.
reensamblado, control errores, control de flujo.
- Capa de Red:
Direccionamiento de los mensajes. Con
fragmentación y reensamblado si se requiere.
- Capa de Enlace:
Transmisión enlace a enlace de las
piezas.
- Capa Física:
Transmisión de flujo de bits de enlace a
enlace.
- Por qué una Red Tolerante a Retrasos
(DTN, Delay Tolerant Network)?
Las redes "interplanetarias" se caracterizan
por:
- Conexiones intermitentes:
No siempre los nodos van a estar visibles los unos con
los otros. Los objetos en el espacio están en movimiento,
tanto los emisores como los receptores, así mismo como
otros objetos o planetas. Cualquier elemento se podría
poner en la trayectoria de la comunicación.
Además, debido a las limitaciones de
energía, no todos los nodos están accesibles
permanentemente por lo que su conexión con el siguiente
nodo se programa previamente o bien, si este segundo nodo
está permanentemente conectado, enviará datos en la
medida en que pueda enviarlos.
Estos problemas de intermitencia en la disponibilidad
hacen que se implementen mecanismos de almacenamiento de los
mensajes hasta que puedan ser enviados, ya que la naturaleza de
las comunicaciones hace que no se deban descartar mensajes con la
relativa facilidad con la que se hace en las redes terrestres sin
requerimientos especiales
- Retrasos largos o variables:
Las comunicaciones pueden tener un destino muy lejano al
origen. Incluso, un origen y un destino determinado no se
encuentran siempre a la misma distancia uno de otro.
- Flujo de datos asimétrico:
Dado que el envío de datos en largas distancias,
con limitación de energía y con varias otras
limitaciones es muy costoso, se limita al máximo los datos
enviados. Generalmente suelen ser, de momento, envío de
instrucciones hacia un extremo y envío de
información masiva hacia el otro (por ejemplo los
‘Rover’ que están explorando
Marte).
- Alta tasa de fallos:
Debido a las limitaciones técnicas, de potencia, a
largas distancias, alto número de interferencias
electromagnéticas, la tasa de fallos en las comunicaciones
es elevada. Así, se implementan mecanismos de
detección y corrección de errores.
- Almacenamiento y reenvío
El almacenamiento y reenvío se establece como
sistema para evitar una serie de problemas inherentes a la
naturaleza de este tipo de comunicaciones, a saber:
- Retrasos largos o variables:
Los nodos consecutivos en el camino pueden no estar
visibles entre ellos durante largos periodos de
tiempo.
- Tráfico asimétrico:
Habrá nodos que puedan transmitir más
rápidamente que otros. Así, se necesitarán
mecanismos para poder almacenar los mensajes para su posterior
envío de tal modo que no se produzca ninguna
pérdida de datos.
- Alta tasa de fallos:
En el medio en el que se transmite el mensaje
así como las largas distancias que tienen que atravesar,
existe una alta probabilidad
de que se produzcan fallos de envío de los mensajes.
Cuando se producen fallos, al tratarse de información
importante, se requiere el envío de la
información. De este modo, cuando un nodo envía
un mensaje, no lo puede eliminar en el acto pues puede que se
produzcan errores en la recepción, se debería
esperar a una confirmación de llegada por parte del nodo
destino.
- Conexiones
Las conexiones entre los nodos de una red tolerante a
retrasos pueden ser:
- Casuales:
Cuando un nodo detecta otro nodo con el cual se quiere
comunicar, se comunica. Este tipo de conexión es posible
siempre que el nodo emisor sepa que el receptor está
activo y es capaz de hacer una recepción de los
mensajes. El lado positivo de este tipo de transmisión
es que el emisor puede enviar cuando cree oportuno puesto que
confía en la disponibilidad del receptor. Esto hace que
el emisor se active únicamente cuando le convenga
transmitir una información. Cuando un nodo se encuentra
con otro que quiere hablar, hablan.
- Predichas:
Los nodos, al tener una disponibilidad presumiblemente
intermitente, no pueden emitir en cualquier momento por la
posible indisponibilidad del receptor. Los nodos se encuentran
en movimiento, orbitando o sobre la superficie de un planeta.
Si conocemos los ciclos de estos movimientos, se puede calcular
la disponibilidad de estos nodos de modo que sólo se
activen cuando predigan la disponibilidad de un nodo así
como la probabilidad de transmisión de
éste.
- Programadas:
Básicamente como el caso anterior, con la
diferencia es que no se basan en predicción. En este
caso se sincronizan los envíos y recepción de los
datos entre los nodos.
- Bajo demanda:
En este caso en concreto,
ambos nodos están operativos para el envío y la
recepción de los datos. Sin embargo, se establece la
activación de un nodo por parte de otro del sistema de
transmisión de mensajes. Entonces, en este caso las
transmisiones se producen bajo demanda de algún nodo
interesado.
Las redes DTN implementan una arquitectura
de conmutación de mensajes con almacenamiento y
reenvío. Esto, lo consiguen introducción una nueva capa a la
arquitectura de capas que ya conocemos. Introducen un
nuevo protocolo, el "bundle layer" o capa de mensaje
entre la capa de aplicación y la capa de
transporte.El objetivo principal de esta nueva capa
es el de unir distintas redes de naturaleza
heterogénea entre sí. De esta manera hace
que las capas inferiores a esta nueva capa, que usan
protocolos específicos dependiendo de donde se
encuentren esas redes, no sean un impedimento para la
comunicación de las aplicaciones, situadas en la
capa superior del nuevo protocolo introducido. Lo que
hace es dotar a las comunicaciones entre distintas redes
de independencia de las capas
inferiores.El nuevo protocolo introducido es
común para todas las redes que forman las redes
DTN. Esta capa, es la que almacena y reenvía los
mensajes entre los distintos nodos de las redes. Por el
contrario, los protocolos de transporte, de red, de
enlace y físico, son independientes de una
región a otra. Esto es debido, como comentado
anteriormente a las distintas características del
entorno donde se establecen estas
redes.Los mensajes por lo tanto
consistirán en (1) los datos de la
aplicación de usuario, (2) la información
de control para aplicación de destino
proporcionada por la aplicación de origen y (3)
una cabecera, propia de este nuevo protocolo e insertada
por el mismo.La nueva capa es capaz de fragmentar los
mensajes, igual que como actúa IP. En este caso,
será el mismo protocolo en encargado de
reensamblarlos cuando sea necesario.- Bundle layer
Debido a la naturaleza de las
comunicaciones, las largas distancias, los retrasos
introducidos, la alta tasa de errores, hacen de la
interactividad de la que disponemos con el protocolo TCP,
de un lujo del que es muy caro disponer en las
comunicaciones en redes DTN. De esta manera, estos
viajes
de ida y vuelta entre los nodos inicial y final
tardarían mucho tiempo. Así, con el nuevo
protocolo introducido, las comunicaciones se harán
con los mínimos viajes posibles de ida y vuelta.
Así, los "acknowledgements" del receptor
serán opcionales dependiendo de la QoS elegida. Y
esto, por supuesto, depende del tipo de conexión
posible entre los nodos. - Interactividad
- Nodos
En las redes DTN existen tres tipos de nodos
diferentes. Los nodos pueden actuar como:
- Hosts:
Los host envían o reciben "bundles", pero
no los reenvían. No actúan como nodos
intermedios. Son emisores o receptores.
- Routers:
Reenvían "bundles" en una misma
región DTN. Requieren almacenamiento persistente para
poder hacer transmisiones bajo custodia y poder almacenar los
mensajes hasta que el siguiente nodo en la ruta esté
disponible.
- Gateways:
Reenvían "bundles" entre distintas
regiones DTN. Opcionalmente pueden actuar como host. Los
Gateways deben soportar también almacenamiento
persistente para envíos de tipo "store & forward"
(almacenamiento-envío). Los "Gateways", a su vez, son
capaces de de hacer conversiones en las capas más bajas
de protocolo entre las regiones entre las que se encuentra.
Así, hará compatible los mensajes entre distintas
regiones DTN que no tienen porque ser
homogéneas.
Las DTNs deben soportar conexiones entre
dos nodos. La capacidad de conexión nodo a nodo se
debe implementar en la "bundle layer". La "bundle layer"
soportará entonces las retransmisiones nodo a nodo
en términos de transferencias bajo
custodia.Las transferencias bajo custodia son
concertadas entre las "bundle layers" de los sucesivos
nodos cuando la aplicación inicia la
conexión. Cuando un nodo quiere enviar, la "bundle
layer" de este nodo comprueba si el siguiente nodo en la
ruta soporta transferencias bajo custodia. De ser
así, envía el mensaje y, cuando recibe una
confirmación de que se ha entregado correctamente
el mensaje, el nodo emisor borra entonces su copia del
mensaje. Es entonces quien ha recibido el mensaje el
responsable de enviarlo al siguiente nodo. Operando de la
misma forma, el mensaje llegará al nodo
destino.Las transferencias bajo custodia no
aseguran un servicio garantizado punto a punto. Los
mensajes contienen TTLs que deben cumplir. Debido a los
grandes retrasos que se producen, cuando se forman los
mensajes y se les asigna TTL, se tienen en cuenta las
distintas situaciones por las que podría pasar el
mensaje.- Transferencias bajo
custodiaEn este tipo de redes todos los nodos los
nodos implementan la "bundle layer" y la capa de
transporte.Los gateways en DTN pueden soportar
distintos conjuntos de protocolos de transporte,
red, enlace y físico, tal y como se muestra en la figura con el fin de poder
enviar mensajes entre regiones con distintas
configuraciones.La principal diferencia en redes DTN con
respecto a las redes tradicionales que conocemos con
respecto al "routing" reside en los Gateways. Los
Gateways son capaces de compatibilizar mensajes
pertenecientes a distintas regiones, mediante la
transformación de los mensajes accediendo a los
protocolos por debajo de la capa de mensaje (propios de
cada región) como podemos ver en la figura
anterior. - Routing DTN
Una DTN es una red de redes. Cada una de
las redes conforma una región con unas
características de comunicación
homogéneas.Las regiones van a tener su propio
identificador. Estos identificadores van a ser
comúnmente conocidos por los nodos de la red y, el
identificador de cada nodo estará formado por el
identificador propio de la red junto con otro
identificador que lo diferenciará dentro de la
propia red. Los Gateways serán los únicos
dispositivos que poseerán dos direcciones ya que
forman parte de dos o más regiones
simultáneamente. - Regiones
En redes DTN aparte de autenticar a los
usuarios y la integridad de los mensajes, se autentica
también los nodos por los que va atravesando el
mensaje desde un origen hasta llegar a un destino. De
esta manera se evita el tráfico ilegal y se
conservan recursos.En las redes DTN tanto los mensajes como
los nodos tienen su propio par de claves (pública
y privada) así como su propio certificado. En los
certificados se indica el tipo de calidad de servicio requerida para los
envíos de los mensajes.Cuando un emisor quiere enviar un mensaje,
lo firman con su clave privada. Los receptores, usando la
clave pública pueden verificar la autenticidad del
mensaje, la integridad y la clase
de servicio requerida. - Seguridad
- Ejemplo de
comunicación
Por ejemplo, vamos a ver cómo
sería una comunicación desde la Tierra hasta
Marte. Iremos viendo cómo se va transmitiendo el mensaje
de nodo a nodo.
Las direcciones de origen y destino van a ser
las siguientes:
{earth.sol.int,
src.jpl.nasa.gov:6769} y {mars.sol.int, dst.jpl.nasa.gov:6769}
respectivamente.
Cuando se crea el mensaje, aparte de la dirección de origen y destino,
también se especifica la firma, la clase de servicio y
los datos de usuario.
Primero creamos el mensaje: la bundle layer
comprueba la firma de la fuente de los datos, crea un mensaje y
añade la cabecera y su firma. Seguidamente almacena el
mensaje hasta que pueda ser enviado.
Posteriormente a la creación del mensaje,
nos disponemos a la transmisión del mismo. Es el mismo
protocolo de mensaje quien consulta su tabla de rutas y
determina que el Gateway de la Tierra se encuentra en la
dirección {earth.sol.int, ipngw1.jpl.nasa.gov:6769}.
Este es el siguiente nodo en la trayectoria del paquete hacia
el destino. También averigua que el protocolo de
transporte que debe usar es TCP.
Es el momento de transmitir el
mensaje.
El emisor envía una copia del mensaje al
Gateway de la Tierra usando TCP como protocolo de transporte.
Entonces el emisor queda a la espera de recibir la
aceptación por parte del Gateway del mensaje. El mensaje
se transmite bajo custodia.
Al recibir el Gateway de la tierra el mensaje,
cierra la conexión TCP establecida. Esto es así
ya que el protocolo de transporte utilizado en la
comunicación hacia este nodo ha sido TCP. El Gateway
verifica la firma del emisor así como la clase de
servicio establecida. Cuando se verifica la validez del
mensaje, el protocolo de mensaje cambia la firma. Aun
así, conserva la firma del creador del mensaje. Y ahora
almacena el mensaje en sus dispositivos de
almacenamiento.
El Gateway de la Tierra, consulta la tabla de
rutas y determina la dirección siguiente: {mars.sol.int,
ipngw2.jpl.nasa.mars.org:6769}. Consulta también cuando
este nodo estará disponible para enviarle el mensaje
sólo cuando el receptor sea capaz de recibirlo. Entonces
confirma el TTL y si puede enviar el mensaje, y entonces
envía un mensaje al nodo de quien recibió el
mensaje a transmitir comunicándole que ya puede borrar
su copia del mensaje, que ya se encarga él de
enviarlo.
Cuando llegue la hora establecida en la cual el
receptor vaya a estar disponible, se envía el
mensaje.
Cuando el mensaje llega al Gateway de Marte,
aparte de hacer los pasos descritos anteriormente, descubre que
el protocolo de transporte utilizado en la nueva región
es TCP. De manera que el Gateway prepara el mensaje para una
conexión TCP con el siguiente nodo, que ya será
el destino. Y finalmente es enviado al
destino.
El nodo destino recibe el mensaje vía una
conexión TCP. El destino entonces cierra la
conexión y comprueba la firma del nodo anterior.
Almacena el mensaje, acepta la custodia e informa al Gateway de
que ya puede borrar su copia.
Para finalizar, la capa de mensaje invoca a la
aplicación por encima de él a quien va destinado
el mensaje. Dependiendo de la aplicación, opcionalmente
puede generar "acknowledgements" dirigidos al emisor del
mensaje para confirmar la recepción.
Los protocolos existentes hasta a fecha y
que se comparan a gran escala
con TCP/IP respectivamente son:- Bundle Protocol (RFC
5050)
- Bundle Protocol (RFC
- ESPECIFICACIÓN DE PROTOCOLOS
ACTUALES.
Intercambio de mensajes, puede ser una buena
traducción de "bundles" según los
investigadores del DTNRG. Acá queremos dar una breve
especificación tomada de la Referencia 5050 de la
IETF.
Las DTN son utilizadas en ambientes realmente
cambiantes con una conectividad intermitente, largos y/o
variables retrasos y una tasa alta de errores en la
transferencia de bits. Para proveer servicios en las DTN, el BP
se establece sobre la capa de aplicación para formar una
red de almacenamiento y envío con el fin de que los
datos lleguen al otro punto de conexión. Algunas de las
capacidades de este protocolo son:
- Retransmisión basada en
custodia. - Capacidad de sobrellevar conectividad
intermitente. - Capacidad de conexiones oportunistas,
predictadas y planeadas (con el fin de prepara una
conexión continua).
Este es un protocolo experimental, producido en
el DTNRG y alimentado por consenso de muchos contribuyentes al
grupo.
Las características aún más
específicas de este protocolo se encuentran en el Anexo
1.
- Licklider Transmission Protocol (LTP)
(RFC en proceso)
Es un protocolo de retransmisión para una
comunicación segura entre dos puntos en un ambiente de
tolerancia a
retrasos. Nombrado en honor a Joseph Carl Robnett Licklider,
científico estadounidense primero en articular la idea
de una red de computadoras intergaláctica en sus inicios
en 1962, Vint Cerf tuvo la iniciativa de este nombre. Por otro
lado, también se la designado como un protocolo de
convergencia para los pilares interplanetarios de una red
tolerante a retrasos "end-to-end". Este protocolo se puede
compara para su compresión con el protocolo
TCP.
El funcionamiento de este protocolo se
fundamente en la transmisión de un bloque de datos
dividido en segmentos. Cuando estos segmentos son transmitimos,
algunos son señalados como "checkpoints". Cuando un
"checkpoint" es recibido, el receptor retorna un reporte de
recepción acumulativa. Si los puntos de revisión
no son explícitos los datos se vuelven a reenviar por
medio de un "timer" que periódicamente revisa la
recepción de puntos de
revisión.
Dentro de las habilidades de este protocolo se
destacan:
Tolera la interrupción de los enlaces sin
pérdida de datos.
Designado para imponer un mínimo recargo
en enlaces de baja capacidad y/o enlaces
asimétricos.
Los segmentos pueden ser expandidos (seguridad
de código).
Retransmisión acelerada: múltiples
revisión de estado por bloque
transmitido.
Certeza parcial: los puntos de revisión y
retransmisión se pueden habilitar solamente por las
primeros N bytes de un bloque.
Para las especificaciones mas detallas del
protocolo favor ver el Anexo 2.
El proyecto original conocido como
Interplanet se ha expandido y crecido sustancialmente y se
ha re-fundamentado en una arquitectura más global y
con énfasis en las DTN, actualmente en el sitio web
del DTNRG (http://www.dtnrg.org) existen accesos a
artículos e investigaciones en los cuales se discute
la situación pasada y actual de las aplicaciones de
las DTN y los problemas que presentan en las redes
terrestres. Por otro lado, es importante resaltar que la
arquitectura de las DTN y el Bundle Protocol están
documentados como estándares de referencia del
IET.Actualmente, está iniciando lo que
parece ser una actividad muy seria para implementar esta
tecnología antes mencionada en comunicaciones de
vuelos espaciales, tal y como lo imaginaron cuando el
proyecto empezó en 1998.En adición a esto, también se
tiene proyectado la instalación de esta
tecnología a bordo de la Estación Espacial
Internacional (ISS), está pendiente aún una
discusión más profunda. También se
está trabajando en un plan pruebas en Octubre para
la nave "Deep Impact", cuyos datos no se sabrán
hasta dentro de unos meses.Actualmente, el LTP está en proceso
de inscripción como una norma del RFC y el protocolo
se encuentra en perfeccionamiento y Steven Farrel
está trabajando en su
implementación.- ÚLTIMOS AVANCES
Interplanet es un proyecto con el cual se
verá beneficiada toda la humanidad, debido que se
podrán estudiar datos enviados desde Marte y poder
validar aún más la posibilidad de que ese
planeta sea habitable algún
día.La investigación científica se
verá fortalecida, pues la facilidad de analizar
datos más confiables y de una manera más
rápida, imágenes nítidas y
confiables.El desarrollo de este proyecto y
específicamente de los protocolos, modificará
ciertos estándares conocidos como el modelo
OSI, pues ha aparecido otra capa que deberá ser
agregada a los estándares.La posibilidad de enviar y recibir datos
entre redes tolerantes a retrasos, ayudará a que la
conectividad incluso aquí en la tierra se vea
sustancialmente mejorado, pues ya no importará el
medio y los retrasos.Es un proyecto que todavía le falta
mucho por terminar, por lo que está aún
pendiente la culminación de los protocolos BP y LTP,
pues están en un periodo
experimental.La importancia fundamental radica en que los
datos lleguen legibles y completos, sin que estos sean
afectados, por ambientes completamente
heterogéneos.Este proyecto desprende mucha documentación que puede ser
aprovechada para artículos, desarrollo y proyectos
que integren los protocolos antes
mencionados.Los países podrán tomar
ventaja de esta tecnología al realizar alianzas de
investigación, tanto académicas como
empresariales. - CONCLUSIONES Y
REFLEXIONES - Referencias
Estudio de la Interplanet.
En: .
Visitado el: 23/3/2008
Internet Interplanetario. En:
http://en.wikipedia.org/wiki/Interplanetary_Internet
Visitado el: 23/3/2008
NASA. En:
http://es.wikipedia.org/wiki/NASA Visitado
el: 23/3/2008
Gobierno del Internet. En:
http://www.wgig.org/docs/SociedadNorte-CommentApril.doc
Visitado el: 23/3/2008
Internet Research Task Force Research
Group. (DTNRG). En: http://www.dtnrg.org.Visitado
el: 26/3/2008
DTN Architecture Document: En:
http://tools.ietf.org/group/irtf/draft-irtf-dtnrg-arch-08.txt.
Visitado el: 26/3/2008
Delay-Tolerant Networking: An Approach to
Interplanetary Internet: Scott Burleigh, Adrian Hooke, and
Leigh Torgerson, Jet Propulsion Laboratory
En: http://www.dtnrg.org/papers/ieee-comsoc-article.pdf.
Visitado el: 26/3/2008
InterPlaNetary Internet: state-of-the-art
and research challenges: Ian F. Akyildiz, Chao Chen, Jian Fang,
Weilian Su. En: http://www.ece.gatech.edu/research/labs/bwn/space.pdf.
Visitado el: 26/3/2008
Technologies for the InterPlanetary
Network. Dr. James R. Lesh Chief Technologist &
Manager, Technology Office
Interplanetary Network and Information Systems Directorate Jet
Propulsion Laboratory California Institute of
Technology
En:
http://www.ipnsig.org/reports/Lesh-IPN-Technologies.pdf.
Visitado el: 26/3/2008.
TOWARDS AN INTERPLANETARY INTERNET: A
PROPOSED STRATEGY FOR STANDARDIZATION. Adrian J. Hooke Jet
Propulsion Laboratory, California Institute of Technology
Pasadena, California, USA. En: http://www.ipnsig.org/reports/SpaceOps-Oct-2002.pdf.
Visitado el: 28/3/2008
Delay-Tolerant Networks (DTNs): Forrest
Warthman Warthman Associates
En: http://ipnsig.org/reports/DTN_Tutorial11.pdf.
Visitado el: 28/3/2008
Borrador de la especificación RFC del
IPN. En: http://ipnsig.org/reports/draft-irtf-ipnrg-arch-01.txt.
Visitado el: 28/3/2008
Agradecimiento especial
para:
Scott Burleigh del Laboratorio de
Propulsión a Chorro de la NASA.
Steven Farrell del Grupo de Investigación
de la Red Interplanetaria
Special thanks
to:
Scott Burleigh of the Jet Propulsion Lab (JPL) –
NASA.
Steven Farrell of the IPNSIG (Interplanet
Special Interest Group).
Autor:
Edgar A. Vega
Briceño
Ingeniero en Informática, Universidad Nacional de
Costa Rica
Sobre el autor de este
trabajo:
Edgar A. Vega Briceño, Ingeniero en
Informática de la Universidad Nacional de Costa Rica y
actualmente ostentando el grado de Máster en Administración de las Tecnologías
de Información y Comunicación en la misma
Universidad. Profesor
universitario e investigador en temas relacionados con
TI.
Página anterior | Volver al principio del trabajo | Página siguiente |