Monografias.com > Uncategorized
Descargar Imprimir Comentar Ver trabajos relacionados

Red interplanetaria Interplanet (IPN) (página 2)



Partes: 1, 2

Según todo esto la posibilidad de que la ciencia
ficción toque a nuestros hogares, está a la vuelta
de la esquina la IPN es el camino a que la primera red con el planeta rojo se
haga realidad o que el láser de
transmisión de señales
a alta velocidad se
ponga en uso así como varias antenas de
comunicación sean instaladas en planetas,
satélites
y asteroides y con esto estar en contacto permanente con la tierra, el
resultado de tecnología y ciencia
ficción al servicio de
los seres humanos y de soñadores que como nosotros lo
pueden hacer realidad.

    1. Una red de ordenadores es un conjunto de equipos
      que pueden almacenar y procesar datos
      electrónicos, interconectados de forma que sus
      usuarios pueden almacenar, recuperar y compartir información con los demás.
      Las máquinas conectadas pueden ser,
      microordenadores, miniordenadores, grandes ordenadores,
      terminales, impresoras, dispositivos de almacenamiento,
      cámaras, entre otros.

      En una red
      de ordenadores se puede almacenar cualquier
      información, incluyendo textos, imágenes, mensajes de voz e
      imágenes visuales como por ejemplo fotos
      y vídeos.

    2. Redes de computadoras

      El Protocolo de red o también
      Protocolo de Comunicación es el conjunto de reglas
      que especifican el intercambio de datos u órdenes
      durante la
      comunicación entre las entidades que forman
      parte de una red.

    3. Protocolo de Redes

      Internet es un método de interconexión
      descentralizada de redes de
      computadoras implementado en un conjunto de protocolos denominado TCP/IP
      y garantiza que redes
      físicas heterogéneas funcionen como una red
      lógica única, de alcance
      mundial. Sus orígenes se remontan a 1969, cuando
      se estableció la primera conexión de
      computadoras, conocida como ARPANET, entre
      tres universidades en California y una en Utah, EE.
      UU.

      Al contrario de lo que se piensa
      comúnmente, Internet
      no es sinónimo de World Wide
      Web (WWW, o "la Web").
      Ésta es parte de Internet, siendo uno de los
      muchos servicios ofertados en la red Internet. La
      Web es un sistema de
      información mucho más reciente,
      desarrollado inicialmente por Tim Berners Lee en 1989. El
      WWW utiliza Internet como medio de
      transmisión.

      Algunos de los servicios disponibles en
      Internet, aparte de la Web, su versión
      evolucionada Web 2.0 y los sistemas
      operativos web (WebOS, EyeOS), son el acceso remoto a
      otras máquinas (SSH y telnet), la transferencia de archivos (FTP),
      el correo
      electrónico (SMTP y POP), los boletines
      electrónicos (news o grupos
      de noticias), las conversaciones en
      línea (IRC y chats), la mensajería
      instantánea, la compartición de archivos
      (P2P, P2M, Descarga Directa), la
      radio a la
      carta (Podcast), el visionado de video
      a la carta
      (P2PTV, Miro, Joost, Videocast) y los juegos
      en línea.

    4. Internet
    5. Internet: un poco de historia.
  1. MARCO
    TEÓRICO

La historia de
Internet comienza realmente en el año 1962. Las
pocas computadoras de esa época tenían memorias de
núcleos magnéticos con capacidad para almacenar
unos pocos miles de caracteres. Los programadores, sin embargo
las componían para hacer rendir con enorme ingenio a
esos pocos caracteres, por ejemplo, procesando modelos de
simulación y de programación
lineal en una computadora
tal como la IBM 1401 que fue pensada para ser simplemente una
impresora y
que justamente se caracterizaba por tener originalmente 1400
posiciones de memoria.
 El mundo de las comunicaciones estaba en ese entonces en manos
de IT&T. Existía en esa época un proyecto
estratégico del DOD, Department of Defense, Departamento
de Defensa de los Estados Unidos
denominado ARPA por Advanced Research Projects Agency, Agencia
para Proyectos de
Investigación Avanzada. Clasificado a su vez como
proyecto de alto riesgo y de
incalculables beneficios, sienta las bases de la red ARPA o
ARPANET, la cual mucho más tarde se convertiría
en Internet.

En 1992, 30 años más
tarde: 

  • Internet tenía un millón de
    computadoras conectadas.
  • ARPANET ya no existía.
  • Los computadores eran más rápidos en
    nueve órdenes de magnitud-
  • Los anchos de banda eran 20 millones más
    grandes.
      1. El Programa espacial soviético
        lanzó el primer satélite artificial del
        mundo (Sputnik 1) el 4 de octubre de 1957. El
        Congreso de los Estados Unidos lo percibió
        como una amenaza a la seguridad y el Presidente Eisenhower y
        sus consejeros, tras varios meses de debate, tomaron el acuerdo de fundar
        una nueva agencia federal que dirigiera toda la
        actividad espacial no militar.

        El 29 de julio de 1958 Eisenhower
        firmó el Acta que funda la NASA (Administración Nacional de
        Aeronáutica y del Espacio, en inglés: National Aeronautics
        and Space Administration) la cual empezó a
        funcionar el 1 de octubre de 1958 con cuatro
        laboratorios y unos 8.000 empleados.

        La intención de los primeros
        programas era poner una nave tripulada en
        órbita y ello se realizó bajo la
        presión de la competencia entre los EE.UU. y la URSS
        en la denominada Carrera espacial que se produjo
        durante la Guerra
        Fría.

        El 25 de mayo de 1961 el Presidente John F.
        Kennedy anunció que Estados Unidos
        debía comprometerse a "aterrizar a un hombre en la Luna y devolverlo sano y
        salvo a la Tierra antes del final de la
        década", para lo cual se creó el
        Programa Apollo. El Programa Gemini fue concebido
        para probar las técnicas necesarias para el
        Programa Apollo, cuyas misiones eran mucho más
        complejas.

        Comenzó con el Gemini 3 el 21 de
        marzo de 1965 y acabó con el Gemini 12 el 11
        de noviembre de 1966. Edward White, quien
        posteriormente murió en el accidente del
        Apollo 1, hizo con el Gemini 4 el 3 de junio de 1965
        la primera caminata espacial de un estadounidense. El
        15 de diciembre de 1965 los Gemini 6 y 7, tripulados
        por dos astronautas cada uno, hicieron su primera
        cita espacial aproximando las naves hasta 1,8 m.
        El vuelo del Gemini 7 tuvo una duración de dos
        semanas, tiempo que se estimó necesario
        para las misiones Apollo. El 16 de marzo de 1966 la
        nave Gemini 8 tripulada por David Scott y Neil
        Armstrong, que luego sería el primer hombre en
        pisar la Luna, atracaron su nave al cohete Agena 8
        preparando la maniobra de atraque entre el
        módulo lunar y la nave Apollo.

        Durante los ocho años de misiones
        preliminares la NASA tuvo la primera pérdida
        de astronautas. El Apolo 1 se incendió en la
        rampa de lanzamiento durante un
        ensayo y sus tres astronautas murieron. El
        Programa Apolo logró su meta con el Apolo 11
        que aterrizó con Neil Armstrong y Edwin E.
        Aldrin en la superficie de la Luna el 20 de julio de
        1969 y los devolvió a la Tierra el 24 de
        julio. Las primeras palabras de Armstrong al poner el
        pie sobre la Luna fueron: «Éste es un
        pequeño paso para un hombre, pero un gran
        salto para la humanidad».

        Diez hombres más formarían la
        lista de astronautas en pisar la Luna cuando
        finalizó el programa anticipadamente con el
        Apolo 17, en diciembre de 1972, cuyo resultado fue
        además de la recogida de muestras de regolito,
        la instalación de equipos de estudio
        superficiales ALSEP que aún continúan
        enviando información.

        La NASA había ganado la carrera
        espacial y, en algún sentido, esto la
        dejó sin objetivos al disminuir la atención pública capaz
        de garantizar los grandes presupuestos del Congreso. Ni la casi
        trágica misión del Apolo 13, donde la
        explosión de un tanque de oxígeno casi costó la
        vida a los tres astronautas y les obligó a
        renunciar a pisar la Luna, pudo volver a atraer la
        atención. Las misiones posteriores al Apolo 17
        (estaban planificadas varias misiones más,
        hasta el Apolo 20) fueron suspendidas. Los recortes
        del presupuesto, debidos en parte a la
        Guerra
        de Vietnam, provocaron el fin del programa. Los
        tres Saturno V no utilizados se usaron para el
        desarrollo del primer laboratorio estadounidense en
        órbita, el Skylab, y las ideas fueron en la
        línea de desarrollar un vehículo
        espacial reutilizable como el transbordador espacial.
        Poco conocido es el proyecto AAP (Apollo Applications
        Program), que debía ser el sustituto de las
        misiones Apolo, o el LASS, destinado a establecer una
        base habitada en la superficie del
        satélite.

        Aunque la inmensa mayoría del
        presupuesto de NASA se ha gastado en los vuelos
        tripulados, ha habido muchas misiones no tripuladas
        promovidas por la agencia espacial.

        En 1962 el Mariner 2 fue la primera nave
        espacial en hacer un sobrevuelo cercano a otro
        planeta, en este caso Venus. Los programas Ranger,
        Surveyor y Lunar Orbiter eran esenciales para evaluar
        las condiciones lunares antes de intentar el vuelo
        tripulado del programa Apolo. Posteriormente, las dos
        sondas Viking que aterrizaron en la superficie de
        Marte enviaron a la Tierra las primeras
        imágenes de la superficie del planeta.
        Quizá las misiones no tripuladas más
        impresionantes fueron los programas Pioneer 10,
        Pioneer 11, Voyager 1 y Voyager 2, misiones que
        visitaron Júpiter, Saturno, Urano y Neptuno y
        enviaron impresionantes imágenes en color de todos ellos y la
        mayoría de sus satélites.

        El Transbordador espacial se
        convirtió en el programa espacial favorito de
        la NASA a finales de los años setenta y los
        años ochenta. Planeado tanto los dos cohetes
        lanzadores y el transbordador como reutilizables, se
        construyeron cuatro transbordadores. El primero en
        ser lanzado fue el Columbia el 12 de abril de
        1981.

        Pero los vuelos del transbordador eran mucho
        más costosos de lo que inicialmente estaba
        proyectado y, después que el desastre del
        Transbordador Espacial Challenger en 1986
        resaltó los riesgos de los vuelos espaciales, el
        público recuperó el interés perdido en las misiones
        espaciales.

        No obstante, el transbordador se ha usado
        para poner en órbita proyectos de mucha importancia como el
        Telescopio Espacial Hubble (HST). El HST se
        creó con un presupuesto relativamente
        pequeño de 2.000 millones de dólares,
        pero ha continuado funcionando desde 1990 y ha
        maravillado a los científicos y al
        público. Algunas de las imágenes han
        sido legendarias, como las imágenes del
        denominado Campo Profundo del Hubble. El HST es un
        proyecto conjunto entre la ESA y la NASA, y su
        éxito ha ayudado en la mayor
        colaboración entre las agencias.

        En 1995 la cooperación
        ruso-estadounidense se lograría de nuevo
        cuando comenzaron las misiones de acoplamiento entre
        el Transbordador y la estación espacial Mir,
        (en ese momento la única estación
        espacial completa). Esta cooperación
        continúa al día de hoy entre Rusia y Estados Unidos, los dos socios
        más importantes en la construcción de la ISS. La
        fuerza de su cooperación en
        este proyecto fue más evidente cuando la NASA
        empezó confiando en los vehículos de
        lanzamiento rusos para mantener la ISS tras el
        desastre en 2003 del Columbia que mantendrá en
        tierra la flota de los transbordadores durante
        más de un año.

        Costando más de cien mil millones de
        dólares, ha sido a veces difícil para
        la NASA justificar el proyecto ISS. La población estadounidense ha
        sido históricamente difícil de
        impresionar con los detalles de experimentos científicos en el
        espacio. Además, no puede acomodar a tantos
        científicos como había sido planeado,
        sobre todo desde que el transbordador espacial
        está fuera de uso, hasta marzo de 2005,
        deteniendo la construcción de la ISS y
        limitando su tripulación a una de mantenimiento de dos
        personas.

        Durante la mayoría de los años
        1990 la NASA se enfrentó con una
        reducción de los presupuestos anuales por
        parte del Congreso. Para responder a este reto, el
        noveno administrador de la NASA, Daniel S.
        Goldin, inventó misiones baratas bajo el lema
        más rápido, más bueno,
        más barato que le permitió a la NASA
        que recortara los costos mientras se emprendían
        una ancha variedad de programas aerospaciales. Ese
        método fue criticado y llevó en 1999 a
        las pérdidas de las naves gemelas Climate
        Orbiter y Mars Polar Lander de la exploración
        de Marte.

        Probablemente la misión con
        más éxito entre el público en
        los últimos años (1997) ha sido la de
        la sonda Mars Pathfinder. Los periódicos de
        todo el mundo llevaron las imágenes del robot
        Sojourner, desplazándose y explorando la
        superficie de Marte. Desde 1997 la Mars Global
        Surveyor ha orbitado Marte con un éxito
        científico innegable. Desde 2001 el orbitador
        Mars Odyssey ha estado buscando evidencia de agua en el planeta rojo, en el pasado
        o en el presente, así como pruebas de actividad
        volcánica.

        En 2004 una misión
        científicamente más ambiciosa
        llevó a dos robots, Spirit y Opportunity, a
        analizar las rocas en busca de agua, por lo que
        aterrizaron en dos zonas de Marte diametralmente
        opuestas y parece que encontraron vestigios de un
        antiguo mar o lago salado.

        El 14 de enero de 2004, diez días
        después del aterrizaje de Spirit, el
        Presidente George W. Bush anunció el futuro de
        la exploración espacial. La humanidad
        volverá a la Luna en 2020 como paso previo a
        un viaje tripulado a Marte.

        El Transbordador espacial se retirará
        en 2010 y será reemplazado en 2014 por el Crew
        Exploration Vehicle, capaz de atracar en la ISS y
        dejar la órbita de la Tierra. El futuro del
        ISS es algo incierto, tras la explosión del
        Columbia el 1 de febrero de 2003, y el patrón
        de los vuelos del Transbordador. La
        construcción se completará, pero el
        futuro de las próximas misiones es
        incierto.

      2. La exploración espacial y los
        programas de la NASA

        La NASA planea establecer algo que se le
        llama "El Internet Interplanetario" con el
        lanzamiento del Orbitador de Telecomunicaciones de
        Marte (OTM) en el año 2009. El dispositivo
        espacial tendrá previsto llegar a la
        órbita sobre Marte en el 2010 y será
        usado para enviar paquetes de datos a la Tierra desde
        dispositivos sobre la superficie de Marte y de otros
        que se encuentren orbitándolo, por un
        período de más de 10 años y con
        una extremadamente alta tasa de transferencia. Se ha
        pensado en este satélite de comunicaciones
        dedicado debido a la vasta cantidad de
        información científica que
        deberá ser enviada a la Tierra tal como la del
        Laboratorio de Ciencia de Marte en la superficie del
        planeta. Sin embargo, el 21 de julio del 2005, se
        anunció que el OTM fue cancelada debido a la
        necesidad de apoyar otros objetivos a corto plazo,
        incluyendo, una misión de mantenimiento del
        Hubble, operaciones de la misión
        extendida de los vehículos de
        exploración espacial de Marte, asegurando que
        el Laboratorio de Ciencia de Marte pueda volar en el
        2009, y para salvar de la cancelación a una
        misión de ciencia de la Tierra, llamada
        Glory.

      3. Orbitador de Telecomunicaciones de
        Marte
      4. Vinton "Vint" G. Cerf.
    1. Antecedentes
  1. MARCO
    REFERENCIAL

Mejor conocido como Vinton Cerf, es un
científico de la computación estadounidense, considerado
como uno de los 'padres' de la Internet. Nacido en Connecticut
(Estados Unidos) en 1943, se graduó en Matemáticas y Ciencias de
la Computación en la universidad
de Stanford (1965). Durante su estancia posterior en la
Universidad de California (UCLA) obtuvo el Máster en
Ciencia y el Doctorado.

A principios de
los años 70 comenzó a trabajar con Robert Kahn en
el desarrollo de un conjunto de protocolos de comunicaciones
para la red militar ARPANET financiado por la agencia
gubernamental DARPA. El objetivo era
crear una "red de redes" que permitiera interconectar las
distintas redes del Departamento de Defensa norteamericano,
todas ellas de diferente tipo y funcionando sobre diferentes
sistemas
operativos, con independencia del tipo de conexión:
radioenlaces, satélites y líneas
telefónicas.

Las investigaciones, lideradas por Vinton Cerf,
primero desde la Universidad de California (1967-1972) y
posteriormente desde la Universidad de Stanford (1972-1976),
llevaron al diseño del conjunto de protocolos que hoy
son conocidos como TCP/IP
(Transmission Control
Protocol/Internet Protocol), que fue presentado por Vinton Cerf
y Robert Kahn en 1972).

Entre 1976 y 1982, trabajando en DARPA, fue pionero en
el desarrollo de la transmisión por radio y
satélite de paquetes, responsable del proyecto Internet
y del programa de investigación de seguridad en la red.
Siempre preocupado por los problemas de
conexión de redes, Cerf estableció en 1979 la
Internet Configurarion Control Board (que posteriormente se
denominó Internet Activities Board) y fue su primer
presidente.

Entre 1982 y 1986, Cerf diseñó el MCI
MAIL, primer servicio comercial de correo electrónico
que se conectaría a Internet.

En 1992 fue uno de los fundadores de la Internet
Society y su primer presidente.

Actualmente Vinton Cerf es el Chief Internet
Evangelist de Google,
ocupación que compagina con el cargo de presidente del
ICANN, también es miembro del Comité de
Asesoramiento de Sistemas de
Datos Espaciales.

Lideró el inicio del "Internet Interplanetario"
con Dr. Adrian Hooke en el Laboratorio de Propulsión a
Chorro (JPL, en inglés) de la NASA con el cual
aún siguen sus investigaciones.

  1. En la actualidad la Internet actual está
    formada por una estructura mayoritariamente cableada a pesar
    de que cada vez más se hace uso de
    tecnologías inalámbricas. Aún
    así, hoy en día, está basada in
    infraestructuras cableadas. La razón de
    predominancia de este tipo de estructuras ha sido ha sido el número
    de ventajas que ofrecen sobre las
    inalámbricas.

    Estas redes son capaces de proporcionarnos enlaces
    punto a punto mediante conexiones que producen poca
    latencia en transferencia de mensajes en comparación
    con las comunicaciones inalámbricas a grandes
    distancias, así como hasta ahora, seguridad y
    fiabilidad.

  2. Internet Terrestre
  3. Internet "más
    allá"

Si se quiere llevar Internet más allá de
las "fronteras" establecidas actualmente, deberemos ser capaces
de adaptar los medios
actuales para llevar a cabo esa expansión. Para ella,
debemos analizar el tipo de dispositivos que se van a utilizar,
sus características y el medio en el que van a
situar.

Obviamente estamos hablando de comunicaciones
inalámbricas entre nodos que pueden estar o no disponibles
en un determinado intervalo de tiempo y que a su vez van a estar
muy distanciados entre sí. Además estos nodos van a
tener una alimentación de energía limitada y
es una de las limitaciones que más van a restringir el
diseño de los sistemas de comunicación.

Las limitaciones que nos vamos a encontrar ante la
naturaleza de
estas comunicaciones serán, por lo tanto: retrasos en la
comunicación entre dos puntos, una mayor tasa de errores a
las que estamos acostumbrados, conectividad punto a punto debido
a que las partes no siempre van a estar disponibles, tasas de
envío asimétricas, y la adaptación de
mecanismos de calidad de
servicio, fiabilidad, direccionamiento.

Por lo tanto, igual que necesitamos agentes que sirvan
de enlace para unir redes incompatibles aquí en las redes
que conocemos, también necesitaremos agentes capaces de
unir las redes actuales con una red interplanetaria.

  1. EL INTERNET
    INTERPLANETARIO (IPN)

En 1998, la agencia de Investigación de proyectos
avanzados del ministerio de defensa de los Estados Unidos, DARPA
(US Defense Advanced Research Projects Agency), dentro de su
plan para la
siguiente generación de Internet, fundó un grupo de
investigación en la NASA con el objetivo de estudiar los
aspectos técnicos para formar una Internet
interplanetaria.

La idea de este grupo era usar las técnicas que
ya se habían desarrollado en la Internet actual para crear
estándares que pudiesen ser utilizados por las distintas
agencias para una comunicación interplanetaria. Sus
objetivos fueron los siguientes:

  1. Usar protocolos actualmente usados en Internet o
    para formar distintos tipo de redes para poder
    crear redes en entornos con pocos retardos de
    transmisión y con relativamente poco ruido.
  2. Crear "backbones" en el espacio capaz de comunicar
    en muy largas distancias con el objetivo de interconectar las
    redes mencionadas anteriormente.
  3. La Internet resultante sería por lo tanto
    una red de Internets. En esta nueva Internet Interplanetaria
    se haría uso de un nuevo protocolo, el protocolo de
    mensaje ("bundling") capaz de "unir" estas redes de
    naturaleza heterogénea entre sí.

La IPN Trata un conjunto de nodos flotantes en el
espacio que se pueden comunicar unos con otros. Pero, a causa de
los retrasos de la velocidad de la luz en distancias
interplanetarias, aproximadamente de 20 segundos, el IPN necesita
un nuevo conjunto de protocolos y tecnología que san
tolerantes a grandes retrasos. Por otro lado, el Internet como lo
conocemos hoy día, tiende a ser una "red de redes" muy
ocupada y con tráfico alto, con demoras y errores
insignificantes y además posee un Backbone
alámbrico, el Internet Interplanetario es una red
"almacenamiento-y-reenvío" de
Internets que a menudo se desconecta, con un "backbone
inalámbrico" cargado de conexiones propensas a error, y
demoras con rangos de retrasos que van desde decenas de minutos,
incluso horas, aún cuando hay una
conexión.

Viendo las comunicaciones de espacio desde la
perspectiva histórica, ha habido una evolución constante de una costosa arquitectura
punto a punto única en su tipo, a la tecnología
reutilizable en misiones sucesivas, al desarrollo de protocolos
uniformes acordados por las agencias del Espacio de muchos
países. Esta última fase se ejecuta desde que 1982
por los esfuerzos de El Comité Consultivo para Sistemas de
Datos de Espacio (CCSDS), un cuerpo compuesto por la
mayoría de agencias del espacio del mundo. Este cuenta con
diez agencias miembro, veintidós agencias observadoras, y
más de 100 socios industriales.

La evolución de estándares de sistema de datos
del espacio ha ido en paralelo con la evolución del
Internet, con polinización cruzada conceptual donde es
fructífero, pero a un grado grande, como una
evolución separada. Desde que el final de la década
de los noventa, los protocoles familiares de Internet y los
protocolos CCSDS de vínculo espacial se han integrado y
han convergido en varias maneras, por ejemplo, la transferencia
exitosa de archivos del FTP al Orbitador de la Tierra STRV-1b el
2 de enero de 1996. El uso del Protocolo de Internet sin CCSDS ha
sido demostrado también en naves espaciales, por ejemplo
el satélite UoSAT-12 y la Constelación de Monitoreo
de Desastres. Habiendo alcanzado la era donde la IP a bordo de
una nave espacial, y IP o las Especificaciones de Protocolo de
comunicaciones de Espacios similares a IP (SCPS) para saltos
cortos, ha mostrado ser factible, un estudio de estimaciones
futuras de la idea global fue la siguiente fase.

El estudio de Internet Interplanetario en el Laboratorio
de Propulsión a Chorro de la NASA (JPL, en inglés)
fue empezado por un equipo de científicos dirigido por
Vinton Cerf y Adrian Hooke. El Dr. Cerf es uno de los pioneros
del Internet en la Tierra, y tiene actualmente la posición
de científico visitante distinguido en el JPL. El
Señor. Hooke es uno de los directores del
CCSDS.

Mientras que los protocolos SCPS similares al IP son
factibles para saltos cortos, tal como una estación en la
superficie a un orbitador, un explorador a un aterrizador, un
aterrizador a un orbitador, una sonda, etcétera. Una red
tolerante a retrasos (DTN, Delay Tolerant Network), que es
prácticamente donde esta recargada la esencia del
proyecto, es necesitada para conseguir información de una
región del sistema solar a
otra. Se hace manifiesto que el concepto de una
"región" es una factorización arquitectónica
natural del Internet Interplanetario.

Una "región" es un área donde las
características de comunicación son la misma. Las
características de una región incluyen
comunicaciones, seguridad, conservación de recursos,
quizás propiedad, y
otros factores. El Internet Interplanetario es una "red de
internet regionales".

Lo que se necesitada entonces, es una manera
estándar para lograr comunicación punto a punto por
múltiples regiones en un ambiente
desconectado, de variable demoras que utilice una serie
generalizada de protocolos. Ejemplos de regiones pueden incluir
el Internet terrestre como una región, una región
en la superficie de la luna o Marte, o una región
superficie a órbita.

El reconocimiento de este requisito llevó al
concepto de un "paquete" como una manera de alto nivel para
dirigir el generalizado problema almacenamiento-y-reenvío. Los paquetes son
un área de nuevo desarrollo de protocolo en las capas
superiores del modelo de
OSI, encima de la
Capa de Transporte con
la meta de
dirigir el asunto de empaquetar la información de
almacenamiento-y-reenvío para que pueda atravesar con
seguridad los ambientes radicalmente diferentes que constituyen
"la red de internet regionales".

La capa de servicio de empaquetado, implementado como la
suite de protocolo de Empaquetamiento, proporcionará los
servicios de protocolo tolerante a demoras de propósito
general como soporte a una gama de aplicaciones: transferencia de
custodia, segmentación y re-ensamblaje, aseguramiento
de punto a punto, seguridad de punto a punto, y enrutamiento de
punta a punta entre ellos.

Un ejemplo de una de esas aplicaciones punto-a-punto
volando en una misión espacial es CFDP, utilizado en la
misión de cometa, Impacto Profundo. CFDP es el protocolo
de Entrega de Archivo de CCSDS
un estándar internacional para la transferencia
automática y segura de archivo en ambas direcciones. CFDP
no debe ser confundido con el Protocolo de Distribución Coherente de Archivo, que
tiene desafortunadamente las mismas siglas y es un protocolo
experimental IETF-Documentado para entrega rápida de
archivos a múltiples objetivos en un ambiente de red
alto.

Además de copiar con seguridad un archivo de una
entidad (i. E. una nave espacial o una estación en la
superficie) a otra entidad, el CCSDS CFDP tiene la capacidad de
transmitir con confiabilidad, pequeños mensajes
arbitrarios definidos por el usuario, en los metadatos que
acompañan el archivo, y también la
transmisión segura de comandos
relacionados a la
administración de archivos de sistema que serán
ejecutados automáticamente en la entidad remota de punto
final (i. E., una nave espacial) luego de la recepción
exitosa de un archivo.

El grupo inactivo de intereses especiales del Internet
Interplanetario de la Sociedad de
Internet ha trabajado en definir protocolos y estándares
que harían el IPN posible. El grupo de
Investigación de la red tolerante a demoras (DTNRG) es el
investigador primario la cual tiene varias arenas mayores de
aplicación además del Internet Interplanetario,
incluyendo comunicaciones tácticas enfatizadas, redes de
sensores,
recuperación de desastres, ambientes hostiles, y puestos
avanzados remotos. Como un ejemplo de puestos avanzados remotos
imagínese una aldea ártica aislada o una isla
lejana, con electricidad, y
una o más computadoras pero ninguna conectividad de
comunicación. Con la adición de un punto
inalámbrico sencillo en la aldea, más dispositivos
DTN-Habilitados, digamos, trineos de perro o barcos pesqueros, un
residente podría verificar su correo electrónico o
hacer clic en un artículo de Wikipedia, y tener sus
pedidos enviados a la ubicación con red más cercana
y en la visita del próximo trineo o barco, obtener sus
pedidos.

Hasta el 2005, la NASA ha cancelado los planes para
lanzar el Orbitador de Telecomunicaciones de Marte en septiembre
2009; con la meta de dar soporte a misiones futuras secundarias a
Marte y podrían funcionar como un primer concentrador
definitivo posible de Internet alrededor de otro cuerpo
planetario.

  1. El objetivo del proyecto Interplanetario del
    Internet es de definir la arquitectura y hacer un protocolo
    necesario para permitir interoperación del residente
    del Internet en la Tierra con otro residente remotamente
    localizado de internet en otros planetas o la nave espacial
    en tránsito. Mientras el Internet de la Tierra es
    básicamente una "la red de redes conectadas", el
    Internet Interplanetario puede por lo tanto ser pensado
    como una "red de Internet desconectados". Trabajar en este
    ambiente requerirá nuevas técnicas para ser
    desarrolladas.

    Muchos elementos de la serie terrestre actual del
    Internet de protocolos son esperados ser útil en
    ambientes de espacio de bajo-demora, las operaciones tal
    como locales en y alrededor de otros planetas o dentro de
    volar libre vehículos espaciales. Sin embargo, las
    demoras de la velocidad de la luz, conectividad, y
    característica de error-valora intermitente y
    unidireccional de comunicación de espacio
    interplanetario hacen su uso irrealizable a través
    de distancias de espacio interplanetario.

    Es anticipado también que la arquitectura y
    protocolos desarrollados por este proyecto serán
    útiles en muchos ambientes terrestres en los que una
    dependencia en el tiempo real comunicación
    recíproca es o irrealizable o
    desaconsejable.

    El IPNSIG (Interplanet Special Interest Group)
    existe para permitir la participación pública
    en la evolución del Internet Interplanetario.
    La
    investigación técnica en cómo el
    Internet de la Tierra puede ser extendido en el espacio
    interplanetario ha estado en camino durante varios
    años como parte de un cuerpo internacional de la
    estandarización de comunicaciones conocido como el
    Comité Consultivo para Sistemas de Datos de Espacio
    (CCSDS).

    El comité del IPNSIG es formado por:
    Stephen Farrell, Leigh Torgerson, Scott Burleigh, Eric
    Travis and Bob Durst, Vint Cerf, Adrian Hooke, entre
    otros.

    La organización de CCSDS es concernida
    principalmente con la estandarización de
    comunicaciones para satélites científicos,
    con un foco primario en las necesidades de misiones de
    cerca de-término. Para extender este horizonte fuera
    varias décadas, y para comenzar a implicar la
    investigación terrestre del Internet y la ingeniería las comunidades, un
    Estudio Interplanetario especial del Internet fue propuesto
    y fue financiado subsiguientemente en los Estados
    Unidos.

    El Estudio Interplanetario del Internet es
    financiado por DARPA (La Agencia de Investigación de
    Proyectos Avanzados de Defensa), y actualmente consiste en
    un equipo del centro de investigadores del Laboratorio de
    Propulsión por Reacción de la NASA, la
    Corporación de MITRA, ESPARTA, la Ciencia Global
    & la Tecnología e investigadores consultores del
    USC/ISI, UCLA y CalTech. La meta primaria del estudio es de
    investigar protocolos cuán terrestres de internet y
    las técnicas pueden ser extendidas y/o utilizado a
    como-yo en la exploración de espacio
    interplanetario. El equipo del estudio tiene también
    fundado el IPNSIG y ha formado el centro de un IPNRG bajo
    el patrocinio del grupo de trabajo
    de Investigación de Internet.

    La meta primaria del equipo del Estudio de NASA
    IPN será de actuar como el enlace entre las
    comunidades de satélite y espacio y las comunidades
    de ISOC/IRTF. El equipo del Estudio de NASA IPN
    ayudará con requisitos y ayuda con la
    comprensión del ambiente de espacio interplanetario
    y misiones, mientras la investigación primaria en
    protocolos nuevos o modificados será realizada por
    el IRTF. Además, el Equipo del Estudio de NASA
    actuará como también el enlace con el
    Comité Consultivo para Sistemas de Datos de
    Espacio.

    El Equipo del Estudio de NASA permitirá
    también las oportunidades simuladas y verdaderas a
    probar protocolos y el uso de técnicas de Internet
    en el ambiente del espacio.

  2. SOBRE EL PROYECTO

    El DTNRG es un grupo de investigación que
    forma parte del IRTF (Grupo de Tareas de
    Investigación sobre Internet) el cual pertenece al
    grupo Internet Society. Este grupo tiene a cargo la
    arquitectura y los protocolos que permitirán la
    comunicación e interoperabilidad en ambientes donde
    la conectividad continua end-to-end no puede ser
    asumida. Dicho de otra forma, están encargados de
    interconectar redes altamente heterogéneas aunque
    puede que nunca llegase a existir una conectividad
    end-to-end. Algunos ejemplos de estos ambientes
    incluyen naves espaciales, militares y tácticas,
    algunas formas de responder a desastres, bajo el agua
    y algunas formas de redes ad-hoc. También
    puede incluir conectividad de internet en lugares donde el
    desempeño puede ser afectado por
    lugares inhóspitos e inalcanzables de la
    tierra.

    Este grupo investiga aspectos de redes tolerantes
    al retraso en muchas formas como publicaciones
    académicas, desarrollo y especificaciones de
    estándares, varias listas de correo activas para
    intercambiar conocimiento y desarrollo de código.

  3. EL GRUPO DE INVESTIGACION DE LA RED TOLERANTE A
    RETRASOS (DTNRG)

    1. Estructura de capas
  4. ARQUITECTURA DE LA RED TOLERANTE A RETRASOS (RFC
    4838)

Los mensajes que enviamos a través de Internet
son sometidos a distintas capas de protocolos. Las distintas
capas procesan el mensaje recibido de la capa anterior de tal
manera que se crea una jerarquía en los mensajes donde el
mensaje en cada eslabón es interpretado por el actor
correspondiente.

En la Internet, normalmente nos encontramos con las
siguientes capas:

  • Capa Aplicación:

Genera y consume datos de usuario.

  • Capa Transporte:

Segmentación de los mensajes de origen a destino.
reensamblado, control errores, control de flujo.

  • Capa de Red:

Direccionamiento de los mensajes. Con
fragmentación y reensamblado si se requiere.

  • Capa de Enlace:

Transmisión enlace a enlace de las
piezas.

  • Capa Física:

Transmisión de flujo de bits de enlace a
enlace.

  1. Por qué una Red Tolerante a Retrasos
    (DTN, Delay Tolerant Network)?

Las redes "interplanetarias" se caracterizan
por:

  • Conexiones intermitentes:

No siempre los nodos van a estar visibles los unos con
los otros. Los objetos en el espacio están en movimiento,
tanto los emisores como los receptores, así mismo como
otros objetos o planetas. Cualquier elemento se podría
poner en la trayectoria de la comunicación.

Además, debido a las limitaciones de
energía, no todos los nodos están accesibles
permanentemente por lo que su conexión con el siguiente
nodo se programa previamente o bien, si este segundo nodo
está permanentemente conectado, enviará datos en la
medida en que pueda enviarlos.

Estos problemas de intermitencia en la disponibilidad
hacen que se implementen mecanismos de almacenamiento de los
mensajes hasta que puedan ser enviados, ya que la naturaleza de
las comunicaciones hace que no se deban descartar mensajes con la
relativa facilidad con la que se hace en las redes terrestres sin
requerimientos especiales

Las comunicaciones pueden tener un destino muy lejano al
origen. Incluso, un origen y un destino determinado no se
encuentran siempre a la misma distancia uno de otro.

  • Flujo de datos asimétrico:

Dado que el envío de datos en largas distancias,
con limitación de energía y con varias otras
limitaciones es muy costoso, se limita al máximo los datos
enviados. Generalmente suelen ser, de momento, envío de
instrucciones hacia un extremo y envío de
información masiva hacia el otro (por ejemplo los
‘Rover’ que están explorando
Marte).

  • Alta tasa de fallos:

Debido a las limitaciones técnicas, de potencia, a
largas distancias, alto número de interferencias
electromagnéticas, la tasa de fallos en las comunicaciones
es elevada. Así, se implementan mecanismos de
detección y corrección de errores.

  1. Almacenamiento y reenvío

El almacenamiento y reenvío se establece como
sistema para evitar una serie de problemas inherentes a la
naturaleza de este tipo de comunicaciones, a saber:

  • Retrasos largos o variables:

Los nodos consecutivos en el camino pueden no estar
visibles entre ellos durante largos periodos de
tiempo.

  • Tráfico asimétrico:

Habrá nodos que puedan transmitir más
rápidamente que otros. Así, se necesitarán
mecanismos para poder almacenar los mensajes para su posterior
envío de tal modo que no se produzca ninguna
pérdida de datos.

  • Alta tasa de fallos:

En el medio en el que se transmite el mensaje
así como las largas distancias que tienen que atravesar,
existe una alta probabilidad
de que se produzcan fallos de envío de los mensajes.
Cuando se producen fallos, al tratarse de información
importante, se requiere el envío de la
información. De este modo, cuando un nodo envía
un mensaje, no lo puede eliminar en el acto pues puede que se
produzcan errores en la recepción, se debería
esperar a una confirmación de llegada por parte del nodo
destino.

  1. Conexiones

Las conexiones entre los nodos de una red tolerante a
retrasos pueden ser:

  • Casuales:

Cuando un nodo detecta otro nodo con el cual se quiere
comunicar, se comunica. Este tipo de conexión es posible
siempre que el nodo emisor sepa que el receptor está
activo y es capaz de hacer una recepción de los
mensajes. El lado positivo de este tipo de transmisión
es que el emisor puede enviar cuando cree oportuno puesto que
confía en la disponibilidad del receptor. Esto hace que
el emisor se active únicamente cuando le convenga
transmitir una información. Cuando un nodo se encuentra
con otro que quiere hablar, hablan.

  • Predichas:

Los nodos, al tener una disponibilidad presumiblemente
intermitente, no pueden emitir en cualquier momento por la
posible indisponibilidad del receptor. Los nodos se encuentran
en movimiento, orbitando o sobre la superficie de un planeta.
Si conocemos los ciclos de estos movimientos, se puede calcular
la disponibilidad de estos nodos de modo que sólo se
activen cuando predigan la disponibilidad de un nodo así
como la probabilidad de transmisión de
éste.

  • Programadas:

Básicamente como el caso anterior, con la
diferencia es que no se basan en predicción. En este
caso se sincronizan los envíos y recepción de los
datos entre los nodos.

En este caso en concreto,
ambos nodos están operativos para el envío y la
recepción de los datos. Sin embargo, se establece la
activación de un nodo por parte de otro del sistema de
transmisión de mensajes. Entonces, en este caso las
transmisiones se producen bajo demanda de algún nodo
interesado.

  1. Las redes DTN implementan una arquitectura
    de conmutación de mensajes con almacenamiento y
    reenvío. Esto, lo consiguen introducción una nueva capa a la
    arquitectura de capas que ya conocemos. Introducen un
    nuevo protocolo, el "bundle layer" o capa de mensaje
    entre la capa de aplicación y la capa de
    transporte.

    El objetivo principal de esta nueva capa
    es el de unir distintas redes de naturaleza
    heterogénea entre sí. De esta manera hace
    que las capas inferiores a esta nueva capa, que usan
    protocolos específicos dependiendo de donde se
    encuentren esas redes, no sean un impedimento para la
    comunicación de las aplicaciones, situadas en la
    capa superior del nuevo protocolo introducido. Lo que
    hace es dotar a las comunicaciones entre distintas redes
    de independencia de las capas
    inferiores.

    El nuevo protocolo introducido es
    común para todas las redes que forman las redes
    DTN. Esta capa, es la que almacena y reenvía los
    mensajes entre los distintos nodos de las redes. Por el
    contrario, los protocolos de transporte, de red, de
    enlace y físico, son independientes de una
    región a otra. Esto es debido, como comentado
    anteriormente a las distintas características del
    entorno donde se establecen estas
    redes.

    Los mensajes por lo tanto
    consistirán en (1) los datos de la
    aplicación de usuario, (2) la información
    de control para aplicación de destino
    proporcionada por la aplicación de origen y (3)
    una cabecera, propia de este nuevo protocolo e insertada
    por el mismo.

    La nueva capa es capaz de fragmentar los
    mensajes, igual que como actúa IP. En este caso,
    será el mismo protocolo en encargado de
    reensamblarlos cuando sea necesario.

  2. Bundle layer

    Debido a la naturaleza de las
    comunicaciones, las largas distancias, los retrasos
    introducidos, la alta tasa de errores, hacen de la
    interactividad de la que disponemos con el protocolo TCP,
    de un lujo del que es muy caro disponer en las
    comunicaciones en redes DTN. De esta manera, estos
    viajes
    de ida y vuelta entre los nodos inicial y final
    tardarían mucho tiempo. Así, con el nuevo
    protocolo introducido, las comunicaciones se harán
    con los mínimos viajes posibles de ida y vuelta.
    Así, los "acknowledgements" del receptor
    serán opcionales dependiendo de la QoS elegida. Y
    esto, por supuesto, depende del tipo de conexión
    posible entre los nodos.

  3. Interactividad
  4. Nodos

En las redes DTN existen tres tipos de nodos
diferentes. Los nodos pueden actuar como:

  • Hosts:

Los host envían o reciben "bundles", pero
no los reenvían. No actúan como nodos
intermedios. Son emisores o receptores.

  • Routers:

Reenvían "bundles" en una misma
región DTN. Requieren almacenamiento persistente para
poder hacer transmisiones bajo custodia y poder almacenar los
mensajes hasta que el siguiente nodo en la ruta esté
disponible.

  • Gateways:

Reenvían "bundles" entre distintas
regiones DTN. Opcionalmente pueden actuar como host. Los
Gateways deben soportar también almacenamiento
persistente para envíos de tipo "store & forward"
(almacenamiento-envío). Los "Gateways", a su vez, son
capaces de de hacer conversiones en las capas más bajas
de protocolo entre las regiones entre las que se encuentra.
Así, hará compatible los mensajes entre distintas
regiones DTN que no tienen porque ser
homogéneas.

  1. Las DTNs deben soportar conexiones entre
    dos nodos. La capacidad de conexión nodo a nodo se
    debe implementar en la "bundle layer". La "bundle layer"
    soportará entonces las retransmisiones nodo a nodo
    en términos de transferencias bajo
    custodia.

    Las transferencias bajo custodia son
    concertadas entre las "bundle layers" de los sucesivos
    nodos cuando la aplicación inicia la
    conexión. Cuando un nodo quiere enviar, la "bundle
    layer" de este nodo comprueba si el siguiente nodo en la
    ruta soporta transferencias bajo custodia. De ser
    así, envía el mensaje y, cuando recibe una
    confirmación de que se ha entregado correctamente
    el mensaje, el nodo emisor borra entonces su copia del
    mensaje. Es entonces quien ha recibido el mensaje el
    responsable de enviarlo al siguiente nodo. Operando de la
    misma forma, el mensaje llegará al nodo
    destino.

    Las transferencias bajo custodia no
    aseguran un servicio garantizado punto a punto. Los
    mensajes contienen TTLs que deben cumplir. Debido a los
    grandes retrasos que se producen, cuando se forman los
    mensajes y se les asigna TTL, se tienen en cuenta las
    distintas situaciones por las que podría pasar el
    mensaje.

  2. Transferencias bajo
    custodia

    En este tipo de redes todos los nodos los
    nodos implementan la "bundle layer" y la capa de
    transporte.

    Los gateways en DTN pueden soportar
    distintos conjuntos de protocolos de transporte,
    red, enlace y físico, tal y como se muestra en la figura con el fin de poder
    enviar mensajes entre regiones con distintas
    configuraciones.

    La principal diferencia en redes DTN con
    respecto a las redes tradicionales que conocemos con
    respecto al "routing" reside en los Gateways. Los
    Gateways son capaces de compatibilizar mensajes
    pertenecientes a distintas regiones, mediante la
    transformación de los mensajes accediendo a los
    protocolos por debajo de la capa de mensaje (propios de
    cada región) como podemos ver en la figura
    anterior.

  3. Routing DTN

    Una DTN es una red de redes. Cada una de
    las redes conforma una región con unas
    características de comunicación
    homogéneas.

    Las regiones van a tener su propio
    identificador. Estos identificadores van a ser
    comúnmente conocidos por los nodos de la red y, el
    identificador de cada nodo estará formado por el
    identificador propio de la red junto con otro
    identificador que lo diferenciará dentro de la
    propia red. Los Gateways serán los únicos
    dispositivos que poseerán dos direcciones ya que
    forman parte de dos o más regiones
    simultáneamente.

  4. Regiones

    En redes DTN aparte de autenticar a los
    usuarios y la integridad de los mensajes, se autentica
    también los nodos por los que va atravesando el
    mensaje desde un origen hasta llegar a un destino. De
    esta manera se evita el tráfico ilegal y se
    conservan recursos.

    En las redes DTN tanto los mensajes como
    los nodos tienen su propio par de claves (pública
    y privada) así como su propio certificado. En los
    certificados se indica el tipo de calidad de servicio requerida para los
    envíos de los mensajes.

    Cuando un emisor quiere enviar un mensaje,
    lo firman con su clave privada. Los receptores, usando la
    clave pública pueden verificar la autenticidad del
    mensaje, la integridad y la clase
    de servicio requerida.

  5. Seguridad
  6. Ejemplo de
    comunicación

Por ejemplo, vamos a ver cómo
sería una comunicación desde la Tierra hasta
Marte. Iremos viendo cómo se va transmitiendo el mensaje
de nodo a nodo.

Las direcciones de origen y destino van a ser
las siguientes:

{earth.sol.int,
src.jpl.nasa.gov:6769} y {mars.sol.int, dst.jpl.nasa.gov:6769}
respectivamente.

Cuando se crea el mensaje, aparte de la dirección de origen y destino,
también se especifica la firma, la clase de servicio y
los datos de usuario.

Primero creamos el mensaje: la bundle layer
comprueba la firma de la fuente de los datos, crea un mensaje y
añade la cabecera y su firma. Seguidamente almacena el
mensaje hasta que pueda ser enviado.

Posteriormente a la creación del mensaje,
nos disponemos a la transmisión del mismo. Es el mismo
protocolo de mensaje quien consulta su tabla de rutas y
determina que el Gateway de la Tierra se encuentra en la
dirección {earth.sol.int, ipngw1.jpl.nasa.gov:6769}.
Este es el siguiente nodo en la trayectoria del paquete hacia
el destino. También averigua que el protocolo de
transporte que debe usar es TCP.

Es el momento de transmitir el
mensaje.

El emisor envía una copia del mensaje al
Gateway de la Tierra usando TCP como protocolo de transporte.
Entonces el emisor queda a la espera de recibir la
aceptación por parte del Gateway del mensaje. El mensaje
se transmite bajo custodia.

Al recibir el Gateway de la tierra el mensaje,
cierra la conexión TCP establecida. Esto es así
ya que el protocolo de transporte utilizado en la
comunicación hacia este nodo ha sido TCP. El Gateway
verifica la firma del emisor así como la clase de
servicio establecida. Cuando se verifica la validez del
mensaje, el protocolo de mensaje cambia la firma. Aun
así, conserva la firma del creador del mensaje. Y ahora
almacena el mensaje en sus dispositivos de
almacenamiento.

El Gateway de la Tierra, consulta la tabla de
rutas y determina la dirección siguiente: {mars.sol.int,
ipngw2.jpl.nasa.mars.org:6769}. Consulta también cuando
este nodo estará disponible para enviarle el mensaje
sólo cuando el receptor sea capaz de recibirlo. Entonces
confirma el TTL y si puede enviar el mensaje, y entonces
envía un mensaje al nodo de quien recibió el
mensaje a transmitir comunicándole que ya puede borrar
su copia del mensaje, que ya se encarga él de
enviarlo.

Cuando llegue la hora establecida en la cual el
receptor vaya a estar disponible, se envía el
mensaje.

Cuando el mensaje llega al Gateway de Marte,
aparte de hacer los pasos descritos anteriormente, descubre que
el protocolo de transporte utilizado en la nueva región
es TCP. De manera que el Gateway prepara el mensaje para una
conexión TCP con el siguiente nodo, que ya será
el destino. Y finalmente es enviado al
destino.

El nodo destino recibe el mensaje vía una
conexión TCP. El destino entonces cierra la
conexión y comprueba la firma del nodo anterior.
Almacena el mensaje, acepta la custodia e informa al Gateway de
que ya puede borrar su copia.

Para finalizar, la capa de mensaje invoca a la
aplicación por encima de él a quien va destinado
el mensaje. Dependiendo de la aplicación, opcionalmente
puede generar "acknowledgements" dirigidos al emisor del
mensaje para confirmar la recepción.

  1. Los protocolos existentes hasta a fecha y
    que se comparan a gran escala
    con TCP/IP respectivamente son:

    1. Bundle Protocol (RFC
      5050)
  2. ESPECIFICACIÓN DE PROTOCOLOS
    ACTUALES.

Intercambio de mensajes, puede ser una buena
traducción de "bundles" según los
investigadores del DTNRG. Acá queremos dar una breve
especificación tomada de la Referencia 5050 de la
IETF.

Las DTN son utilizadas en ambientes realmente
cambiantes con una conectividad intermitente, largos y/o
variables retrasos y una tasa alta de errores en la
transferencia de bits. Para proveer servicios en las DTN, el BP
se establece sobre la capa de aplicación para formar una
red de almacenamiento y envío con el fin de que los
datos lleguen al otro punto de conexión. Algunas de las
capacidades de este protocolo son:

  • Retransmisión basada en
    custodia.
  • Capacidad de sobrellevar conectividad
    intermitente.
  • Capacidad de conexiones oportunistas,
    predictadas y planeadas (con el fin de prepara una
    conexión continua).

Este es un protocolo experimental, producido en
el DTNRG y alimentado por consenso de muchos contribuyentes al
grupo.

Las características aún más
específicas de este protocolo se encuentran en el Anexo
1.

  1. Licklider Transmission Protocol (LTP)
    (RFC en proceso)

Es un protocolo de retransmisión para una
comunicación segura entre dos puntos en un ambiente de
tolerancia a
retrasos. Nombrado en honor a Joseph Carl Robnett Licklider,
científico estadounidense primero en articular la idea
de una red de computadoras intergaláctica en sus inicios
en 1962, Vint Cerf tuvo la iniciativa de este nombre. Por otro
lado, también se la designado como un protocolo de
convergencia para los pilares interplanetarios de una red
tolerante a retrasos "end-to-end". Este protocolo se puede
compara para su compresión con el protocolo
TCP.

El funcionamiento de este protocolo se
fundamente en la transmisión de un bloque de datos
dividido en segmentos. Cuando estos segmentos son transmitimos,
algunos son señalados como "checkpoints". Cuando un
"checkpoint" es recibido, el receptor retorna un reporte de
recepción acumulativa. Si los puntos de revisión
no son explícitos los datos se vuelven a reenviar por
medio de un "timer" que periódicamente revisa la
recepción de puntos de
revisión.

Dentro de las habilidades de este protocolo se
destacan:

Tolera la interrupción de los enlaces sin
pérdida de datos.

Designado para imponer un mínimo recargo
en enlaces de baja capacidad y/o enlaces
asimétricos.

Los segmentos pueden ser expandidos (seguridad
de código).

Retransmisión acelerada: múltiples
revisión de estado por bloque
transmitido.

Certeza parcial: los puntos de revisión y
retransmisión se pueden habilitar solamente por las
primeros N bytes de un bloque.

Para las especificaciones mas detallas del
protocolo favor ver el Anexo 2.

  1. El proyecto original conocido como
    Interplanet se ha expandido y crecido sustancialmente y se
    ha re-fundamentado en una arquitectura más global y
    con énfasis en las DTN, actualmente en el sitio web
    del DTNRG (http://www.dtnrg.org) existen accesos a
    artículos e investigaciones en los cuales se discute
    la situación pasada y actual de las aplicaciones de
    las DTN y los problemas que presentan en las redes
    terrestres. Por otro lado, es importante resaltar que la
    arquitectura de las DTN y el Bundle Protocol están
    documentados como estándares de referencia del
    IET.

    Actualmente, está iniciando lo que
    parece ser una actividad muy seria para implementar esta
    tecnología antes mencionada en comunicaciones de
    vuelos espaciales, tal y como lo imaginaron cuando el
    proyecto empezó en 1998.

    En adición a esto, también se
    tiene proyectado la instalación de esta
    tecnología a bordo de la Estación Espacial
    Internacional (ISS), está pendiente aún una
    discusión más profunda. También se
    está trabajando en un plan pruebas en Octubre para
    la nave "Deep Impact", cuyos datos no se sabrán
    hasta dentro de unos meses.

    Actualmente, el LTP está en proceso
    de inscripción como una norma del RFC y el protocolo
    se encuentra en perfeccionamiento y Steven Farrel
    está trabajando en su
    implementación.

  2. ÚLTIMOS AVANCES

    Interplanet es un proyecto con el cual se
    verá beneficiada toda la humanidad, debido que se
    podrán estudiar datos enviados desde Marte y poder
    validar aún más la posibilidad de que ese
    planeta sea habitable algún
    día.

    La investigación científica se
    verá fortalecida, pues la facilidad de analizar
    datos más confiables y de una manera más
    rápida, imágenes nítidas y
    confiables.

    El desarrollo de este proyecto y
    específicamente de los protocolos, modificará
    ciertos estándares conocidos como el modelo
    OSI, pues ha aparecido otra capa que deberá ser
    agregada a los estándares.

    La posibilidad de enviar y recibir datos
    entre redes tolerantes a retrasos, ayudará a que la
    conectividad incluso aquí en la tierra se vea
    sustancialmente mejorado, pues ya no importará el
    medio y los retrasos.

    Es un proyecto que todavía le falta
    mucho por terminar, por lo que está aún
    pendiente la culminación de los protocolos BP y LTP,
    pues están en un periodo
    experimental.

    La importancia fundamental radica en que los
    datos lleguen legibles y completos, sin que estos sean
    afectados, por ambientes completamente
    heterogéneos.

    Este proyecto desprende mucha documentación que puede ser
    aprovechada para artículos, desarrollo y proyectos
    que integren los protocolos antes
    mencionados.

    Los países podrán tomar
    ventaja de esta tecnología al realizar alianzas de
    investigación, tanto académicas como
    empresariales.

  3. CONCLUSIONES Y
    REFLEXIONES
  4. Referencias

Estudio de la Interplanet.
En: .
Visitado el: 23/3/2008

Internet Interplanetario. En:
http://en.wikipedia.org/wiki/Interplanetary_Internet
Visitado el: 23/3/2008

NASA. En:
http://es.wikipedia.org/wiki/NASA Visitado
el: 23/3/2008

Gobierno del Internet. En:

http://www.wgig.org/docs/SociedadNorte-CommentApril.doc

Visitado el: 23/3/2008

Internet Research Task Force Research
Group.
(DTNRG). En: http://www.dtnrg.org.Visitado
el: 26/3/2008

DTN Architecture Document: En:

http://tools.ietf.org/group/irtf/draft-irtf-dtnrg-arch-08.txt
.
Visitado el: 26/3/2008

Delay-Tolerant Networking: An Approach to
Interplanetary Internet: Scott Burleigh, Adrian Hooke, and
Leigh Torgerson, Jet Propulsion Laboratory

En: http://www.dtnrg.org/papers/ieee-comsoc-article.pdf.
Visitado el: 26/3/2008

InterPlaNetary Internet: state-of-the-art
and research challenges: Ian F. Akyildiz, Chao Chen, Jian Fang,
Weilian Su. En: http://www.ece.gatech.edu/research/labs/bwn/space.pdf.
Visitado el: 26/3/2008

Technologies for the InterPlanetary
Network
. Dr. James R. Lesh Chief Technologist &
Manager, Technology Office
Interplanetary Network and Information Systems Directorate Jet
Propulsion Laboratory California Institute of
Technology

En:
http://www.ipnsig.org/reports/Lesh-IPN-Technologies.pdf
.
Visitado el: 26/3/2008.

TOWARDS AN INTERPLANETARY INTERNET: A
PROPOSED STRATEGY FOR STANDARDIZATION. Adrian J. Hooke Jet
Propulsion Laboratory, California Institute of Technology
Pasadena, California, USA. En: http://www.ipnsig.org/reports/SpaceOps-Oct-2002.pdf.
Visitado el: 28/3/2008

Delay-Tolerant Networks (DTNs): Forrest
Warthman Warthman Associates

En: http://ipnsig.org/reports/DTN_Tutorial11.pdf.
Visitado el: 28/3/2008

Borrador de la especificación RFC del
IPN
. En: http://ipnsig.org/reports/draft-irtf-ipnrg-arch-01.txt.
Visitado el: 28/3/2008

Agradecimiento especial
para:

Scott Burleigh del Laboratorio de
Propulsión a Chorro de la NASA.

Steven Farrell del Grupo de Investigación
de la Red Interplanetaria

Special thanks
to:

Scott Burleigh of the Jet Propulsion Lab (JPL) –
NASA.

Steven Farrell of the IPNSIG (Interplanet
Special Interest Group).

 

 

 

 

Autor:

Edgar A. Vega
Briceño

Ingeniero en Informática, Universidad Nacional de
Costa Rica

Sobre el autor de este
trabajo:

Edgar A. Vega Briceño, Ingeniero en
Informática de la Universidad Nacional de Costa Rica y
actualmente ostentando el grado de Máster en Administración de las Tecnologías
de Información y Comunicación en la misma
Universidad. Profesor
universitario e investigador en temas relacionados con
TI.

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter