A finales de 1966 Roberts se trasladó a la DARPA
a desarrollar el concepto de
red de
ordenadores y rápidamente confeccionó su plan para
ARPANET, publicándolo en 1967. En la conferencia en la
que presentó el documento se exponía también
un trabajo sobre
el concepto de red de paquetes a cargo de Donald Davies y Roger
Scantlebury del NPL. Scantlebury le habló a Roberts sobre
su trabajo en el NPL así como sobre el de Paul Baran y
otros en RAND. El grupo RAND
había escrito un documento sobre redes de conmutación
de paquetes para comunicación vocal segura en el
ámbito militar, en 1964.
Ocurrió que los trabajos del MIT (1961-67), RAND
(1962-65) y NPL (1964-67) habían discurrido en paralelo
sin que los investigadores hubieran conocido el trabajo de
los demás. La palabra packet (paquete) fue adoptada a
partir del trabajo del NPL y la velocidad de
la línea propuesta para ser usada en el diseño
de ARPANET fue aumentada desde 2,4 Kbps hasta 50 Kbps
(5).
En Agosto de 1968, después de que Roberts y la
comunidad de
la DARPA hubieran refinado la estructura
global y las especificaciones de ARPANET, DARPA lanzó un
RFQ para el desarrollo de
uno de sus componentes clave: los conmutadores de paquetes
llamados interface message processors (IMPs, procesadores de
mensajes de interfaz).
El RFQ fue ganado en Diciembre de 1968 por un grupo
encabezado por Frank Heart, de Bolt Beranek y Newman (BBN).
Así como el equipo de BBN trabajó en IMPs con Bob
Kahn tomando un papel principal en el diseño de la
arquitectura
de la ARPANET global, la topología
de red y el aspecto económico fueron diseñados
y optimizados por Roberts trabajando con Howard Frank y su equipo
en la Network Analysis Corporation, y el sistema de medida
de la red fue preparado por el equipo de Kleinrock de la Universidad de
California, en Los Angeles (6).
A causa del temprano desarrollo de la teoría
de conmutación de paquetes de Kleinrock y su
énfasis en el análisis, diseño y medición, su Network Measurement Center
(Centro de Medidas de Red) en la UCLA fue seleccionado para ser
el primer nodo de ARPANET. Todo ello ocurrió en Septiembre
de 1969, cuando BBN instaló el primer IMP en la UCLA y
quedó conectado el primer ordenador host.
El proyecto de Doug
Engelbart denominado Augmentation of Human Intelect (Aumento del
Intelecto Humano) que incluía NLS, un primitivo
sistema hipertexto, el Instituto de Investigación de Standford (SRI)
proporcionó un segundo nodo. El SRI patrocinó el
Network Information Center, liderado por Elizabeth (Jake)
Feinler, que desarrolló funciones tales
como mantener tablas de nombres de host para la traducción de direcciones así como
un directorio de RFCs ( Request For Comments ).
Un mes más tarde, cuando el SRI fue conectado a
ARPANET, el primer mensaje de host a host fue enviado desde el
laboratorio de
Leinrock al SRI. Se añadieron dos nodos en la Universidad
de California, Santa Bárbara, y en la Universidad de Utah.
Estos dos últimos nodos incorporaron proyectos de
visualización de aplicaciones, con Glen Culler y Burton
Fried en la UCSB investigando métodos
para mostrar funciones matemáticas mediante el uso de "storage
displays" ( N. del T. : mecanismos que incorporan buffers
de monitorización distribuidos en red para facilitar el
refresco de la visualización) para tratar con el problema
de refrescar sobre la red, y Robert Taylor y Ivan
Sutherland en Utah investigando métodos de
representación en 3-D a través de la
red.
Así, a finales de 1969, cuatro ordenadores host
fueron conectados cojuntamente a la ARPANET inicial y se hizo
realidad una embrionaria Internet. Incluso en esta
primitiva etapa, hay que reseñar que la
investigación incorporó tanto el trabajo
mediante la red ya existente como la mejora de la
utilización de dicha red. Esta tradición
continúa hasta el día de hoy.
Se siguieron conectando ordenadores rápidamente a
la ARPANET durante los años siguientes y el trabajo
continuó para completar un protocolo host a
host funcionalmente completo, así como software adicional de red.
En Diciembre de 1970, el Network Working Group (NWG) liderado por
S.Crocker acabó el protocolo host a host inicial para
ARPANET, llamado Network Control Protocol
(NCP, protocolo de control de red). Cuando en los nodos de
ARPANET se completó la implementación del NCP
durante el periodo 1971-72, los usuarios de la red pudieron
finalmente comenzar a desarrollar aplicaciones.
En Octubre de 1972, Kahn organizó una gran y muy
exitosa demostración de ARPANET en la International
Computer Communication Conference. Esta fue la primera
demostración pública de la nueva tecnología de red.
Fue también en 1972 cuando se introdujo la primera
aplicación "estrella": el correo
electrónico. En Marzo, Ray Tomlinson, de BBN,
escribió el software básico de
envío-recepción de mensajes de correo
electrónico, impulsado por la necesidad que tenían
los desarrolladores de ARPANET de un mecanismo sencillo de
coordinación.
En Julio, Roberts expandió su valor
añadido escribiendo el primer programa de
utilidad de
correo electrónico para relacionar, leer selectivamente,
almacenar, reenviar y responder a mensajes. Desde entonces, la
aplicación de correo electrónico se
convirtió en la mayor de la red durante más de una
década. Fue precursora del tipo de actividad que
observamos hoy día en la World Wide
Web, es decir, del enorme crecimiento de todas las formas de
tráfico persona a
persona.
La red
Internet es un conjunto de redes, redes de ordenadores y
equipos físicamente unidos mediante cables que conectan
puntos de todo el mundo. Estos cables se presentan en muchas
formas: desde cables de red local (varias máquinas
conectadas en una oficina o campus)
a cables telefónicos convencionales, digitales y canales
de fibra
óptica que forman las "carreteras" principales. Esta
gigantesca Red se difumina en ocasiones porque los datos pueden
transmitirse vía satélite, o a través de
servicios como
la telefonía
celular, o porque a veces no se sabe muy bien a dónde
está conectada.
En cierto modo, no hay mucha diferencia entre Internet y
la red telefónica que todos conocemos, dado que sus
fundamentos son parecidos. Basta saber que cualquier cosa a la
que se pueda acceder a través de algún tipo de
"conexión," como un ordenador personal, una
base de datos
en una universidad, un servicio
electrónico de pago (como CompuServe), un fax o un
número de teléfono, pueden ser, y de hecho forman,
parte de Internet.
El acceso a los diferentes ordenadores y equipos que
están conectados a Internet puede ser público o
estar limitado. Una red de cajeros
automáticos o terminales de banco, por
ejemplo, pueden estar integradas en Internet pero no ser de
acceso público, aunque formen parte teórica de la
Red. Lo interesante es que cada vez más de estos recursos
están disponibles a través de Internet: fax,
teléfono, radio, televisión, imágenes
de satélites
o cámaras de tráfico son algunos
ejemplos.
En cuanto a organización, Internet no tiene en realidad
una cabeza central, ni un único organismo que la regule o
a la que pedirle cuentas si
funciona mal. Gran parte de la infraestructura es pública,
de los gobiernos mundiales, organismos y universidades. Muchos
grupos de
trabajo trabajan para que funcione correctamente y
continúe evolucionando. Otra gran parte de Internet es
privada, y la gestionan empresas de
servicios de
Internet (que dan acceso) o simplemente publican contenidos.
Como Internet está formada por muchas redes
independientes, que hablan el mismo lenguaje, ni
siquiera están claros sus límites.
Redes Globales
Es un conjunto de dispositivos físicos "hardware" y de programas
"software", mediante el cual podemos comunicar computadoras
para compartir recursos (discos, impresoras,
programas, etc.) así como trabajo (tiempo de
cálculo, procesamiento de
datos, etc.).
A cada una de las computadoras conectadas a la red se le
denomina un nodo. Se considera que una red es local si solo
alcanza unos pocos kilómetros.
Tipos De Redes
Las redes de información se pueden clasificar
según su extensión y su topología. Una red puede empezar siendo
pequeña para crecer junto con la
organización o institución. A
continuación se presenta los distintos tipos de redes
disponibles:
Extensión De acuerdo con la distribución geográfica:
Segmento de red (subred)
Un segmento de red suele ser definido por el "hardware"
o una dirección de red específica. Por
ejemplo, en el entorno "Novell
NetWare", en un segmento de red se incluyen todas las estaciones
de trabajo conectadas a una tarjeta de interfaz de red de un
servidor y
cada segmento tiene su propia dirección de red.
Red de área locales (LAN)
Una LAN es un
segmento de red que tiene conectadas estaciones de trabajo y
servidores o
un conjunto de segmentos de red interconectados, generalmente
dentro de la misma zona. Por ejemplo un edificio.
Red de campus
Una red de campus se extiende a otros edificios dentro
de un campus o área industrial. Los diversos segmentos o
LAN de cada edificio suelen conectarse mediante cables de la red
de soporte.
Red de área metropolitanas (MAN)
Una red MAN es una red que se expande por pueblos o
ciudades y se interconecta mediante diversas instalaciones
públicas o privadas, como el sistema telefónico o
los suplidores de sistemas de
comunicación por microondas o
medios
ópticos.
Red de área extensa (WAN y redes
globales)
Las WAN y redes globales se extienden sobrepasando las
fronteras de las ciudades, pueblos o naciones. Los enlaces se
realizan con instalaciones de telecomunicaciones públicas y privadas,
además por microondas y satélites.
Como funciona
Internet
En Internet, las comunicaciones
concretas se establecen entre dos puntos: uno es el ordenador
personal desde el que usted accede y el otro es cualquiera de los
servidores que hay en la Red y facilitan
información.
El fundamento de Internet es el TCP/IP, un
protocolo de transmisión que asigna a cada máquina
que se conecta un número específico, llamado
"número IP" (que
actúa a modo de "número teléfono
único") como por ejemplo 192.555.26.11.
El protocolo TCP/IP sirve para establecer una
comunicación entre dos puntos remotos mediante el
envío de información en paquetes. Al transmitir un
mensaje o una página con imágenes, por ejemplo, el
bloque completo de datos se divide en pequeños bloques que
viajan de un punto a otro de la red, entre dos números IP
determinados, siguiendo cualquiera de las posibles rutas. La
información viaja por muchos ordenadores intermedios a
modo de repetidores hasta alcanzar su destino, lugar en el que
todos los paquetes se reúnen, reordenan y convierten en la
información original. Millones de comunicaciones se
establecen entre puntos distintos cada día, pasando por
cientos de ordenadores intermedios.
La gran ventaja del TCP/IP es que es inteligente. Como
cada intercambio de datos está marcado con números
IP determinados, las comunicaciones no tienen por qué
cruzarse. Y si los paquetes no encuentran una ruta directa, los
ordenadores intermedios prueban vías alternativas. Se
realizan comprobaciones en cada bloque para que la
información llegue intacta, y en caso de que se pierda
alguno, el protocolo lo solicita de nuevo hasta que se obtiene la
información completa.
TCP/IP es la base de todas las máquinas y
software sobre el que funciona Internet: los programas de correo
electrónico, transferencia de archivos y
transmisión de páginas con texto e
imágenes y enlaces de hipertexto. Cuando es necesario, un
servicio automático llamado DNS convierte
automáticamente esos crípticos números IP a
palabras más inteligibles (como www.universidad.edu) para
que sean fáciles de recordar.
Toda Internet funciona a través de TCP/IP, y
razones históricas hacen que está muy ligado al
sistema operativo
Unix (y sus
variantes). Por fortuna, los usuarios actuales no necesitan tener
ningún conocimiento
de los crípticos comandos Unix
para poder navegar
por la Red: todo lo que necesitan es un ratón.
Conexión
Generalmente se accede a Internet a través de la
línea telefónica, pero también es posible
hacerlo mediante un cable de fibra óptica.
Si la línea telefónica dispone de un conector en la
pared para instalar el teléfono, también se puede
conectar a el un MODEM que
salga de la
computadora. Para seguir conectado y mientras hablar por
teléfono, casi todos los módems tienen dos
conectores: teléfono y línea. La conexión a
Internet requiere disponer de cinco elementos: una computadora,
un MODEM, un programa que efectúe la llamada
telefónica, otro programa para navegar en la Red y
una empresa
proveedora de Internet que realice la función de
servidor o intermediario.
Qué es
HTML
Estas siglas significan Hiper Text Markup Language
(Lenguaje de Marcas de
Hipertextos). Es el que permite saltar de una página a
otra en un mismo documento o hacia otro que podría
está localizado al extremo opuesto del planeta.
A estos textos, que no son continuos ni lineales y que
se pueden leer como saltando las páginas hacia cualquier
lado se les llama hipertexto o hipermedia (expresión que
comprende todos los contenidos posibles, es decir, textos, audio,
imágenes, iconos y vídeos). Los browser o navegadores
permiten visualizar la forma amena y atractiva, toda la
información en la pantalla del monitor.
Para qué
sirve Internet
Uno de los usos más obvios es el del correo
electrónico: enviar y recibir mensajes a cualquier otra
persona conectada sin necesidad de cartas,
teléfonos, faxes o contestadores, con la ventaja de
recibir información editable o archivos especiales (de
tratamiento de texto, hojas de
cálculo, etc.) con los que trabajar. El correo
electrónico es rápido y efectivo, y al haberse
convertido en algo global, es casi tan importante como el fax o
el teléfono.
Otra de las utilidades más comunes es el
entretenimiento: los usuarios encuentran en los grupos de
noticias de
Usenet, en las listas de correo y en el IRC una forma de
comunicarse con otras personas con las que comparten intereses y
aficiones. No tienen por qué ser necesariamente temas
técnicos: hay grupos de charlas sobre cualquier tema
imaginable, desde las más modernas técnicas
de programación de ordenadores hasta series de
televisión, y grupos de aficionados a un
tipo determinado de coches o música. Están
presentes los que examinan detalle a detalle series de
televisión o películas, o los que adoran la ciencia o
el arte.
También hay mucha información para grupos
específicos de personas que pertenecen a grupos marginales
y que de otro modo ven limitada su comunicación,
así como infinidad de proyectos de
participación.
Para los usuarios de ordenadores personales, Internet
está repleta de archivos y programas de
distribución pública, que pueden usar de forma
gratuita (o del tipo "paga-si-te-gusta"), incluyendo utilidades,
aplicaciones y juegos.
Internet también se presenta como un vasto
almacén
de información. Hay miles de bases de datos y
recopilaciones de información sobre todos los temas
imaginables: médicos, históricos,
periodísticos y económicos.
Se puede acceder a la bolsa en tiempo real y a los
periódicos del día. Los documentos FAQ
(Preguntas frecuentes) recogen para los principiantes todas las
preguntas habituales sobre asuntos concretos, desde el
paracaidismo hasta la magia o la programación
en C++, y son una fuente inagotable de información
junto con los archivos de mensajes públicos de Usenet. Las
empresas incluyen su información corporativa y de productos en
la World Wide Web, hay bibliotecas con
libros y
artículos de revistas, y cada vez son más los
periódicos y agencias de noticias que lanzan sus materiales a
Internet.
En general, el ámbito universitario es el que
más se beneficia de Internet: se puede investigar en
profundidad cualquier tema imaginable, localizar artículos
y personas de todo el globo que compartan proyectos e intereses,
y establecer con ellos una comunicación diaria. Y aunque
no sea usted estudiante, toda esa información está
allí para que pueda buscarla y usarla.
Las empresas usan Internet para dar a conocer sus
productos y servicios, para hacer publicidad y para
estar más cerca de sus clientes o
usuarios. Los particulares la usan también para publicar
cualquier información que consideran interesante o
creativa, y es sorprendente lo bien que funciona el hecho de que
cualquier persona, con muy pocos medios, pueda convertirse en su
propio editor de materiales multimedia.
Web
La World Wide Web (la "telaraña" o "maraña
mundial") es tal vez el punto más visible de Internet y
hoy en día el más usado junto con el correo
electrónico, aunque también es de los más
recientes. Originalmente denominado Proyecto WWW y desarrollado
en el CERN suizo a principio de los 90, partió de la idea
de definir un "sistema de hipermedios distribuidos." Y a buen
seguro que lo
consiguió.
La WWW puede definirse básicamente como tres
cosas: hipertexto, que es un sistema de enlaces que permite
saltar de unos lugares a otros; multimedia, que hace referencia
al tipo de contenidos que puede manejar (texto, gráficos, vídeo, sonido y otros) e
Internet, las base sobre las que se transmite la
información.
El aspecto exterior de la WWW son las conocidas
"páginas
Web." Una ventana muestra al
usuario la información que desea, en forma de texto y
gráficos, con los enlaces marcados en diferente color y
subrayados. Haciendo un clic con el ratón se puede
"saltar" a otra página, que tal vez esté instalada
en un servidor al otro lado del mundo. El usuario también
puede "navegar" haciendo pulsando sobre las imágenes o
botones que formen parte del diseño de la
página.
Las páginas de la WWW están situadas en
servidores de todo el mundo (sitios Web), y se accede a ellas
mediante un programa denominado "navegador" (browser). Este
programa emplea un protocolo llamado HTTP, que
funciona sobre TCP/IP, y que se encarga de gestionar el aspecto
de las páginas y los enlaces.
Cada página Web
tiene una dirección única en Internet, en forma de
URL. Un URL indica el tipo de documento (página Web o
documento en formato HTML), y el de
las páginas hipertexto de la WWW comienza siempre por
http.
La Web proporciona algunas opciones interesantes: se
puede circular saltando de un sitio a otro y volviendo
rápidamente a los sitios que se acaban de visitar. La
información puede presentarse en forma de tablas o
formularios.
El usuario puede en esos casos completar campos (por ejemplo, una
encuesta) y
enviarlos por correo electrónico con sólo hacer
clic sobre el botón "enviar" que ve en su pantalla. La Web
también facilita el acceso a información
gráfica, películas o sonido de forma
automática.
La Web es el lugar de Internet que más
crecimiento está experimentando últimamente: se
calcula que hay más de 50 millones de páginas Web
en la Red, y su número crece a un ritmo vertiginoso. La
Web, al facilitar la búsqueda de información, ha
hecho que otros servicios de Internet como Gopher, Archie o WAIS
se usen cada vez menos.
Cada vez son más las empresas que publican
información en la Web. Y encontrarla es también
cada vez más fácil: casi todos los nombres de los
sitios Web comienzan por el URL que indica que se trata una
página Web en formato HTML (http://) seguido de las letras
características de la Web (WWW), el nombre de la empresa (por
ejemplo, .IBM) y terminan con el identificador de empresa (.com) o
país (.es). Es decir, si usted conecta con
http://www.ibm.com visitará las páginas de
IBM en Estados Unidos, y
con http://www.ibm.es, las de IBM España.
Pocas son las empresas de gran tamaño que no tienen su
propia página Web hoy en día. Parte de la gran
potencia de la
Web también proviene del hecho de que cada vez es
más fácil publicar material en la Web e Internet,
no sólo acceder a lo que ya está allí.
Existen programas gratuitos y comerciales para crear
páginas HTML para la Web (similares a los programas de
autoedición, sin necesidad de programación), y
alquilar espacio en un servidor al que enviar las páginas
es cada vez más barato y accesible. Hoy en día,
cualquiera puede publicar cualquier lo que desee con un
mínimo esfuerzo, y ponerlo al alcance de millones de
personas.
Aspectos
tecnológicos de Internet
Para tener una idea clara del concepto de WWW, es
fundamental tener algunas nociones básicas sobre lo
que es
Internet. Internet es el nombre que recibe la red de
ordenadores más extensa que existe en la actualidad. Se
trata, en realidad, de una red de redes interconectadas que,
gracias a unas normas y
estándares comunes pueden comunicarse e intercambiar
información todos los ordenadores conectados a dicha red.
La arquitectura que da soporte a Internet es la denominada
cliente/servidor,
esto es, unos ordenadores almacenan la información (los
ordenadores servidores) y otros acceden a ella (los ordenadores
clientes).
El protocolo más básico de Internet -o
paquete de protocolos– es el
protocolo TCP/IP (Transfer Control Protocol/Internet Protocol).
Cualquier otro protocolo de Internet se basa en IP o le sirve de
base.
El funcionamiento del protocolo TCP/IP es el siguiente.
Primero, el protocolo TCP (Transmision Control Protocol)
fragmenta los datos en paquetes de información.
Después, estos paquetes son enviados a la red,
posiblemente sobre rutas diferentes, según el IP (el
Protocolo de Internet). Finalmente, estos paquetes se
vuelven a recomponer en el destino (o se restauran en caso de
corrupción o pérdida de datos) en su
orden correcto de llegada.
Para que sea posible la
comunicación entre ordenadores, es necesario que cada
máquina posea una identificación única.
Así, cada ordenador conectado a Internet tiene un
número IP y una DNS (Domain Name Server), el primero se
expresa con números y el segundo con
letras.
En el contexto de Internet, el ordenador es más
que un dispositivo para el cómputo o para el procesamiento
de textos, se trata de un instrumento que suministra una
plataforma para el sistema operativo y para las aplicaciones de
software que soportan la transmisión de información
en red y su utilización por parte del usuario.
En Internet, las relaciones entre ordenadores siguen
comúnmente el modelo de
servidor-cliente. Igual que los protocolos TCP/IP, el modelo de
servidor-cliente es una característica que homogeniza la
comunicación en Internet. Un servidor es un ordenador
junto con un hardware asociado y las aplicaciones de software que
actúan como un depósito para los archivos de la
información o los programas de software.
El servidor envía esta información
respondiendo a una petición de los usuarios del software
cliente a través de la red.
La comunicación de servidor-cliente
también sigue un conjunto de protocolos. Estos protocolos
definen un uso particular que usan cliente y servidor. Por
ejemplo, el protocolo Gopher de Internet, hoy en desuso,
definía un uso para estructurar la información en
un sistema de menús, submenús y entradas. Un
usuario de un cliente Gopher hacía una petición
para obtener una lista de artículos de menú a un
servidor Gopher. El servidor Gopher devolvía esta lista y
el cliente Gopher mostraba la lista al usuario. En la actualidad,
esta misma función la realiza el protocolo HTTP de la
World Wide Web.
Los distintos protocolos sirven, pues, para ofrecer una
gran variedad de . Los más utilizados son: la transferencia
de archivos, el correo electrónico y el protocolo de la
Web, pero existen otros muchos. Cada uno cuenta con aplicaciones
clientes que hacen más fácil su
uso.
La forma distribuida de servidor-cliente funciona muy
eficazmente, ya que el software de cliente actúa
recíprocamente con el servidor según un protocolo
de intercambio de datos estándar. El servidor no tiene que
"preocuparse" del hardware o las particularidades de software del
ordenador sobre el que el que reside el software del cliente. Por
su parte, el software del cliente no tiene que "preocuparse" de
cómo solicita la información un tipo particular de
servidor, puesto que todos los servidores de un protocolo
particular se comportan de la misma forma.
Por ejemplo, un cliente de Web que puede tener acceso a
cualquier servidor de Web puede ser desarrollado para ordenadores
Macintosh. Este mismo servidor de Web podría ser accedido
por un cliente de Web soportado sobre un terminal de trabajo
Windows que
controla un sistema Unix. Esto hace más fácil
desarrollar la información porque las versiones de la
información distribuida de un servidor no tienen que ser
desarrolladas para una plataforma de hardware particular. Todas
las personalizaciones necesarias para el ordenador del usuario se
escriben en el software del cliente para aquella
plataforma.
El modelo de servidor-cliente es la
característica clave para la comunicación en
Internet. Un mensaje sobre Internet es codificado, almacenado y
transmitido según las reglas de uso del servidor-cliente y
el paquete de protocolos TCP/IP.
Para acceder a los archivos concretos dentro de un
servidor es necesario conocer dónde están ubicados
estos y para ello es preciso dotarlos de una dirección.
Esta dirección es la URL o Universal Resource Locator) que
está compuesta de los siguientes elementos: el protocolo
seguido del signo de dos puntos y una doble barra inclinada,
nombre de la máquina (número IP o DNS), directorio
y subdirectorios, y archivo. Por
ejemplo:
http://www.hipertexto.info/internet_tegn.htm
Veamos con más detalle algunos de los conceptos
básicos que hay que conocer para comprender
Internet:
PROTOCOLOS | OTROS CONCEPTOS |
| URLs Direcciones IP DNS (Domain Name Nombres de dominio Principales organismos de Organismos a nivel global |
Protocolos
En informática, un protocolo no es más
que un conjunto de reglas formales que permiten a dos
dispositivos intercambiar datos de forma no ambigua. Un protocolo
es, pues, un conjunto de reglas que permiten intercambiar
información. El ordenador conectado a una red usa
protocolos para permitir que los ordenadores conectados a la red
puedan enviar y recibir mensajes, y el protocolo TCP/IP define
las reglas para el intercambio de datos sobre Internet. Este
conjunto de protocolos, al principio se desarrolló para
un proyecto de
investigación del Departamento de Defensa de los
Estados Unidos, e integra un conjunto de servicios (que incluyen
correo electrónico, la transferencia de archivos y la
conexión remota) y que puede establecerse entre muchos
ordenadores sobre una red local o en redes de un área
más amplia.
Las redes conectadas por donde pasa el paquete de
protocolos TCP/IP son sumamente robustas. Si una sección
de la red (o un servidor de ordenador en la red) se convierte en
inoperativo, los datos pueden ser desviados sin causar daño a
la red. La homogeneidad del protocolo es la esencia de la
comunicación de Internet en el nivel de los datos.
Mediante la cooperación de las conexiones de redes y el
protocolo TCP/IP pueden conectarse sistemas de
comunicación más y más grandes. Las organizaciones
individuales pueden controlar su propia red TCP/IP (internet) y
conectarla con otras redes de Internet locales, regionales,
nacionales y globales. Internet comparte el paquete de protocolos
TCP/IP, sin embargo, Internet no es una red, sino una red de
redes, un sistema organizado y distribuido cooperativamente a
escala mundial
para intercambiar información.
Internet no es la única red global, hay otras
redes globales que emplean protocolos diferentes, pero pueden
intercambiar datos con Internet mediante puntos de intercambio
llamados galerías o gateways. La comunicación de
redes que no son Internet y que fluye en un punto de
entrada es traducida a protocolos de comunicaciones de Internet y
reexpedida a su camino, indistinguible de los paquetes que crea
TCP enviando un mensaje directamente sobre Internet. De la misma
manera, la comunicación puede fluir de Internet a otros
puntos de entrada o gateways de la misma manera: los paquetes de
Internet son traducidos a los protocolos de no-Internet
necesarios para la comunicación sobre la otra
red.
El correo electrónico es una forma popular de
comunicación que se realiza a través de estas
galerías o gateways. Mediante las gateways de correo
electrónico, los usuarios sobre Internet pueden
intercambiar correo electrónico con otros usuarios sobre
redes que no son de Internet, como las que se utilizaban en los
primeros tiempos de la red como BITNET (Because Its Time
Network), UUCP (Unix-Unix Copy Protocol), y FidoNet (red basada
en la comunicación de PCs sobre líneas
telefónicas). Los usuarios de Internet también
pueden intercambiar correo electrónico con muchos
servidores. El resultado es que el correo electrónico se
disemina libremente en todas partes de Internet, así como
en muchas otras redes. La colección resultante de redes
mundiales que intercambian correo electrónico ha sido
denominada Matrix.
Aunque el flujo libre de correo electrónico haga
difícil la distinción entre la comunicación
de Internet y la comunicación de no-Internet en Matrix, la
distinción entre Internet y Matrix para muchas otras
formas de comunicación es crucial. Por ejemplo, la
comunicación que usaba el protocolo Gopher de Internet no
puede ser compartida fácilmente fuera de Internet.
Asimismo Telnet, FTP (el
Protocolo de Transferencia de Archivos) y la comunicación
de World Wide Web está restringida, en la mayor parte de
casos, a los usuarios de Internet. Los servicios comerciales en
línea, reconociendo el valor de acceso a Internet para sus
clientes, han estado creando
más clases de entradas (gateways) a Internet que permiten
a sus usuarios tener acceso a Telnet, FTP y la World Wide Web en
Internet.
El resultado de esta mezcla de redes globales ha hecho
que el protocolo de Internet se convierta en una especie de
lengua franca
del ciberespacio, creando puntos en común con otras muchas
redes en línea que se unen mediante las susodichas
gateways.
Los protocolos TCP/IP permanecieron bajo secreto militar
hasta 1989. La World Wide Web llegó en 1991.
Los protocolos son, pues, una serie de reglas que
utilizan los ordenadores para comunicarse entre sí. El
protocolo utilizado determinará las acciones
posibles entre dos ordenadores. Para hacer referencia a ellos en
el acceso se escribe el protocolo en minúsculas seguido
por "://". Por ejemplo, http://www.hipertexto.info,
ftp://ftp.hipertexto.info, etc.
Estos son los protocolos más
habituales:
TCP/IP. Tansmision Control Protocol/Internet
Protocol:
Transmision Control Protocol o Protocolo de Control de
Transmisión fragmenta los datos en paquetes de
información. Después, estos paquetes son enviados a
la red, posiblemente sobre rutas diferentes. El IP es el
protocolo más básico de Internet, y provee todos
los servicios necesarios para el transporte de
datos. Cualquier otro protocolo de Internet se basa en IP o le
sirve de base.
Fundamentalmente IP provee:
Direccionamiento: Las cabeceras IP
contienen las direcciones de las máquinas de origen y
destino (direcciones IP), direcciones que serán usadas
por los enrutadores (routers) para decidir el tramo de red
por el que circularán.Fragmentación: Si la
información a transmitir ("datagramas") supera el
tamaño máximo "negociado" (MTU) en el tramo de
red por el que va a circular podrá ser dividida en
paquetes más pequeños, y reensamblada luego
cuando sea necesario.Tiempo de Vida de Paquetes: Cada
paquete IP contiene un valor de Tiempo de Vida (TTL) que va
disminuyendo cada vez que un enrutador recibe y
reenvía el paquete. Cuando este valor llega a ser de
cero, el paquete deja de ser reenviado (se
pierde).Tipo de Servicio: Este es un valor sin
definición previa pero que puede indicar, por ejemplo,
la prioridad del paquete.Otras opciones: Valores sin contenido
definido previamente que se pueden utilizar, por ejemplo,
para que la máquina de origen especifique la ruta que
debe seguir el paquete, o para que cada enrutador agregue su
propia dirección (para realizar seguimiento de ruta),
o para indicar opciones de seguridad de la información
contenida, etc.
El IPv6 será la próxima generación
de protocolos de Internet y ya está en marcha. Este
protocolo se ha desarrollado para ampliar la capacidad de
conexión debido al crecimiento de dispositivos y al
aumento de equipos portátiles. Y así,
ofrecerá la infraestructura necesaria para
teléfonos móviles, agendas PDA,
electrodomésticos, etc.
La mayor diferencia entre la versión de IP
utilizada actualmente (IP versión 4) e IPv6 radica en el
espacio de direcciones más grande que admite IPv6. IPv6
admite direcciones de Internet de 128 bits, mientras que IP
(versión 4) lo hace a 32 bits, además de
ofrecer una configuración más simple y una mayor
seguridad.
Por su parte, el protocolo TCP proporciona un servicio
de comunicación que forma un circuito, es decir, hace
fluir los datos entre el origen y el destino para que sea
continuo. Este circuito virtual es lo que se denomina
conexión. Así, TCP conecta los ordenadores o
programas -loa llamados y los que llaman-, chequea los errores,
controla el flujo y tiene capacidad para
interrumpirlos.
FTP:
File Transfer Protocol o Protocolo de transferencia de
archivos . Es un protocolo que define cómo transferir
archivos de un ordenador a otro, de un servidor remoto a un
servidor local o viceversa. Se precisa un servidor de FTP y un
cliente de FTP. Los servidores pueden ser de libre acceso con un
login o FTP anónimo. El FTP anónimo es un servidor
público de FTP al cual tiene acceso cualquier usuario de
Internet sin necesidad de utilizar ninguna contraseña. Se
puede utilizar desde un navegador web aunque hay programas
específicos como CuteFTP. La mayoría de las
páginas web son "subidas" a los servidores respectivos
utilizando este protocolo para transferir los archivos desde el
ordenador que ha confeccionado las páginas web hasta el
servidor.
Diagrama del modelo FTP
de transferencia de archivos
HTTP:
HyperText Transfer Protocol o Protocolo de
Transferencia de Hipertextos. Es el protocolo utilizado por los
servidores de la World Wide Web desde el nacimiento de la Web en
1990. El protocolo HTTP es el que permite el intercambio de
información hipertextual (enlaces) de las páginas
web. Se trata de un protocolo genérico orientado a
objetos, que puede usarse para muchas tareas como servidor de
nombres y sistemas
distribuidos orientados a objetos, por extensión de
los comandos o los métodos usados. Una de sus
características principales es la independencia
en la visualización y presentación de los datos, lo
que permite que los sistemas sean construidos independientemente
del desarrollo de nuevos avances en la representación de
los datos. Para visualizar los datos de la Web se precisa de un
navegador instalado en la máquina del ordenador
cliente. En este protocolo existen una serie de conceptos tales
como:
Conexión: es el circuito virtual
establecido entre 2 programas en una red de
comunicaciónMensaje: es la unidad básica de un
protocolo HTTP y consiste en una secuencia estructurada que
se tramite entre los programasCliente: es el programa que hace la llamada al
servidor y es el que atiende en la transmisión la
trama de los mensajesServidor: es el programa que presta el
servicio en la redProxy: se trata de un programa intermedio que
actúa sobre el servidor y el cliente
Así, pues, el protocolo HTTP se basa en la
conexión entre cliente y servidor. Una transacción
HTTP consiste básicamente en:
Conexión: establecimiento de una
conexión del cliente con el servidor. El puerto TCP/IP
80 es el puerto más conocido, pero se pueden
especificar otros puertos no reservados.Solicitud: envío por parte del cliente
de un mensaje de solicitud al servidor.Respuesta: envío por parte del servidor
de una respuesta al cliente.Cierre: fin de la
conexión por parte del cliente y el
servidor.
SMTP (mail)
EL SMTP Simple Mail Transfer Procol o Protocolo de
Transmisión de Correo Simple es el protocolo que nos
permite recibir correos electrónicos y, junto con el
protocolo POP (Post Office Protocol)
o Protocolo de Oficina de Correos, usado por los ordenadores
personales para administrar el correo electrónico, nos
permitirá bajarnos los mensajes a nuestro ordenador. Para
la mensajería instantánea se usa ahora el protocolo
IMAP Internet Messagins Access
Protocol (Protocolo de mensajería instantánea en
Internet), más sofisticado que el protocolo
POP.
NEWS (NNTP):
Network News Tranfer Protocol. Protocolo de
transferencia de sistemas de redes de news o noticias. Se trata
de un foro de
discusión por temas en forma de tablón de anuncios
que cuenta con sus propios servidores y sus propios programas.
Generalmente, el mismo programa que gestiona correos
electrónicos, sirve para gestionar las news o
noticias.
IRC:
IRC o Internet Relay Chat es un
protocolo de comunicación que permite conversaciones
(chats) y debates en grupo o en privado, en tiempo real
siguiendo la arquitectura del modelo cliente-servidor, pero
formándose redes entre los servidores para acoger a
más usuarios. Las conversaciones se desarrollan en los
denominados canales de chat. Se entra en ellos adoptando un
nickname o apodo y existen personas encargadas de crear y
mantener los canales (los llamados CS o Chan Service), personas
encargadas de mantener la red (IRCop), usuarios con privilegios
de administrador del
canal (Op) e incluso robots (Bot) que automatizan los servicios
del canal. Existen muchos servidores de IRC. Algunos de ellos
son: irc.
Para acceder a uno de estos servicios como usuario se
requiere de un programa o cliente de IRC. Actualmente este
servicio también se presta a través de la interfaz
de la World Wide Web y existen también otros programas de
mensajería integral que permiten conjuntamente prestaciones
de mensajería rápida, correo electrónico,
audioconferencia, videoconferencia, asistencia remota y otras
prestaciones.
TELNET:
Protocolo que permite la conexión remota a
otro ordenador y que permite manejarlo como si se estuviese
físicamente ante él. Así, es posible
arreglar fallos a distancia o consultar datos en la otra
máquina.
Ha sido un sistema muy utilizado por las grandes
bibliotecas y centros de documentación como modo de acceso a sus
catálogos en línea. Sin embargo, dejó de
usarse hace unos años, cuando apareció y se
popularizó el SSH (Secure Shell), que puede describirse
como una versión cifrada de telnet. Uno de los mayores
problemas de
TELNET era la seguridad, ya que los nombres de usuario y
contraseñas viajaban por la red sin cifrar. Para que la
conexión funcionara, la máquina a la que se accede
debía tener un programa especial que recibía y
gestionaba las conexiones. El programa, al igual que el
protocolo, también se denomina TELNET.
GOPHER:
Es un sistema de entrega de
información distribuido que hoy se ha dejado de utilizar.
Utilizando gopher era posible acceder a información local
o bien a servidores de información gopher de todo el
mundo. Permitía establecer una jerarquía de
documentos, y búsquedas en ellos por palabras o frases
clave. Su nombre se debe a la mascota -un topo- de la Universidad
de Minessotta, donde fue creado, aunque otros autores sugieren
que es una deformación de la frase goes-fer (busca). Fue
el precursor de la Web al resolver el resolver el problema de
cómo ubicar los recursos en Internet reduciendo todas las
búsquedas a menús y submenús.
Otros conceptos
básicos
URLs (Unit Resource
Locator)
La dirección completa de una página web se
denomina URL (Uniform Resource Locator) o localizador uniforme de
recursos, mientras que la dirección del servidor se conoce
como DNS (Domain Name System) o nombre de dominio.
La URL no es más que la dirección electrónica para poder acceder a un recurso
en un servidor remoto. El tipo más común de URL es
el de las páginas web, con la dirección http://,
pero existen otras direcciones URL como ftp://, que proporciona
la ubicación de red de un recurso FTP para poder
transferir archivos, y existen otros muchos tipos de recursos.
Los siguientes esquemas son algunos reconocidos por la RFC
(Request For Comments) y aprobados por la Internet Society
(ISOC):
ftp – "File Transfer protocol"
http – "HyperText Transfer
Protocol"gopher – El protocolo Gopher
mailto – Dirección de Correo
Electróniconews – "USENET news"
nntp – "USENET news" usando acceso
NNTPtelnet – Sesiones interactivas
wais – "Wide Area Information
Servers"file – Nombres de fichero específicos
de un host
Como para visualizar las páginas web se emplea el
protocolo HTTP (Hypertext Transfer Protocol), normalmente los
navegadores asumen por defecto el protocolo HTTP y no es
necesario teclear http:// al introducir las direcciones URL, sin
embargo, como ya hemos afirmado, también se emplean otros
protocolos como el FTP,
Los nombres pueden ser muy largos o muy sencillos,
dependiendo de la ruta de los directorios y subdirectorios que
hay que seguir para localizar la página:
Protocolo/Nombre de dominio
internacional/Directorio/Subdirectorio/Subdirectorio/Archivo
Hablamos de una URL absoluta cuando la dirección
completa de Internet correspondiente a una página o
recurso de la World Wide Web. La dirección URL absoluta
incluye un protocolo, como "http", una ubicación en la red
y una ruta de acceso y un nombre de archivo opcionales. Por
ejemplo, http://www.hipertexto.info es una
dirección URL absoluta.
Veamos una URL desglosada:
http://www.hipertexto.info/documentos/hipertexto.htm
Protocolo/ Nombre de dominio internacional/ Directorio/
Subdirectorio/Archivo
DNS (Domain Name System)
La DNS (Domain Name System) o sistema de nombres de
dominio es el que permite localizar una dirección en
Internet. En realidad, el sistema de nombres de dominio se
creó para facilitar la navegación, pues no es
más que el alias de las direcciones IP, que al constar de
grupos de cuatro números son difíciles de recordar.
Cada dirección IP tiene, pues, asignado un nombre de
dominio. (Se trata de un ejemplo ficticio)
Dirección IP: 121.120.10.1
DNS: www.hipertexto.info
La DNS consiste en una serie de tablas de equivalencias
entre dominios y direcciones IP. Estas tablas están
distribuidas por servidores repartidos en Internet y que se
actualizan de forma continua. Los ordenadores permanentemente
conectados a Internet (los servidores) tienen direcciones fijas,
pero los que se conectan de forma ocasional (clientes) reciben
una dirección IP de forma ocasional cada vez que se
conectan por parte de sus respectivos servidores. Las palabras
que forman un nombre de dominio responden a una jerarquía
organizada de derecha a izquierda: Dominio 3er nivel.
Dominio de 2º nivel. Dominio de 1er nivel
Nombres de dominio
Antecedentes del
Internet 2
La Internet de hoy es el fruto de proyectos de
investigación y colaboración entre
Universidades norteamericanas por los años sesenta. Estos
proyectos tuvieron un fuerte apoyo económico de empresas y
entidades gubernamentales de los Estados Unidos. Así,
Internet inicialmente fue una red académica orientada a la
colaboración e investigación entre las distintas
Universidades que conformaban esta red. Con el tiempo esta red
académica evolucionó hasta lo que hoy es Internet,
el medio de comunicación más masivo del
planeta.
La red central de Internet (en sus comienzos ARPAnet)
pasó a ser NSFnet y hasta hoy es el backbone de Internet.
Sin embargo luego de su privatización en conjunto con la
explosión de Internet se deterioró su servicio y
frecuentemente se congestiona. Esto por supuesto ha tenido un
impacto negativo en el quehacer para el cual Internet
inicialmente fue creada, la colaboración e
investigación académica.
Un proyecto similar al de los años sesenta se
está llevando a cabo actualmente entre alrededor de 190
Universidades a lo largo del mundo. El proyecto tiene como
principal objetivo el
proveer a la comunidad académica de una red entendida para
la colaboración e investigación entre sus distintos
miembros y con esto permitir el desarrollo de aplicaciones y
protocolos que luego puedan aplicarse a la Internet de todos.
INTERNET 2
Es una red de cómputo sustentada en
tecnologías de vanguardia que
permiten una alta velocidad en la transmisión de
contenidos y que funciona independientemente de la Internet
comercial actual.
El uso de Internet como herramienta educativa y de investigación científica ha crecido
aceleradamente debido a la ventaja que representa el poder
acceder a grandes bases de datos, la capacidad de compartir
información entre colegas y facilitar la
coordinación de grupos de trabajo.
Internet 2 (También conocida como I2), es una red de
cómputo con capacidades avanzadas separada de la Internet
comercial actual. Su origen se basa en el espíritu de
colaboración entre las universidades del país y su
objetivo principal es desarrollar la próxima
generación de aplicaciones telemáticas para
facilitar las misiones de investigación y educación de las
universidades, además de ayudar en la formación de
personal capacitado en el uso y manejo de redes avanzadas de
cómputo.
Algunas de las aplicaciones en desarrollo dentro del proyecto
de Internet 2 a
nivel internacional son: telemedicina,
bibliotecas digitales, laboratorios virtuales,
manipulación a distancia y visualización de
modelos 3D;
aplicaciones todas ellas que no serían posibles de
desarrollar con la tecnología del Internet de hoy.
En los Estados Unidos el proyecto que lidera este desarrollo
es Internet2, en Canadá el proyecto
CAnet3http://www.canet3.net//t_blank, en Europa los
proyectos TEN-155 y GEANT, y en Asia el proyecto
APAN. Adicionalmente, todas estas redes están conectadas
entre sí, formando una gran red avanzada de alta velocidad
de alcance mundial.
En Latinoamérica, las redes académicas
de México
CUDI, Brasil, Argentina
RETINA y Chile REUNA ya se han integrado a Internet2.
El proyecto Internet2 es administrado por la UCAID
(Corporación Universitaria para el Desarrollo Avanzado de
Internet) y es un esfuerzo de colaboración para
desarrollar tecnología y aplicaciones avanzadas en
Internet, vitales para las misiones de investigación y
educación de las instituciones
de educación
superior.
El backbone de Internet2 (la red Abilene y la red vBNS)
tiene velocidades que superan los 2 Gbps, y las conexiones de las
universidades a este backbone varían entre 45 Mbps y 622
Mbps
Diferencias del
Internet 2 con el Internet actual
Además de que las redes que serán usadas
por Internet2 serán más rápidas, las
aplicaciones desarrolladas utilizaran un completo conjunto de
herramientas
que no existen en la actualidad. Por ejemplo, una de estas
herramientas es comúnmente conocida como la
garantía "Calidad de
servicio". Actualmente, toda información en Internet
viene dada con la misma prioridad como si ésta pasara a
través de toda la red de un ordenador a otro. "Calidad de
servicio" permitirá a las aplicaciones requerir un
especifica cantidad de ancho de banda o prioridad para ella. Esto
permitirá a dos ordenadores hacer funcionar una
aplicación como la tele-inmersión comunicarse a las
altas velocidades necesarias para una interacción en tiempo real. Al mismo
tiempo, una aplicación con unas necesidades de
comunicación como la World Wide Web sólo necesita
usar la velocidad de transmisión necesaria para funcionar
adecuadamente.
Es importante resaltar la diferencia en velocidad que
tendrá, mucho más que una rápida WWW. Se
piensa que una red de 100 a 1000 veces más
permitirá a las aplicaciones cambiar el modo de trabajar e
interactuar con los ordenadores. Aplicaciones como la
tele-inmersión y las bibliotecas digitales cambiaran el
modo que tiene la gente de usar los ordenadores para aprender,
comunicarse y colaborar. Quizás las más excitantes
posibilidades son aquellas que todavía no se han imaginado
y serán desarrolladas junto con Internet2.
OBJETIVOS
El objetivo principal de Internet2 es facilitar y
coordinar el desarrollo, despliegue, operación y
transferencia tecnológica de servicios y aplicaciones de
red avanzadas para promover la educación superior
y acelerar la disponibilidad de nuevos servicios y aplicaciones
en Internet.
Hacer posible una nueva generación de
aplicaciones.Crear una línea de investigación y
educación por medio de la red.Otorgar nuevas capacidades a la producción en
Internet.Demostrar una mejora en el reparto de la
educación y otros servicios como la salud,
atención medica y monitoreo ambiental, tomando ventaja
de la "proximidad virtual" creada por un alta infraestructura
en comunicaciones.Alentar a implementar la tecnología de
Internet 2 al resto de Internet.Fomentar el impacto estudiantil tanto en servicios
como aplicaciones en educación superior y a la
comunidad que utiliza Internet en general.
Arquitectura del
Internet 2
Toda la arquitectura para la infraestructura de
Internet2 se basa en unas cuantas consideraciones técnicas
y prácticas. Una de éllas es la necesidad de
minimizar los costes totales para las universidades participantes
proporcionando el mismo circuito de conexión local de alta
capacidad para el acceso, tanto a la Internet comercial como a
los servicios avanzados. Además, podrán
incorporarse otros proyectos y programas universitarios mediante
una arquitectura flexible de interconexión regional. Por
ejemplo, un servicio de red de área metropolitana
podría ofrecer servicio Internet de alta capacidad a
estudiantes y a residencias de las facultades, y la universidad
necesitaría una interconexión de gran capacidad con
ese servicio.
Para servicios avanzados de área extensa, un solo
servicio de interconexión entre gigapops (probablemente el
vBNS patrocinado por la NSF) sería suficiente en un
principio. Un número determinado de proveedores de
servicios sería capaz de ofrecer servicios avanzados a
medida que las tecnologías se fueran transfiriendo al
sector privado. El diseño de Internet2 debe optimizar la
capacidad de las universidades para adquirir servicios prestados
por la más amplia variedad de proveedores.
En la figura 1 se muestra la arquitectura completa de
Internet2. El nuevo elemento clave en esta arquitectura es el
gigapop (de gigabit capacity point of presence o "punto de
presencia con capacidad de gigabits") – un punto de
interconexión de tecnología avanzada y alta
capacidad donde los participantes de I2 pueden intercambiar
tráfico de servicios avanzados con otros participantes del
proyecto. Las universidades de una determinada región
geográfica se unirán en un gigapop regional para
conseguir una variedad de servicios Internet.
Página anterior | Volver al principio del trabajo | Página siguiente |