- El
Internet - Cómo Funciona el
Internet? - Un
protocolo - Protocolos de Internet
- Cómo funciona el DNS
- Peer-to-Peer
- Riesgos al utilizar Peer to
Peer - Ventajas al usar Peer to
Peer - Conclusión
- Bibliografía
El
Internet
Internet es una red de comunicaciones de cobertura
mundial que posibilita intercambiar información a
ordenadores situados en cualquier parte del mundo.
Internet es un conjunto descentralizado de redes
de comunicación interconectadas que utilizan la familia de
protocolos TCP/IP, garantizando que las redes físicas
heterogéneas que la componen funcionen como una red
lógica única, de alcance mundial. Sus
orígenes se remontan a 1969, cuando se estableció
la primera conexión de computadoras, conocida como
ARPANET, entre tres universidades en California y una en Utah,
Estados Unidos.
Uno de las facetas mas conocidas de Internet, que ha
contribuido enormemente a su popularidad actual, es la "World
Wide Web" o WWW ( se podría traducir como "Telaraña
de Cobertura Mundial"), que permite acceder de forma sencilla a
un enorme volumen de información sin necesidad de un
complejo equipo informático ni de conocimientos
técnicos especiales.
En la WWW las personas que buscan una información
utilizan una herramienta conocida como navegador para acceder a
información de distinto tipo (texto, imágenes,
sonidos, etc.), pasar de una información a otra a la que
se hace referencia, etc.
Sus orígenes se remontan a la década de
1960, dentro de ARPA (hoy DARPA), como respuesta a la necesidad
de esta organización de buscar mejores maneras de usar los
computadores de ese entonces, pero enfrentados al problema de que
los principales investigadores y laboratorios deseaban tener sus
propios computadores, lo que no sólo era más
costoso, sino que provocaba una duplicación de esfuerzos y
recursos. Así nace ARPANet (Advanced Research Projects
Agency Network o Red de la Agencia para los Proyectos de
Investigación Avanzada de los Estados Unidos), que nos
legó el trazado de una red inicial de comunicaciones de
alta velocidad a la cual fueron integrándose otras
instituciones gubernamentales y redes académicas durante
los años 70.
Investigadores, científicos, profesores y
estudiantes se beneficiaron de la comunicación con otras
instituciones y colegas en su rama, así como de la
posibilidad de consultar la información disponible en
otros centros académicos y de investigación. De
igual manera, disfrutaron de la nueva habilidad para publicar y
hacer disponible a otros la información generada en sus
actividades.
En el mes de julio de 1961 Leonard Kleinrock publicó
desde el MIT el primer documento sobre la teoría de
conmutación de paquetes. Kleinrock convenció a
Lawrence Roberts de la factibilidad teórica de las
comunicaciones vía paquetes en lugar de circuitos, lo cual
resultó ser un gran avance en el camino hacia el trabajo
informático en red. El otro paso fundamental fue hacer
dialogar a los ordenadores entre sí. Para explorar este
terreno, en 1965, Roberts conectó una computadora TX2 en
Massachusetts con un Q-32 en California a través de una
línea telefónica conmutada de baja velocidad,
creando así la primera (aunque reducida) red de
computadoras de área amplia jamás construida.
A inicios de los 90, con la introducción de nuevas
facilidades de interconexión y herramientas
gráficas simples para el uso de la red, se inició
el auge que actualmente le conocemos al Internet. Este
crecimiento masivo trajo consigo el surgimiento de un nuevo
perfil de usuarios, en su mayoría de personas comunes no
ligadas a los sectores académicos, científicos y
gubernamentales.
Esto ponía en cuestionamiento la subvención del
gobierno estadounidense al sostenimiento y la
administración de la red, así como la
prohibición existente al uso comercial del Internet. Los
hechos se sucedieron rápidamente y para 1993 ya se
había levantado la prohibición al uso comercial del
Internet y definido la transición hacia un modelo de
administración no gubernamental que permitiese, a su vez,
la integración de redes y proveedores de acceso
privados.
Internet tiene un impacto profundo en el mundo laboral, el
ocio y el conocimiento a nivel mundial. Gracias a la web,
millones de personas tienen acceso fácil e inmediato a una
cantidad extensa y diversa de información en línea.
Un ejemplo de esto es el desarrollo y la distribución de
colaboración del software de Free/Libre/Open-Source (SEDA)
por ejemplo GNU, Linux, Mozilla y OpenOffice.org.
Comparado a las enciclopedias y a las bibliotecas
tradicionales, la web ha permitido una descentralización
repentina y extrema de la información y de los datos.
Algunas compañías e individuos han adoptado el uso
de los weblogs, que se utilizan en gran parte como diarios
actualizables. Algunas organizaciones comerciales animan a su
personal para incorporar sus áreas de
especialización en sus sitios, con la esperanza de que
impresionen a los visitantes con conocimiento experto e
información libre.
Internet ha llegado a gran parte de los hogares y de las
empresas de los países ricos. En este aspecto se ha
abierto una brecha digital con los países pobres, en los
cuales la penetración de Internet y las nuevas
tecnologías es muy limitada para las personas.
Cómo
Funciona el Internet?
El primer paso es lograr su interconexión
física, para lo que se emplean sistemas muy diversos:Redes
de área local, por lo general basadas en el
estándar Ethernet. Son las más utilizadas en redes
corporativas de empresas u organizaciones, con extensiones
menores de 2 Km.Enlaces nacionales, con líneas de usos
exclusivos o compartidos (de una compañía
telefónica).Enlaces internacionales, proporcionados por
compañía de comunicaciones con implantación
internacional. Pueden utilizar cableado convencional, fibra
óptica, satélites, enlaces por microondas,
Además, muchos usuarios utilizan módems para
conectarse desde sus casas, a través de llamadas
telefónicas comunes, a proveedores de comunicaciones que
dan, a su vez, acceso a Internet. El uso de líneas RDSI
(Red Digital de Servicios Integrados) es cada vez más
frecuente, como solución de futuro para conectar a
usuarios particulares a las redes de información de alta
velocidad.
Todos los sistemas de comunicaciones mencionados
producen una "maraña" de cables, que permite, del mismo
modo que en las comunicaciones telefónicas, disponer de un
canal virtual de comunicación entre dos ordenadores
situados en diferentes lugares de la red.
Un
protocolo
Un protocolo es un método establecido de
intercambiar datos en Internet. Un protocolo es un método
por el cual dos ordenadores acuerdan comunicarse, una
especificación que describe cómo los ordenadores
hablan el uno al otro en una red.
En informática, un protocolo es un conjunto de reglas
usadas por computadoras para comunicarse unas con otras a
través de una red. Un protocolo es una regla o
estándar que controla o permite la comunicación en
su forma más simple, un protocolo puede ser definido como
las reglas que dominan la sintaxis, semántica y
sincronización de la comunicación. Los protocolos
pueden ser implementados por hardware, software, o una
combinación de ambos. A su más bajo nivel, un
protocolo define el comportamiento de una conexión de
hardware.
Los protocolos son reglas de comunicación que permiten
el flujo de información entre equipos que manejan
lenguajes distintos, por ejemplo, dos computadores conectados en
la misma red pero con protocolos diferentes no podrían
comunicarse jamás, para ello, es necesario que ambas
"hablen" el mismo idioma. El protocolo TCP/IP fue creado para las
comunicaciones en Internet. Para que cualquier computador se
conecte a Internet es necesario que tenga instalado este
protocolo de comunicación.
Estrategias para mejorar la seguridad
(autenticación, cifrado).Cómo se construye una red
física.Cómo los computadores se
conectan a la red.
Protocolos de
Internet
Protocolos de Aplicación de internet
* FTP y Telnet
FTP (Protocolo de transferencia de archivos) permite
bajar y colocar archivos en la internet. Para bajar un archivo en
un sistema de computación es necesario correr una
aplicación cliente de FTP que se conecta al servidor FTP y
procede a bajar el archivo de su correspondiente directorio o
carpeta.
Telnet es una vía para realizar una
conexión remota a otro sistema en la red. Un servidor
telnet debe estar corriendo en el sistema remoto y un cliente de
telnet debe estar corriendo en el sistema local. Los sistema
operativos típicos para servidores telnet son unís,
windows nt etc.
* HTTP
Es el protocolo primario de www. Cuando un navegador se
conecta a un servidor web, este usa http para recibir
páginas web, http tiene la capacidad para transferir
páginas web, gráficos y muchos otros tipos de
medios usados en internet.
* Internet, Correo
electrónico
El correo electrónico utiliza un protocolo
llamado SMTP (Protocolo de transferencia de correo simple) una
aplicación cliente de correo electrónico es
utilizado para enviar y recibir mensajes y esta se comunica con
un servidor SMTP el cual esta fuera y se encarga de enviar los
mensajes y tomar la responsabilidad de tomar estos. Una
dirección de correo electrónico está
compuesta de dos partes: el nombre del usuario y la
dirección del servidor, un ejemplo
cduran@consisint.com.
TCP/IP El protocolo TCP/IP (Transmition Control
Protocol/Internet Protocol) hace posible enlazar cualquier tipo
de computadoras, sin importar el sistema operativo que usen o el
fabricante. Este protocolo fue desarrollado originalmente por el
ARPA (Advanced Research Projects Agency) del Departamento de
Defensa de los Estados Unidos. Actualmente, es posible tener una
red mundial llamada Internet usando este protocolo. Este sistema
de IP permite a las redes enviar correo electrónico
(e-mail), transferencia de archivos (FTP) y tener una
interacción con otras computadoras (TELNET) no importando
donde estén localizadas, tan solo que sean accesibles a
través de Internet.
Cómo
funciona el DNS
El DNS se utiliza principalmente para la
resolución de nombres, esto es, decidir
qué dirección IP pertenece a
determinado nombre completo de host.
Usos del DNS
El DNS se utiliza para distintos
propósitos. Los más comunes son:
Resolución de nombres: Dado el nombre
completo de un host (por ejemplo
blog.smaldone.com.ar), obtener su
dirección IP (en este caso,
208.97.175.41).Resolución inversa de direcciones: Es
el mecanismo inverso al anterior. Consiste en, dada una
dirección IP, obtener el nombre
asociado a la misma.Resolución de servidores de correo:
Dado un nombre de dominio (por ejemplo
gmail.com) obtener el servidor a través del
cual debe realizarse la entrega del correo electrónico
(en este caso,
gmail-smtp-in.l.google.com).
Por tratarse de un sistema muy flexible, es utilizado
también para muchas otras funciones, tales como la
obtención de claves públicas de cifrado
asimétrico y la validación de envío de
e-mails (a través de mecanismos como SPF).
Arquitectura del DNS.
El sistema DNS funciona principalmente en base al
protocolo UDP. Los requerimientos se realizan a través del
puerto 53.
El sistema está estructurado en forma de
"árbol". Cada nodo del árbol
está compuesto por un grupo de servidores que se encargan
de resolver un conjunto de dominios (zona de autoridad).
Un servidor puede delegar en otro (u otros) la autoridad sobre
alguna de sus sub-zonas (esto es, algún
subdominio de la zona sobre la que él tiene
autoridad). Un subdominio puede verse como una
especialización de un dominio de nivel anterior.
Por ejemplo, "smaldone.com.ar" es un subdominio de
"com.ar", que a su vez lo es del TLD
"ar".
El siguiente diagrama ilustra esto a
través de un ejemplo:
Los servidores con autoridad sobre los TLD son
los llamados "root servers" (o "servidores
raíz") del sistema. Estos son fijos, ya que rara vez
cambian, siendo actualmente 13.
Uso del DNS en una red local
Ya en redes de tamaño medio (quizás
más de 5 equipos) es conveniente la utilización de
DNS. Esto nada tiene que ver con el DNS de
Internet (aunque el servidor local puede estar vinculado
a este sistema).
Básicamente, es conveniente montar un servidor
local de DNS por los siguientes motivos:
Agilizar el acceso a Internet: Al tener un
servidor de nombres en nuestra propia red local (que
acceda al DNS de nuestro proveedor o directamente a
los root servers) se agiliza el mecanismo de
resolución de nombres, manteniendo en
caché los nombres recientemente usados en la
red y disminuyendo el tráfico hacia/desde
Internet.Simplificar la administración de la red
local: Al contar con un DNS propio (ya sea uno o
varios servidores de nombres) es posible definir zonas
locales (no válidas ni accesibles desde
Internet) para asignar nombres a cada uno de los
hosts de la LAN. De esta forma es posible,
por ejemplo, referirnos a la impresora de red como
"hplaser.mired.local" en vez de
"192.168.0.2" y a nuestro servidor de correo interno
como "smtp.mired.local" en vez de
"192.168.0.3". (Pensemos, por ejemplo, que
ocurriría con las configuraciones de las aplicaciones
si un día decidimos cambiar el esquema de
direcciones IP de nuestra red.)
Problemas del DNS.
El principal problema que presenta el DNS es que,
al estar basado en UDP (protocolo de transporte que no
garantiza la recepción de la información enviada),
tanto las consultas como las respuestas pueden
"perderse" (por ejemplo, a causa de congestionamiento en
algún enlace de la red). Es común apreciar
cómo, en el caso de servidores y redes no muy bien
configuradas, la resolución de nombres se resiente
sensiblemente ante cualquier anomalía (saturación
de tráfico o del servidor de nombres local).
Otro inconveniente, que ya hemos hecho notar, es la
lentitud de la propagación de las modificaciones en el
sistema, producto de la propia arquitectura del mismo.
Pero quizás el mayor problema no sea inherente al
sistema mismo, sino a la pésima configuración de
los servidores de muchos ISP. Fibertel, el
proveedor que utilizo, es un notable ejemplo de esta falencia.
Una buena solución a esta situación es ejecutar un
servidor de nombres en alguna PC de la red local, de
forma tal que se comunique directamente con los root
servers (evitando de esta forma pasar a través de los
servidores de nombres de nuestro proveedor).
Peer-to-Peer
Una red Peer-to-Peer o red de pares o
red entre iguales o red entre pares o red punto
a punto (P2P, por sus siglas en inglés) es una
red de computadoras en la que todos o algunos aspectos funcionan
sin clientes ni servidores fijos, sino una serie de nodos que se
comportan como iguales entre sí. Es decir, actúan
simultáneamente como clientes y servidores respecto a los
demás nodos de la red. Las redes P2P permiten el
intercambio directo de información, en cualquier formato,
entre los ordenadores interconectados.
El hecho de que sirvan para compartir e intercambiar
información de forma directa entre dos o más
usuarios ha propiciado que parte de los usuarios lo utilicen para
intercambiar archivos cuyo contenido está sujeto a las
leyes de copyright, lo que ha generado una gran polémica
entre defensores y detractores de estos sistemas.
Las redes peer-to-peer aprovechan, administran y optimizan el
uso del ancho de banda de los demás usuarios de la red por
medio de la conectividad entre los mismos, y obtienen así
más rendimiento en las conexiones y transferencias que con
algunos métodos centralizados convencionales, donde una
cantidad relativamente pequeña de servidores provee el
total del ancho de banda y recursos compartidos para un servicio
o aplicación.
Dichas redes son útiles para diversos
propósitos. A menudo se usan para compartir ficheros de
cualquier tipo (por ejemplo, audio, vídeo o software).
Este tipo de red también suele usarse en telefonía
VoIP para hacer más eficiente la transmisión de
datos en tiempo real.
La eficacia de los nodos en el enlace y transmisión de
datos puede variar según su configuración local
(cortafuegos, NAT, ruteadores, etc.), velocidad de proceso,
disponibilidad de ancho de banda de su conexión a la red y
capacidad de almacenamiento en disco.
Las redes P2P pueden usarse también para hacer
funcionar grandes sistemas de software diseñados para
realizar pruebas que identifiquen la presencia de posibles
fármacos. El primer sistema diseñado con tal
propósito se desarrolló en el 2001, en el Centro
Computacional para el Descubrimiento de Medicamentos (Centre for
Computational Drug Discovery) en la prestigiosa Universidad de
Oxford y con la cooperación de la Fundación
Nacional para la Investigación del Cáncer (National
Foundation for Cancer Research) de los Estados Unidos.
Actualmente existen varios sistemas software similares que se
desarrollan bajo el auspicio de proyectos como el proyecto de
Dispositivos Unidos en la Investigación del Cáncer
(United Devices Cancer Research Project). En una escala
más pequeña, existen sistemas de
administración autónoma para los biólogos
computacionales, como el Chinook, que se unen para ejecutar y
hacer comparaciones de datos bioinformáticos con los
más de 25 diferentes servicios de análisis que
ofrece. Uno de sus propósitos consiste en facilitar el
intercambio de técnicas de análisis dentro de una
comunidad local.
Características:
Seis características deseables de las redes
P2P:
Escalabilidad. Las redes P2P tienen un
alcance mundial con cientos de millones de usuarios
potenciales. En general, lo deseable es que cuantos
más nodos estén conectados a una red P2P, mejor
será su funcionamiento. Así, cuando los nodos
llegan y comparten sus propios recursos, los recursos totales
del sistema aumentan. Esto es diferente en una arquitectura
del modo servidor-cliente con un sistema fijo de servidores,
en los cuales la adición de clientes podría
significar una transferencia de datos más lenta para
todos los usuarios. Algunos autores advierten que, si
proliferan mucho este tipo de redes, cliente-servidor,
podrían llegar a su fin, ya que a cada una de estas
redes se conectarán muy pocos usuarios.Robustez. La naturaleza distribuida de las
redes peer-to-peer también incrementa la
robustez en caso de haber fallos en la réplica
excesiva de los datos hacia múltiples destinos, y
—-en sistemas P2P puros—- permitiendo a
los peers encontrar la información sin hacer
peticiones a ningún servidor centralizado de indexado.
En el último caso, no hay ningún punto singular
de falla en el sistema.Descentralización. Estas redes por
definición son descentralizadas y todos los nodos son
iguales. No existen nodos con funciones especiales, y por
tanto ningún nodo es imprescindible para el
funcionamiento de la red. En realidad, algunas redes
comúnmente llamadas P2P no cumplen esta
característica, como Napster, eDonkey o
BitTorrent.Distribución de costes entre los
usuarios. Se comparten o donan recursos a cambio de
recursos. Según la aplicación de la red, los
recursos pueden ser archivos, ancho de banda, ciclos de
proceso o almacenamiento de disco.Anonimato. Es deseable que en estas redes
quede anónimo el autor de un contenido, el editor, el
lector, el servidor que lo alberga y la petición para
encontrarlo, siempre que así lo necesiten los
usuarios. Muchas veces el derecho al anonimato y los derechos
de autor son incompatibles entre sí, y la industria
propone mecanismos como el DRM para limitar ambos.Seguridad. Es una de las
características deseables de las redes P2P menos
implementada. Los objetivos de un P2P seguro serían
identificar y evitar los nodos maliciosos, evitar el
contenido infectado, evitar el espionaje de las
comunicaciones entre nodos, creación de grupos seguros
de nodos dentro de la red, protección de los recursos
de la red… La mayor parte de los nodos aún
están bajo investigación, pero los mecanismos
más prometedores son: cifrado multiclave, cajas de
arena, gestión de derechos de autor (la industria
define qué puede hacer el usuario; por ejemplo, la
segunda vez que se oye la canción se apaga),
reputación (permitir acceso sólo a los
conocidos), comunicaciones seguras, comentarios sobre los
ficheros, etc.
Riesgos al
utilizar Peer to Peer
las opiniones interesadas, que aseguran que las redes
P2P (peer to peer, punto a punto o par a par) son muy seguras,
estudios realizados por fuentes tan solventes como las
Universidad Carlos III de Madrid, departamentos de
Informática de otras universidades (tanto españolas
como extranjeras), empresas de seguridad o la propia
Asociación de Internautas (www.internautas.org), entre
otras, demuestran todo lo contrario.
Lo primero que hay que tener en cuenta es que una red
P2P es una serie de nodos que actúan a la vez como
clientes y como servidores de los demás nodos de la
red.
Es cierto que en la mayoría de estos programas
elegimos las carpetas a compartir, pero ¿es que acaso esto
supone un mayor problema o es una solución para mantener a
salvo nuestra información? En el mejor de los casos, para
aquellos que estén decididos a violar nuestra intimidad y
nuestros datos es tan solo un pequeño
inconveniente.
Muchas veces centramos el tema
seguridad en lo más básico, es decir, en
las posibilidades de que a través de archivos bajados
mediante estas redes nos pueda entrar un virus, pero este
problema, que ya de por sí es grave, no es precisamente el
que más lo es, y además, con un buen antivirus y
tomando las correctas medidas de precaución, como puede
ser por ejemplo analizar todos los archivos que descarguemos
antes de ejecutarlos, es el más fácil de controlar.
El mayor de los problemas es que, dada la naturaleza de este tipo
de redes, estamos dando entrada a nuestro ordenador a todos los
que estén conectados a ella, ofreciéndoles
además una serie de puertos abiertos para que puedan
circular libremente, problema que se agudiza aun más
cuando se trata de puertos abiertos para el uso de un programa
concreto (los célebres puertos del Emule, Ares y
similares).
En pruebas realizadas se ha demostrado que
incluso utilizando el más habitual y, al parecer, seguro
de estos programas, con tan solo algunas herramientas (que son
programas públicos, fáciles de conseguir y muy
simples y fáciles de utilizar, que por evidentes motivos
de seguridad no vamos a nombra aquí) se pueden acceder a
datos como nuestra IP, tipo de descargas que estamos haciendo,
nuestra ubicación (con una aproximación bastante
exacta) e incluso nuestro número de teléfono, y,
por supuesto, a los datos que tengamos en nuestro ordenador. Es
también posible acceder al router, listado de puertos
abiertos, claves de acceso y demás información de
seguridad.
Además, este ataque no va a ser
reconocido como tal, ya que somos nosotros mismos (a
través de estos programas) los que estamos permitiendo una
comunicación entre nuestro sistema y el de la persona o
personas que quieren acceder a él.
Pero es que en muchos casos no hace falta llegar ni a
esos extremos, ya que si no hemos configurado bien las carpetas a
las que damos acceso, nos podemos encontrar con que tan solo con
buscar en el programa P2P de turno una serie de palabras claves
va a ser posible acceder a los datos que, por error, estemos
compartiendo.
La seguridad es la gran asignatura pendiente de los
programas P2P, que a pesar de que muchos de sus adeptos aseguran
que no suponen un riesgo para la seguridad, son realmente una
amenaza para nuestro equipo y para nuestros datos, y este es un
factor del que debemos ser plenamente conscientes. Los peligros
son muchos, y como he dicho al principio, el que un fichero
esté infectado por virus, troyanos u otro tipo de malware,
dentro de la gravedad que ello supone, no es ni de lejos el peor
de ellos, siendo además el más fácil de
controlar.
Y todavía cuando aceptamos estos riesgos en
nuestro ámbito particular pues vale, es un riesgo que
sabemos (o debemos saber) que está ahí y lo
asumimos, pero… ¿qué es lo que ocurre cuando,
como se dan bastantes casos, se utilizan los ordenadores del
trabajo para realizar este tipo de conexiones? Pues pasa que
conscientemente o no estamos poniendo en un alto riesgo la
seguridad de la empresa y de sus datos.
Ventajas al usar
Peer to Peer
En una arquitectura de cliente-servidor, según se
van añadiendo más clientes, la tasa de
transferencia disminuye a niveles bajos. Esto ocurre porque los
recursos en el servidor se ven consumidos debido al intenso
tráfico. En las redes p2p, cada nodo o peer es el que
provee de los recursos, como es el ancho de banda, el espacio de
almacenamiento, etc. lo cual se traduce en velocidades de
transferencia mayores.
Una red p2p es más robusta en el sentido de que
si falla un nodo, los otros nodos no se ven afectados. Si el nodo
que está transfiriendo datos de repente se detiene, el
mismo contenido puede ser entregado por otros nodos sin tener que
esperar a que se solucione el problema del primero. Esto
contrasta con otras arquitecturas de red, donde el fallo en un
nodo significa la caída de toda la red.
Usar un servidor central para indexar los nodos, pero NO
almacenar datos, es una gran ventaja. Las transferencias son
más rápidas y facilita encontrar varias fuentes de
descarga.
La principal ventaja que presenta Peer to
Peer es la creación de grandes bases de datos de
manera gratuita, ya que todos los ordenadores conectados en
línea pueden descargarse archivos de otros ordenadores
también conectados. Con el aumento de la velocidad de
conexión de Internet, propiciada por la instalación
del ADSL, los programas de intercambio de archivos y la
frecuencia de este tipo de operaciones aumenta de forma
considerable. La calidad del ADSL es fundamental.
Conclusión
Internet es un conglomerado de ordenadores de diferente
tipo, marca y sistema operativo, distribuidos por todo el mundo y
unidos a través de enlaces de comunicaciones muy diversos.
La gran variedad de ordenadores y sistemas de comunicaciones
plantea numerosos problemas de entendimiento, que se resuelven
con el empleo de sofisticados protocolos de comunicaciones.
Gracias al internet la comunicación a nivel mundial es
más eficaz y menos costosa es una de las maravillas del
mundo que nos permite acceder a todo tipo de información y
nos permite comunicarnos con el resto del mundo e intercambiar
palabras con aquellos que están a cientos de
kilómetros.
El P2P nos brinda la posibilidad de intercambiar
material entre computadoras a través de Internet. Las
redes P2P son actualmente el protocolo más utilizado por
los usuarios de este tipo de actividad. Suele ser una de las
más recomendables para compartir contenido, debido a la
distribución de sus recursos, ya que como mencionamos, en
ella cada una de las computadoras conectadas aportan ancho de
banda y espacio de almacenamiento, lo que significa mayor
velocidad de transferencia, además de la potente robustez
que registra.
Bibliografía
http://es.wikipedia.org/wiki/Peer-to-peer
http://www.configurarequipos.com/doc986.html
http://www.microsoft.com/latam/athome/security/online/p2p_file_sharing.mspx
http://www.ordenadores-y-portatiles.com/p2p.html
Autor:
Zeusy Karina Álvarez De La
Cruz
Materia: Fundamentos de la
Tecnología de la Información.
Profesor (a): Juan Radhames Gómez
Martínez.