- ¿Cómo
empezó todo? - Los desconocidos de
siempre - Cuando ser digital fue
una mala palabra - Modelos alternativos de
topología y diseño - Navegando en el mar de
los sargazos - Principios para
entender a la Red - Computación
parásita y los usos debidos e indebidos de la
red - Webografía
- Notas
ABSTRACT
A pesar de su crecimiento azaroso la web posee
regularidades subyacentes sorprendentes. Ya se trate de la
organización de los links o de los patrones de
comportamiento
de sus casi mil millones de usuarios. Muchas de estas
regularidades han sido anticipadas por la mecánica estadística, una de las ramas de la
física. Si
estas metáforas son válidas será posible
diseñar en forma más eficiente el uso de la
red. Pero
también se comprobará que hay leyes de la forma
o de la organización que se aplican a las estructuras
mas variadas (trátese de átomos o de infoagentes).
Vista de este modo la web es un ecosistema informacional
gigantesco que puede ser utilizado como laboratorio
físico (y metafísico) para testear el comportamiento
humano y la interacción social. Porque contrariamente a
nuestras expectativas –y a pesar de su enorme
tamaño– la red exhibe regularidades y patrones, y si
bien los buscadores son
ciegos a una parte significativa de la misma, ello no impide
imaginar usos mas inteligentes de recuperación de los
datos
así como la creación de nuevos formatos y
narrativas que la utilicen y la reinventen de una forma mucho mas
inteligente y apropiada que lo que hemos podido/sabido hacer
hasta ahora.
A pesar de su crecimiento azaroso la web posee
regularidades subyacentes sorprendentes. Ya se trate de la
organización de los links o de los patrones de
comportamiento de sus casi mil millones de usuarios. Muchas de
estas regularidades han sido anticipadas por la mecánica estadística, una de las
ramas de la física. Si estas metáforas son
válidas será posible diseñar en forma
más eficiente el uso de la red. Pero también se
comprobará que hay leyes de la forma o de la
organización que se aplican a las estructuras mas variadas
(trátese de átomos o de infoagentes). Vista de este
modo la web es un ecosistema informacional gigantesco que
puede ser utilizado como laboratorio físico (y
metafísico) para testear el comportamiento humano y la
interacción social. Porque contrariamente a nuestras
expectativas –y a pesar de su enorme tamaño–
la red exhibe regularidades y patrones, y si bien los buscadores
son ciegos a una parte significativa de la misma, ello no impide
imaginar usos mas inteligentes de recuperación de los
datos así como la creación de nuevos formatos y
narrativas que la utilicen y la reinventen de una forma mucho mas
inteligente y apropiada que lo que hemos podido/sabido hacer
hasta ahora.
Los diez años de WEB que hemos sabido
diseñar, revelan una pantalla convertida en un nuevo
soporte intelectual. Como lo fueron en un momento los
ejercicios del arte de la memoria de
los griegos y romanos, la inscripción en piedra o en cera;
el papiro y el papel y más recientemente los soportes
electromagnéticos. Lo que sucedió con/en Internet, refugio del
texto y del
blanco y negro, que terminó explotando en una paleta de
nuevas formas expresivas, de textos unidos a la distancia, de
nuevas y divertidas formas de enseñar, aprender, ver,
oír, negociar, vender, abusar, entretener y aburrir es lo
mismo que pasó con el resto de las
tecnologías.
Están operando aquí dos principios
evolutivos de los medios de
comunicación que estamos desanudando permanentemente.
El primero es que con cada nuevo avance tecnológico se
gana mucho y se pierde también bastante. El segundo es que
los nuevos medios
generalmente recuperan elementos de la
comunicación natural (biológica) eclipsados por
los medios primitivos anteriores (que extendieron la
comunicación sacrificando algunos de sus beneficios
naturales, Grusin, & Bolter (2000)).
Pero es imposible entender estos resultados si antes no
se entiende qué y cómo se producen. Para ello hay
que investigar la infraestructura que hace posible el nuevo
medio, y sobretodo las reglas que regulan su emergencia,
crecimiento y expansión/declinación
(1).
Sólo que Internet con su poder e
idiosincrasia no es una excepción sino la regla. Se trata
de una red libre de
escala (Barabasi,
2001), donde la interacción de elementos simples
desprovistos de toda inteligencia
terminan generando un cerebro y una
piel globales
inesperada y superpoderosa. Por ello antes de adentrarnos en la
red propiamente dicha habrá que examinar una familia de
palabras entre las que se incluyen: mundos pequeños,
redología, redes libres de escala,
regla del 80/20…… que forman su contexto y hacen posible su
comprensión
En el caso específico de Internet sus aspectos
lingüísticos o mediáticos han estado
sistemáticamente oscurecidos por las narrativas que han
dominado su intelección, que han oscilado entre el
tecnicismo, el discurso
ingenieril y más recientemente –en la ultima
década– los mitos
filo–económicos que la habían transformado en
Rey Midas.
Con la mínima distancia que nos permite haberla
recorrido en múltiples direcciones (Piscitelli, 2001;
2002) y con un escepticismo creciente acerca de su capacidad de
totalización o de anulación de lecturas
alternativas, un nuevo recorrido por sus comienzos
socio–técnicos (que falta nos hace un Latour de la
red (2)) ayuda a poner las cosas en una perspectiva mas
moderada y útil.
Cada vez que se habla de los orígenes de Internet
un personaje mítico reaparece en el relato. Se trata nada
mas y nada menos que de Paul Baran (Abbate, 1999), quien con sus
recién cumplidos 30 años aceptó un flamante
trabajo en la
Rand Corporation, un think tank creado por el gobierno de USA
en 1946.
Corría el lejanísimo 1959 y a Baran le
ofrecieron un conchabo por demás ambicioso. Diseñar
un sistema de
comunicaciones
que fuera capaz de detener un presunto ataque nuclear
soviético. Por esa época la Rand estaba demasiado
asociada a las elucubraciones de personajes como Herman Kahn una
de cuyas debilidades fue dedicarse a los juegos de
guerra
–al mejor estilo del Dr Insólito de Stanley
Kubrick– calculando la muerte
eventual de millones de personas como resultado de un ataque
nuclear.
A Baran tales elucubraciones no le preocupaban
demasiado, y con mucho entusiasmo miró hacia otro lado y
se puso a inventar un sistema de comunicaciones totalmente
distinto al existente, algo que plasmó publicando una
serie de 12 volúmenes que harían historia, aunque con unos
cuantos zig zags en el medio.
Para Baran la vulnerabilidad de la red de comunicaciones
existente derivaba obviamente del sistema de control y comando
sobre la que se basaba en los años 50. Dado que una
detonación nuclear destruye todo lo que está
alrededor de la zona de impacto Baran como preservar a otros
nodos no colindantes de los efectos del ataque.
Analizando los sistemas
dominantes en la época encontró tres tipos de
organizaciones
de redes a los que denominó centralizado, descentralizado
y distribuido. Obviamente descartó de un plumazo como
objeto de elección a las dos primeras configuraciones dado
el altísimo grado de vulnerabilidad que las mismas
exhibirían ante un ataque nuclear.
Para Baran la estructura
ideal para esos fines habría de ser una red distribuida
en forma de retícula, muy parecida a un sistema de
autopistas, con tan alto grado de redundancia, que aun cuando
muchos de los nodos fueran borrados del mapa por un ataque,
caminos alternativos mantendrían la conexión entre
el resto de los nodos sobrevivientes.
Primer punto interesante: los militares le pidieron a
Baran que diseñara la red alternativa, por lo cual la
fantasía o mito acerca de
un origen militar de la red tiene un punto a su favor. Pero lo
que esta narrativa olvida/oculta es que finalmente los militares
no le hicieron un ápice de caso a Baran. Es por ello que
la estructura real de la red tal como la conocemos hoy tiene poco
y nada que ver con las propuestas concretas de Baran
–aunque quienes finalmente la diseñaron por ese
remanido mecanismo de equifinalidad– llegaron a un
idéntico fin a través de numerosos caminos
alternativos.
Cuando ser digital fue una
mala palabra
Además la oposición de los militares (pero
también de la industria) a
las ideas de Baran no se reflejó tan solo en
filosofías o ideologías incompatibles, sino en un
hecho mucho mas insoportable a la mentalidad de la época
–lo que muestra cuanto
mas fuerte es la resistencia
económica y/o cultural que la incultura
técnica.
A saber que la propuesta de Baran incluía
descomponer los mensajes en pequeños paquetes de información capaces de viajar
independientemente uno de los otros en la red. Para lograr este
(entonces) delirio hacía falta un sistema de comunicación inexistente en ese momento, es
por ello que Baran abogó por la creación de un
sistema de comunicación digital.
Esta demanda
difícilmente podía ser sostenida o cumplida por el
monopolio
telefónico de AT&T que desde la década de 1910
reinó omnímodo en USA, hasta su desmembramiento en
1982.
Por eso el entonces presidente de AT&T, Jack
Ostermani rechazó de un plumazo la propuesta de Baran,
sosteniendo que era imposible de lograr, y de que en el caso de
que llevara a algo, eso implicaría crearle una competencia
interna a AT&T.
Las ideas de Baran naufragaron pues ante la
oposición combinada del pensamiento
centralizado de los militares y de las prácticas
monopólicas –no menos centralizadas (3)
– de la industria, y sólo serían valoradas
casi una década mas tarde cuando ARPA (Advanced Research
Project Agency) las desarrollara por su propia cuenta para
(re)–descubrir imprevistamente, que solo habían
llegado 10 años mas tarde al mismo lugar. Pero entonces
todo sería diferente en el escenario internacional y local
y lo otrora inviable se demostraría ineluctablemente
necesario.
Modelos alternativos de
topología y diseño
Necesitamos entender la topología (la arquitectura
espacial) de la red si queremos diseñar herramientas,
y queremos ofrecer servicios que
corran eficazmente sobre ella. Curiosamente, aunque es un
producto 100%
humano, la red no ha sido diseñada en forma centralizada.
Desde el punto de vista estructural la red se parece mucho
más a un ecosistema que a un reloj suizo o a cualquier
otro aparato que haya brotado a partir de un plano y que se haya
concretado en el espacio físico.
Es por ello que entender a Internet supone no
sólo competencias
ingenieriles o matemáticas –indispensables por otra
parte– sino sobretodo una comprensión detallada del
intrincado juego de
fuerzas políticas,
económicas sociales y culturales que subyacen en su
genealogía y devenir.
Por eso conviene volver al corazón de
la guerra
fría. Al durísimo golpe narcisista que supuso
para los norteamericanos el lanzamiento de la perra Laica (ya sea
que ésta fuera única o varias como en las mejores
películas–perros de
Hollywod) al espacio.
Como respuesta a esa obscenidad el presidente y general
Dwight Einsehower (ese del botón I like Ike) creó
ARPA. A los pocos años –y sobretodo como respuesta a
la visión del presidente John Fitzgerald Kennedy que a su
vez creó a la NASA (National Astronautical Space
Agency)– DARPA se quedó sin credenciales ni objetivos
–mostrando como la competencia
inter–burocrática también tiene su dinámica interna y juega un rol
estratégico en la dinámica de las
innovaciones.
Por ello DARPA se convirtió en una usina
estratégica de proyectos para
los militares. Y así Internet entró en el radar de
sus preocupaciones en 1965/1966 cuando Bob Taylor el
director de los programas de
computación de ARPA se encontró con
un agujero negro que consumía millones de dólares
del presupuesto
federal.
En esa época las computadoras
costaban millones de dólares y Taylor en un día de
epifanía y revelación se dio cuenta de algo al
mismo tiempo trivial
y catastrófico. Las distintas redes de computadoras
entonces existentes eran incapaces de comunicarse entre si. Es
mas, dos máquinas
pertenecientes a distintas redes, cohabitantes en la misma sala
no eran capaces de hablar entre ellas.
Divisado el problema se trataba entonces de crearle la
solución y esta consistiría debidamente en
algún protocolo capaz
de interconectar máquinas hasta ese momento mudas o
competentes exclusivamente en dialectos que nadie era capaz de
traducir entre si. Con un millón de poderosos y
sustanciales dólares de la época –al mismo
tiempo que un grupo de
investigadores ingleses comandados por Donald Davis del
laboratorio nacional Ingles de Física redescubría
las principales ideas y enseñanzas de Baran por su cuenta
testimoniando el peso de los descubrimientos múltiples uy
simultáneos – ARPA se puso a trabajar en
serio.
En un simposio que tuvo
lugar en Texas en 1967 estas ideas empezaron a circular
ampliamente y lo que había sido anatema una década
atrás se convertiría en la ciencia
normal de la época. El packet–switching
devendría el abc de la red y aunque los militares
intervendrían poco y nada en su desarrollo,
Internet estaba lista para dar sus primeros pasos.
Pero no nos perdamos en la historia sino que
concentrémenos básicamente en la
topología… actual de la red, así como en tratar
de desentrañar los principios de crecimiento y de construcción –si es que son
detectables– que dan cuenta de porque Internet tiene la
forma actual, en qué se parece ésta a otras redes,
y qué podemos deducir a partir del conocimiento
de la topología de la red conducente a una
anticipación de sus posibles futuros.
Aunque de Internet hay miles de mapas no existe
EL MAPA de la red. Lo que si existen son innumerables mapas que
buscan delinearla o recorrer sus principales configuraciones
(Dodge, Martin & Kitchin, 2000; 2001).
Por eso si nos apersonamos en peacockmaps.com
encontraremos unos impresionantes mapas realizados por Bill
Cheswick y Hal Burch. Se trata de unos llamativos entramados
densos en nodos y enlaces que solo tienen como homólogos
las tomografías computadas o las resonancias nucleares
magnéticas del cerebro. Con una importante
distinción, mientras que el cerebro hace milenios que se
ha estabilizado anatómicamente, la red crece sin parar y
multiplica diariamente su hiperconectividad y su densidad.
¿Porqué es tan importante esta
cuestión de los mapas? En todo caso resulta sumamente
sugestivo que siendo el camino que va de la idea al objeto o
producto invariablemente un proceso que
comienza con detallados inventarios y
topografías, partiendo de meticulosos diagramas y
visualizaciones, Internet esté recorriendo el camino
inverso.
Nadie sabe exactamente qué forma tiene la red, y
por mas que permanentemente se la patrulla y se la fotografía, se la ausculta y se la mide,
sus contornos son borrosos y sus centros son difícilmente
localizables y discernibles.
Esta inmarcesibilidad está profundamente ligada
al carácter anárquico,
auto–organizado y fundamentalmente local y distribuido que
subyace a la evolución de la red.
Cualquiera –cumpliendo un mínimo de
requisitos– se "enchufa" a la red. Y si hubiera alguien que
decidiera cerrar la red (a excepción tal vez de un locura
insana del gobierno de USA que algún día decidiera
darse de baja en la red– como lo hizo hace un tiempo
atrás saliéndose de la UNESCO), lo único que
lograría es aislar una porción minúscula de
la misma, pero inmediatamente la información se
auto–rerutearía y a los efectos prácticos tal
caída seria invisible o en todo caso
insignificante.
Es precisamente la naturaleza
distribuida, descentralizada y localmente aislada de la red la
que la vuelve por un lado prácticamente inmune a cualquier
ataque, pero al mismo tiempo lo que hace tan difícil
retratarla y aislarla.
Navegando en el mar de los
sargazos
Insistimos. Si estamos obsesionados por establecer uno
(o varios) mapa de la red ello obedece a que el diseño
de servicios nuevos y mas eficientes requiere obligadamente que
tengamos un mucho mejor conocimiento de su
topología.
Por otra parte cuando Internet se inventó nadie
imaginó que podría llegar a tener mas de 1
millón de usuarios, o que sus usos trascenderían
primero a los militares y luego a los relacionados con la
investigación. Ni en 1970 ni en 1980 pero
tampoco en el mucho mas cercano 1990 a nadie se le ocurrió
jamás que existiría una Internet comercial y mucho
menos una red de comunicación universal –que
inclusive llegaría a Marte y que a junio del 2004 tiene
mas de 800 millones de usuarios.
Incluso el e–mail –best seller de todas las
aplicaciones en la red de todos los tiempos– emergió
en forma inopinada de un travestismo en el uso de la
transferencia de archivos a manos
de Rega Tomlinson un empleado de BBN y uno de los inventores de
la propia red (4).
Lo mismo está pasando con la web que es uno de
los mejores ejemplos que podemos mostrar hoy de desastre
exitoso. Es decir de un sistema que escapado de la mesa del
dibujante, es abrazado entusiastamente por una cantidad
impresionante de usuarios, antes de que su diseño o
funcionalidad esté estabilizada, y que de pronto toma al
mundo por sorpresa y se autoconfigura de un modo al mismo tiempo
creativo y sumamente ineficiente.
Porque si Tim Berners–Lee o Robert Caillou
pudieron haberse imaginado algunas de las consecuencias de lo que
estaban pergeñando en el CERN al dibujar los primeros
esbozos de la WWW a fines de la década de 1980,
seguramente la experiencia de los usuarios hubiese sido
totalmente distinta y la forma en que hoy usamos la web se
hubiese modificado acorde.
Lamentablemente la red tal como existe hoy
difícilmente se adapte a nuestras necesidades y no es
casual que la revolución
de los weblogs haya
implicado un cambio brutal
en su uso y su reapropiación por parte de los usuarios
comunes y silvestres. Si los weblogs son tan exitosos ello se
debe justamente a las fallas estructurales en la
concepción y el diseño de la red.
Nada sorprendentemente mientras que muchos
investigadores y programadores insisten en crear nuevas
aplicaciones y servicios, un grupo de memetistas (entre
los cuales afortunada y orgullosamente nos encontramos) hemos
empezado a hacernos una pregunta clave: ¿Qué es
exactamente lo que hemos inventado? ¿Qué tipo de
criatura hemos liberado en el ciberespacio? y ¿En
qué puede o nos podemos convertir nosotros a partir de su
mediamorfosis y evolución? ¿Hasta qué punto
los hábitos de lectura y
escritura, que
sabemos son constitutivos de nuestra identidad y
subjetividad se verán transformados y modificados por su
emergencia?
Porque aunque es un producto 100% humano, Internet tiene
una vida propia. A poco que la usamos y analizamos exhibe todas
las propiedades que son específicas de un sistema complejo
evolutivo, lo que la vuelve mucho más parecida a una
célula que
a un chip.
Es por ello que quienes usamos e investigamos la red
hemos devenido en tiempo récord de exploradores en
diseñadores. Todos los internetólogos nos
asemejamos cada día mas a los biólogos y los a
ecólogos (de la información) –mas que a los
físicos y a los matemáticos– que deben lidiar
con un sistema increíblemente complejo que a todos los
efectos prácticos nos preexiste y es independiente de
nosotros.
Pero si por un lado estamos en muchas mejores
condiciones que los biólogos para entender a la red,
porque después de todo nosotros la hemos diseñado,
y conocemos cada uno y todos los componentes que la conforman,
por el otro concordamos con los bioanalistas, en que no tenemos
la mas remota idea de qué pasa (qué tipo de
estructura es la que emerge) cuando el sistema se pone en
movimiento y
se auto–organiza como mejor le place.
Pero hoy estamos en el 2004 y no en 1997 o en el 2000.
Porque si antes del 2000 se sabia poco y nada de la
topología de Internet, a partir del trabajo seminal de los
hermanos Michalis, Petros y Christos Faloutsos "On
Power–Law Relationship of the Internet Topology" lo que
sabemos ahora es que la red de routers que corona Internet es una
red scale–free (5). Dicho en romance todos
los modelos de la
red que imaginaban hasta bien entrado 1999 que ésta
crecía en forma aleatoria estaban profunda y
definitivamente equivocados.
Lo que los hermanos Faloutsos no sabían, empero,
es que sus investigaciones
se aplicaban pari passu a la WWW. O lo que es lo mismo, dicho
nuevamente en romance, que Internet no pertenece a la
categoría de las redes aleatorias, sino que merece un
lugar destacado en el zoológico de las topologías scale–free.
Este descubrimiento no es nada menor o secundario e
implicó un claro cuestionamiento a la concepción
tradicional de que las redes físicas y los routers no
tenían ninguna motivación
ni inteligencia para desarrollarse según preceptos y
reglas que valen mucho mas para el caso de las relaciones
sociales o de la libre elección de jerarquías en la
páginas que navegamos que para la casualidad y el azar
propios de sistemas inertes.
Cualquier inventario o
análisis de la evolución de la red
muestra su carácter exponencial como lo podemos
testimoniar en numerosos gráficos y cuadros (6). Esta
expansión está literalmente conectada a la
naturaleza scale–free de la red. Pero esto no alcanza. Para
entender Internet necesitamos tres principios
adicionales.
Principios para entender a la
Red
Debemos considerar entonces también la
conexión preferencial (preferential attachment). La
lógica
indica que todos deberíamos conectar nuestra computadora al
router mas
cercano, después de todo cuanto mas largo sea el cable mas
nos costará estar conectado.
Sin embargo tal apreciación intuitiva es
profundamente errónea. El largo del cable es irrelevante
cuando del costo de las
comunicaciones se trata. Porque lo que realmente nos interesa
cuando nos interesa abaratar la conexión, no es la
distancia al nodo sino su ancho de banda. Y no siempre es mucho
mas económico conectarnos con un router cercano pero pobre
en bits que con uno lejano pero mucho mas rico en
ellos.
Esto se traduce en algo evidente, los nodos mas ricos
(porque proveen mas ancho de banda) son ipso facto los que mas
conexiones atraen –confirmando un efecto bola de nieve o
una estructura "el ganador se queda con todo"
(the–winner–takes–all).
Pero no alcanza aun con estos dos criterios para
entender como funciona la red. Porque aunque no sea el criterio
definitivo, la distancia también importa. 2 km de fibra
óptica son mas caros que 0.5 km……. Por otra parte
los nodos no aparecen al azar en los mapas. Hay mas routers donde
hay mas demanda de ellos, y la demanda es a su vez una propiedad de
quienes quieren usarlos.
Además la correlación pertinente es
aquella que pone en correspondencia la densidad de la población y la densidad de los nodos de
Internet. Para nuestra infinita sorpresa la distribución de los routers sobre el
territorio de USA conforma un conjunto fractal (7), esos
objetos autosimilares descubiertos por Benoit Mandelbrot en los
años 70.
Por lo tanto para entender la dinámica de la red
debemos tener en cuanta estas cuatro dimensiones o variables:
reconocimiento, conexión preferencial, dependencia de la
distancia y estructura fractal subyacente.
Cada una de estas dimensiones si se desbandaran por la
suya podrían destruir la red. Así si la longitud
del cable fuera la única consideración a tener en
cuenta la red podría fácilmente recaer en una
estructura semejante a la de las autopistas, pero
increíblemente (¿mágicamente?) las cuatro
dimensiones interactuan entre si eliminando cualquier posible
inestabilidad y haciendo posible una Red
scale–free.
Computación
parásita y los usos debidos e indebidos de la
red
Sin embargo esto no debe hacernos olvidar que tremenda
labilidad es al mismo tiempo motivo de sorpresa y alegría
pero simultáneamente una posible condición para el
eventual colapso de la red.
Tuvimos un atisbo de caos en el episodio que
ocurrió el 25 de abril de 1997, a saber la
catástrofe de MAI Network Services que por error
convirtió a una configuración defectuosa de routers
en un agujero negro por el cual se perdió todo el
tráfico de la red en pocas horas (8).
Pero ese ejemplo –y hay muchos mas ligados a la
proliferación de viruses y otras intoxicaciones
en la red– mostró la vulnerabilidad de la red a la
propagación de errores u horrores.
Paul Baran jamás se imaginó que los
enemigos de la red podrían estar durmiendo en su seno y
que serían no los rusos sino los hackers o mas
bien los crackers quienes con una facilidad sorprendente
podrían liquidar a la red en tiempo récord
–algo que puede hacerse apropiándose de los routers
clave en los servidores de
nombres de raíz (hay 13 en toda la red) (9) que
orientan todo el tráfico, ya sea lanzando marejadas de
ataques de denegacion de servicio
contra los nodos mas activos
–tal como acontenció en Febrero del 2000 contra
Yahoo, Amazon, CNN y eBay. Y lo mismo sucedió con el
gusano Código
Rojo.
Pero ¿qué es efectivamente Internet?
¿Podría como se le ocurrió a alguien ser una
computadora –aunque mas no fuera en clave
metafórica? Es obvio que la red está compuesta por
computadoras que intercambian páginas y e–mails,
pero esto por si mismo de ningún modo convierte a la red
en una super–computadora. A menos que… a menos que se
pudieran inventar programas, gusanos, troyanos o algún
tipo de dispositivos de software que tomaran por
ataque a todas las computadoras del mundo y las hicieran trabajar
para alguien –ya fuese el profesor
Neurus o el doctor Zeus?
Que esta idea no era descabellada pudo comprobarse
cuando en Agosto del 2001 una nota aparecida en Nature
publicada por Albert–Lazlo Barabasi y otros autores acerca
de la computación parásita, fue respondida por
decenas de miles de mails enviados desde todos los rincones del
mundo, amenazando a los intrépidos que habían osado
invadir las máquinas sagradas de la red con represalias
sin fin.
Lo que hizo el equipo comandado por Albert
Lazlo–Barabasi, fue disfrazar simples pedidos de armado de
páginas, con verdaderas proezas computacionales que le
eran exigidas a las computadoras host. Cuando una computadora
recibía un paquete hacia un chequeo rutinario para
comprobar que el mensaje no se había corrompido en su
viaje sideral, pero sin saberlo al mismo tiempo estaba
resolviendo un problema que les interesaba a los investigadores
usando recursos
computacionales ajenos –sin que encima los dueños de
los equipos se dieran cuenta.
Lo que los investigadores descubrieron era la
posibilidad de esclavizar máquinas remotas abriendo
así el abanico a una parafernalia de preguntas y problemas
computacionales, éticos y legales que ni siquiera hoy
están bien planteados y mucho menos resueltos.
¿Que pasaría si alguien (al estilo de la
pelicula El hombre en el
jardín 1 de Brett Leonard) perfeccionara la
técnica y pudiera generar un sistema de
concentración de recursos ajenos a gran escala? ¿De
quienes son los recursos disponibles en la red que de pronto son
esclavizados o apropiados por terceros? ¿Seria esto el
inicio de Internet como supercomputadora? ¿Podría
emerger un ser consciente e inteligente (al estilo de Skynet en
Terminator 1 y 2) como resultado de estos
devaneos?
De lo que no hay duda es de que en un futuro sumamente
cercano las computadoras empezarán a intercambiar
servicios y esfuerzos sobre la base de una demanda ad hoc. Si hoy
los chips funcionan mucho mas rápido que las redes, en el
futuro ambas velocidades se equipararán y problemas
inverosímilmente complejos se resolverán a manos de
una computadora única o de un grupo de investigadores
aislado.
Ya tenemos ejemplos de este tipo discutidos en esa
excelente obra sobre el par a par compilada por Andy Oram
Peer–to–peer. Harnessing the power of disruptive
technologies. De hecho experiencias como SETI acudieron a
este esquema aunque claro en una escala infinitamente menor, pero
sobretodo pidiendo permiso, algo que Barabasi y sus colegas
evitaron graciosamente hacer.
Pero si el procesamiento distribuido fuera una norma una
infinidad de recursos actualmente disponibles (las horas sino
semanas o meses que nuestras maquina permanecen conectada al
ADSL
indolentemente por ejemplo) podrían servir para
tamaños y maravillosos fines, sin que nosotros
debiéramos enterarnos necesariamente.
Nuevamente las tecnologías van mucho mas
rápido que nuestra capacidad de investigarlas, analizarlas
y sobretodo normativizarlas. En el próximo capítulo
avanzaremos en la aplicabilidad de estas nociones al caso de la
WWW y sobretodo a la posibilidad –sobre la base del
descubrimiento de leyes de información en sistemas
gigantescos– de la posibilidad de rediseñarlos y de
imaginar su domesticación y/o posibilidad de pliegue a
nuestras necesidades, aunque éste en realidad pase mucho
mas por un auto–control que por cualquier
hetero–regulación.
· Abbate,
Janet Inventing the Internet (Inside Technology),
Cambridge, The MIT Press, 1999.
· Barabasi,
Albert Lazlo Linked The new science of networks. How
Everything Is Connected to Everything Else and What It Means.
Cambridge. Perseus Publishing, 2002
· Barabasi,
Albert Lazlo , Brockman Jay & Vincent Freeh Parasitic
Computing. http://www.nd.edu/~parasite/
· Bateson,
Gregory. Espiritu y naturaleza. Buenos Aires,Amorrortu,
1993
· Buchanan,
Mark Nexus. Small worlds and the grounbreaking theory of
networks. New York, Norton, 2003.
· Cassidy,
John Dot.con : How America Lost Its Mind and Money in the
Internet. Perennial Currents, 2003.
· Cohen, Adam
The Perfect Store Inside Ebay. Back Bay Books,
2003.
· Debray,
Regis Cours de mediologie generale. Paris, Gallimard,
1993.
· Dery, Mark
Escape Velocity: Cyberculture at the End of the Century.
New York, Grove Press, 1997.
· Dodge,
Martin & Kitchin Rob Mapping Cyberspace London
Routledge & Kegan Paul, 2000.
· Dodge,
Martin & Kitchin Rob Atlas of Cyberspace.
Addison–Wesley, 2002.
· Faloutsos,
Michalis, Petros y Christos "On Power–Law Relationship of
the Internet Topology".
http://www.cs.ucr.edu/~michalis/CAMERA.ps
· Fiedler,
Roger Mediamorfosis. Comprender los nuevos medios.
Buenos Aires,
Granica, 1998.
· Fischer,
Herve El choque digital. Buenos Aires, Universidad de
Tres de Febrero, 2003.
· Grusin,
Richard & Bolter Jay David Remediation Understanding New
Media, Cambridge, The MIT Press, 2000.
· Huberman,
Bernardo The Laws of the Web: Patterns in the Ecology of
Information. The MIT Press, 2001.
· Johnson,
Steven Emergence: The Connected Lives of Ants, Brains, Cities,
and Software . Nueva York, Scribner, 2001.
· Levy,
Pierre Cibercultura. Santiago, Dolmen, 2001.
· McLuhan,
Marshall & McLuhan, Eric. Las leyes de los medios.
México, Grijalbo, 1988.
· Oram, Andy
Peer–to–peer. Harnessing the power of disruptive
technologies. Sebastopol, O'Reilly, 2001.
· Piscitelli,
Alejandro La Generación Nasdaq. Apogeo ¿y
derrumbe? de la economía digital.
Buenos Aires, Granica, 2001
· Piscitelli,
Alejandro Ciberculturas 2.0. En la era de las máquinas
inteligentes. Buenos Aires, Paidos, 2002.
· Spector,
Robert. Amazon.com. Get big fast. Inside the revolutionary
business model that changed the world, New York,
Harperbusiness, 2000.
· Watts,
Duncan J. Six degrees. The science of a connected age. New
York, Norton, 2003.
· Weinberger,
David Small pieces loosely joined. A unified theory of the
web. Cambridge. Perseus Publishing, 2002
· Wolff,
Michael Burn Rate: How I Survived the Gold Rush Years on the
Internet. New York, Simon & Schuster, 2001.
· Zingrone,
Frank The Media Simplex. At the edge of meaning in the age of
chaos. Toronto, Stoddart, 2001.
· Paper
original de Paul Baran de 1959
http://www.ibiblio.org/pioneers/baran.html
· Visual
companion de Linked. The new science of networks
http://www.nd.edu/~networks/linked/down.html
· Web
Characterization
http://www.dlib.org/dlib/april03/lavoie/04lavoie.html
·
Self–organized networks
http://www.nd.edu/~networks/
· Small World
Project
http://smallworld.columbia.edu/project.html
· Networt
dynamics
http://www.santafe.edu/sfi/research/focus/networkDynamics/index.html
· How big is
the web?
http://www.neci.nj.nec.com/homepages/lawrence/websize.html.
· Fractales
en la Wikipedia
http://es.wikipedia.org/wiki/Fractal
· 13 Rooters
Maestros (Niveles de raíz)
http://www.root–servers.org/
· Mapas de
Internet
http://www.peacockmaps.com
· Atlas of
cyberspace
http://www.cybergeography.org/atlas/atlas.html
· [1]
– Las últimas décadas han sido
epistemológicamente fructíferas al renunciar a los
tecno–determinismos y a los reduccionismos de distinta
estopa. Así hemos comenzado por fin a entender con cierta
elegancia, economía de conceptos y precisión en la
detección de los engarces, en qué debe consistir
una ecología
de los medios. Y en este proceso hemos debido renunciar a
cualquier intento totalizador que trate de encapsular la
complejidad de la comunicación humana bajo un solo enfoque
o precepto. Como modelo de lo
que no necesitamos hacer está por ejemplo la
desahuciada semántica general de Alfred Korzybski.
Entre los varios puntos de partida que pueden llevarnos a mejorar
nuestra comprensión de esta ecología están
las entradas que nos abren los siguientes enfoques. La
enunciación de la problemática y algunos estudios
de campo de Gregory Bateson (1993). Las leyes de la forma de
Marshall McLuhan (1988). La mediamorfosis de Roger Fiedler
(1998). La mediología de Regis Debray (1993). La
remediación de Jay Bolter y Richard Grusin (2000). La
simplexología de Frank Zingrone (2003), asi como muchos
otros intentos mas o menos felices de entender esta endiablada
problemática.
· [2]
– Su inexistencia no quita que ya existen varios linaje de
análisis complejos de la red que merecen nuestro interés y
beneplácito. No nos referimos aquí ni a las
monografías que han entendido los casos exitosos de
exploración/explotación de la red con fines
comerciales (como The Perfect Store Inside Ebay de Adam
Cohen o Amazon.com: Get Big Fast de Robert Spector Amazon,
ni mucho menos a las lecturas mas o menos serias acerca de la
evolución de la web y de su naturaleza
esquizofrénica de paraíso/infierno como Dot.con
: How America Lost Its Mind and Money in the Internet Era de
John Cassidy o Burn Rate: How I Survived the Gold Rush Years
on the Internet de Michael Wolff) si mas bien a los enfoque
mas sazonados –generalmente provenientes del campo europeo)
como los de Herve Fischer El choque digital, o de Pierre
Levy Ciberculturas incluyendo obviamente Escape
Velocity: Cyberculture at the End of the Century de Mark
Dery.
· [3]
– Un leit–motif del presente libro es ver
reflejada como en un fractal las mil y una ocasiones en que las
teorías
y los conceptos insistieron en defender prácticas y
enfoques erróneos del funcionamiento de lo complejo
aferradas como estaban a los enfoques centralistas y
jerárquicos. La simpática obra de Steven Johnson
Emergence: The Connected Lives of Ants, Brains, Cities, and
Software –extensamente utilizada en el capítulo
anterior de este libro– está precisamente dedicada a
revelar la futilidad, impropiedad y en definitiva reduccionismo
al buscar entender fenómenos como la vida en los
hormigueros, la dinámica neuronal, el va y viene de las
ciudades y la emergencia de software inteligente tratando de
pensarlos bajo el eje de arriba hacia abajo. Su propuesta,
ampliamente transitada en estos días, consiste
precisamente en reconocer en la complejidad no una esencia sino
un constructo, y en la tramas mas intrincadas y en las relaciones
mas abstrusas simplemente la ejecución de reglas simples y
locales que generan patrones de complejidad emergente
creciente.
· [4]
– En 1971, Ray Tomlinson inventó un programa de email
para mandar mensajes a través de una red distribuida y
envió el primer email con un mensaje que decía
"Testing 1–2–3" dirigido a sí mismo. El
segundo mensaje de email, fue mucho más importante, se
dirigió a todos los usuarios de ARPANET y consistió
en las instrucciones y convenciones del recién inventado
correo
electrónico. En 1972, Ray Tomlinson modificó el
programa de correo, eligió el signo @ para denotar "en" y
su sistema resultó tan popular que solo un año mas
tarde el 75% del tráfico de ARPANET era correo
electrónico. No se trata de meras anécdotas. Como
siempre pasa con las invenciones, Tomlinson no tenía la
menor idea del poder de su engendro, y nunca pudo imaginar que
con esas simples medidas cambiaría la historia del
mundo.
· [5]
– Agradecemos infinitamente a Albert Barabasi haber
encapsulado datos sueltos y deshilachados en las fronteras de
muchas disciplinas haciéndolos converger en su obra
seminal Linked How Everything Is Connected to Everything Else
and What It Means abriendo así las puertas para una
redologia o teoría
de las redes. La misma nos ha servido de baliza clave para
entender no solo la topología de la red sino
también para poner en resonancia conceptos como los de
complejidad–redes libres de escala–mundos
pequeños–web fragmentada, etc. Existen al menos un
cuarteto de libros no
menos valiosos que enlazan temas semejantes con maestría
sino igual al menos digna de destacar. Se trata de las obras de
David Weinberger Small pieces loosely joined. A unified theory
of the web; de Mark Buchanan Nexus. Small worlds and the
grounbreaking theory of networks; de Duncan J. Eatts Six
degrees. The science of a connected age y de Bernardo
Huberman The Laws of the Web: Patterns in the Ecology of
Information.
· [6]
– Para un paneo sinóptico de estas cuestiones
recomendamos consultar los siguientes sitios web: Web
Characterization; Self–organized networks; Small World
Project; Network dynamics; How big is the web?
· [7]
– Un fractal es un objeto que tiene por lo menos una de las
siguientes características: detalle en escalas
arbitrariamente grandes o pequeñas, es demasiado irregular
para ser descrito en términos geométricos
tradicionales, tiene auto–similitud exacta o
estadística, su dimensión es mayor que su
dimensión topológica, o es definido recursivamente.
Esta definición como muchas que hemos utilizado en este
libro provienen de la Wikipedia sin lugar a dudas el mas
ambicioso de todos los proyectos colaborativos,
auto–organizados y voluntarios que hay en la red. Con
500.000 términos definidos primorosamente en cerca de 50
lenguas en ejemplos como estos podemos ver brillar en todo su
esplendor el poder de la red.
· [8]
– Un técnico cambió dos líneas de
código y casi toda la red se cayó durante tres
horas. Lo que el empleado de MAI Network Services hizo fue
permitir que un router indicara cuál de ellos
proveía el mejor camino a toda la red. Así decenas
de miles routers eligieron a ese pequeño tubo como el
camino privilegiado para enviar mensaje en la red. En pocos
minutos centenares de miles de routers cayeron en el agujero
negro. Fue lo mas parecido a la caída de la red
jamás visto.
· [9]
– El nivel superior de la jerarquía de servicios de
nombre de dominio (DNS),
también llamado nivel de raíz, es gestionado por un
conjunto de 13 servidores llamados servidores de nombre de
raíz. Estos servidores son la columna vertebral del
funcionamiento de la red. Son propiedad de distintas agencias
independientes y los servidores se llaman austeramente A, B, C
hasta llegar al M. Diez de ellos están en USA y los
restantes tres en Tokio, Londres, y Estocolmo. En Octubre del
2002 un ataque masivo de denegación de servicio
distribuido de origen desconocido interrumpió durante una
hora el servicio web en nueve de los 13 servidores raíces
que controlan la red. Aunque los usuarios finales no
experimentaron las consecuencias, y aunque muchos expertos a
posteriori minimizaron el episodio, otros analistas insisten en
que de haberse prolongado el ataque durante varias horas
más, éste hubiese supuesto el colapso de la red.
Los contraterroristas insisten en que los atacantes o bien no
sabían cuando tiempo hacía falta para bajar a los
servidores, o a lo mejor estaban disfrazando su ataque porque su
interés real era probar su red DDoS con vistas a futuros
ataques mas puntuales. Aunque recibieron 40 veces el
tráfico usual, para que el ataque se propagara al resto de
la red se hubiese necesitado al menos 4 horas de ataque
continuado. En el intento frustrado de los ciberterroristas se
perdieron entre el 6% y el 10% de los sitios buscados.
El contenido del presente trabajo está
gobernado por la siguiente Licencia de Creative Commons:
ver http://creativecommons.org/licenses/by–nc/2.0
Alejandro Piscitelli