domingo, 3 de mayo de 2009

9. Internet y la teoría de las redes







Lo que la WEB permite avizorar es una pantalla convertida en un nuevo soporte intelectual. Como lo fueron en un momento los ejercicios del Arte de la Memoria de los griegos y romanos, la inscripción en piedra o en cera; el papiro y el papel y más recientemente los soportes electromagnéticos. Lo que pasó con la Internet, refugio del texto y del blanco y negro, y que terminó explotando en una paleta de nuevas formas expresivas, de textos unidos a la distancia, de nuevas y divertidas formas de enseñar, aprender, ver, oír, negociar, vender, abusar, entretener y aburrir es lo mismo que pasa con todas las tecnologías.
Hay aquí dos principios evolutivos de los medios de comunicación que estamos desanudando permanentemente. El primero es que con cada nuevo avance tecnológico se gana mucho y se pierde también bastante. El segundo es que los nuevos medios generalmente recuperan elementos de la comunicación natural (biológica) eclipsados por los medios primitivos anteriores (que extendieron la comunicación sacrificando algunos de sus beneficios naturales).
Pero es imposible entender estos resultados si antes no se entiende que los produce. Por ello hay que investigar la infraestructura que hace posible el nuevo medio y sobretodo la reglas que regulan su crecimiento, expansión y emergencia. Este teórico y el próximo estarán dedicados a estas cuestiones
1 Los desconocidos de siempre
Cada vez que se habla de los orígenes de Internet un personaje mítico reaparece en el relato. Se trata nada más y nada menos que de Paul Baran, quien con sus cumplidos 30 años aceptó un trabajo nuevo en la Rand Corporation, un think tank creado por el gobierno de USA en 1946.
Corría el lejanísimo 1959 y a Baran le ofrecieron un trabajito por demás ambicioso. Diseñar un sistema de comunicaciones que fuera capaz de detener un presunto ataque nuclear soviético. Por esa época la Rand estaba demasiado asociada a las elucubraciones de personajes como Herman Kahn una de cuyas debilidades fue dedicarse a los juegos de guerra -al mejor estilo del Dr Insólito de Stanley Kubrick- calculando la muerte eventual de millones de personas como resultado de un ataque nuclear.
A Baran tales elucubraciones no le preocupaban demasiado, y con mucho entusiasmo miró hacia otro lado y se puso a inventar un sistema de comunicaciones totalmente distinto al existente, algo que plasmó publicando una serie de 12 volúmenes que harían historia, aunque con unos cuantos zig zags en el medio.
Para Baran la vulnerabilidad de la red de comunicaciones existente derivaba obviamente del sistema de comando sobre la que se basaba en los años 50. Dado que una detonación nuclear destruye todo lo que está alrededor de la zona de impacto Baran imaginó como preservar a otros nodos no colindantes de los efectos del ataque.
Analizando los sistemas dominantes en la época encontró tres tipos de organizaciones de redes a los que denominó centralizado, descentralizado y distribuido. Obviamente descartó de un plumazo como objeto de elección a las dos primeras configuraciones dado el altísimo grado de vulnerabilidad que las mismas exhibirían ante un ataque nuclear.
Para Baran la estructura ideal para esos fines habría de ser una red distribuida en forma de retícula, muy parecida a un sistema de autopistas, con tan alto grado de redundancia, donde aun cuando muchos de los nodos fueran borrados del mapa por un ataque, caminos alternativos mantendrían la conexión entre el resto de los nodos sobrevivientes.
Primer punto interesante: los militares le pidieron a Baran que diseñara la red alternativa, por lo cual la fantasía o mito acerca de un origen militar de la red tiene un punto a su favor. Pero lo que esta narrativa olvida/oculta es que finalmente los militares no le hicieron un ápice de caso a Baran. Es por ello que la estructura real de la red tal como la conocemos hoy tiene poco y nada que ver con las propuestas concretas de Baran -aunque quienes finalmente la diseñaron por ese remanido mecanismo de equifinalidad -llegaron a un idéntico fin a través de numerosos caminos alternativos.

Cuando ser digital fue una mala palabra
Además la oposición de los militares (pero también de la industria) a las ideas de Baran no se reflejó tan solo en filosofías o ideologías incompatibles, sino en un hecho mucho más insoportable a la mentalidad de la época -lo que muestra cuanto más fuerte es la resistencia cultural que la incultura técnica.
A saber que la propuesta de Baran incluía descomponer los mensajes en pequeños paquetes de información capaces de viajar independientemente uno de los otros en la red. Para lograr este (entonces) delirio hacía falta un sistema de comunicación inexistente en ese momento, es por ello que Baran abogó por la creación de un sistema de comunicación digital.
Esta demanda difícilmente podía ser sostenida o cumplida por el monopolio telefónico de AT&T que desde la década de 1910 reinó omnímodo en USA, hasta su desmembramiento en 1982.
Por eso el entonces presidente de AT&T, Jack Ostermani rechazó de un plumazo la propuesta de Baran, sosteniendo que era imposible de lograr, y de que en el caso de que llevara a algo, eso implicaría crearle una competencia interna a AT&T.
Las ideas de Baran naufragaron pues ante la oposición combinada del pensamiento centralizado de los militares y de las prácticas monopólicas de la industria, y sólo serían valoradas casi una década más tarde cuando ARPA (Advanced Research Project Agency) las desarrollaría por su propia cuenta para (re)-descubrir imprevistamente, que solo habían llegado 10 años más tarde al mismo lugar. Pero entonces todo sería diferente en el escenario internacional y local y lo otrora inviable se demostraría necesario.

2. Modelos alternativos de topología y diseño
Necesitamos entender la topología (la arquitectura espacial) de la red si queremos diseñar herramientas, y queremos ofrecer servicios que corran eficazmente sobre ella. Curiosamente, aunque es un producto 100% humano, la red no ha sido diseñada en forma centralizada. Desde el punto de vista estructural la red se parece mucho más a un ecosistema que a un reloj suizo o cualquier otro aparato que haya emanado a partir de un plano y que se haya concretado en el espacio físico.
Es por ello que entender a Internet supone no solo competencias ingenieriles o matemáticas -indispensables por otra parte- sino sobre todo una comprensión detallada del intrincado juego de fuerzas políticas, económicas sociales y culturales que subyacen en su genealogía y devenir.
Por eso conviene volver al corazón de la guerra fría. Al durísimo golpe narcisista que supuso para los norteamericanos el lanzamiento de la perra Laica (ya sea que fuera una o varias como en las mejores películas-perros de Hollywood) al espacio.
Como respuesta a esa obscenidad el presidente y general Dwight Eisenhower (ese del botón I lique Ike) creo ARPA. A los pocos años -y sobre todo como respuesta a la visión de Kennedy que a su vez creó a la NASA (National Astronautical Space Agency)- DARPA se quedo sin credenciales ni objetivos -mostrando como la competencia inter-burocrática también tiene su dinámica interna.
Por ello DARPA se convirtió en una usina estratégica de proyectos para los militares. Y así Internet entró en el radar de sus preocupaciones en 1965/1966 cuando Bob Taylor el director de los programas de computación de ARPA se encontró con un agujero negro que consumía millones de dólares del presupuesto federal.
En esa época las computadoras costaban millones de dólares y Taylor en un día de Epifanía y revelación se dio cuenta de algo al mismo tiempo trivial y catastrófico. Las distintas redes de computadoras entonces existentes eran incapaces de comunicarse entre sí. Es más, dos máquinas pertenecientes a distintas redes, presentes en la misma sala no eran capaces de hablar entre ellas.
Divisado el problema se trataba entonces de crearle la solución y esta consistiría debidamente en algún protocolo capaz de interconectar máquinas hasta ese momento mudas o competentes en dialectos que nadie era capaz de traducir entre sí. Con un millón de poderosos y sustanciales dólares de la época -al mismo tiempo que un grupo de investigadores ingleses comandados por Donald Davis del laboratorio nacional de Física Ingles redescubría las principales ideas y enseñanzas de Baran por su cuenta- ARPA se puso a trabajar en serio.
En un simposio que tuvo lugar en Texas en 1967 estas ideas empezaron a circular ampliamente y lo que había sido anatema una década atrás se convertiría en la ciencia normal de la época. El packet switching devendría el abc de la red y aunque los militares intervendrían poco y nada en su desarrollo, Internet estaba lista para dar sus primeros pasos.
Pero no nos perdamos en la historia sino que concentrémonos básicamente en la topología... actual de la red, así como en tratar de desentrañar los principios de crecimiento y de construcción -si es que existen- que dan cuenta de porque Internet tiene la forma actual, en que se parece ésta a otras redes, y que podamos deducir a partir del conocimiento de la topología de la red conducente a un pre-conocimiento de sus posibles futuros.
Aunque de Internet hay miles de mapas no existe EL MAPA de la red. Lo que si existen son innumerables mapas que buscan delinearla o recorrer sus principales configuraciones
Por eso si nos apersonamos en peacockmaps.com encontraremos unos impresionantes mapas realizados por Bill Cheswick y Hal Burch (nada baratos eso si como que cuestan U$ 30 c/u). Se trata de unos llamativos entramados densos en nodos y enlaces que solo tienen como homólogos las topografías computadas o las resonancias nucleares magnéticas del cerebro. Con una importante distinción, mientras que el cerebro hace milenios que se ha estabilizado anatómicamente la red crece sin parar y multiplica diariamente su hiperconectividad y su densidad .

¿Porque es tan importante esta cuestión de los mapas? En todo caso resulta sumamente sugestivo que siendo el camino que va de la idea al objeto o producto invariablemente un proceso que comienza con detallados inventarios y topografías, partiendo de meticulosos diagramas y visualizaciones, la Internet este recorriendo el camino inverso.
Nadie sabe exactamente qué forma tiene y por más que permanentemente se la patrulla y se la fotografía, se la ausculta y se la mide, sus contornos son borrosos y sus centros son difícilmente localizables y discernibles.
Esta inaccesibilidad está muy ligada al carácter anárquico, auto-organizado y fundamentalmente local y distribuido que subyace a la evolución de la red.
Quienquiera -cumpliendo un mínimo de requisitos- se "enchufa" a la red. Y si hubiera alguien que decidiera cerrar la red (a excepción tal vez de un locura insana del gobierno de USA que alguna día decidiera darse de baja en la red. como hizo hace un tiempo atrás de la UNESCO) lo único que lograría es aislar una porción minúscula de la misma, pero inmediatamente la información se auto-regeneraría y a los efectos prácticos tal caída seria invisible o en todo caso insignificante.
Es precisamente la naturaleza distribuida, descentralizada y localmente aislada de la red la que la vuelve por un lado prácticamente inmune a cualquier ataque, pero al mismo tiempo lo que hace tan difícil retratarla y aislarla.

3. Navegando en el mar de los sargazos
Insistimos. Si estamos obsesionados por establecer un (o varios) mapa de la red ello obedece a que el diseño de nuevos y más eficientes servicios requiere obligadamente que tengamos un mucho mejor conocimiento de su topología.
Por otra parte cuando Internet se inventó nadie imaginó que podría llegar a tener más de 1 millón de usuarios, o que sus usos trascenderían primero los militares y luego los relacionados con la investigación. Ni en 1970 ni en 1980 pero tampoco en el mucho más cercano 1990 a nadie se le ocurrió jamás que existiría una Internet comercial y mucho menos una red de comunicación universal -que inclusive llegaría a Marte y que a junio del 2004 tiene 750 millones de usuarios.
Incluso el e-mail best seller de todas las aplicaciones en la red emergió en forma inopinada de un travestismo en el uso de la transferencia de archivos a manos de Rega Tomlison un empleado de BBN y uno de los inventores de la propia red.
Lo mismo está pasando con la web que es uno de los mejores ejemplos que podemos mostrar hoy acerca de un desastre exitoso. Es decir de un sistema que se escapa de la mesa del dibujante, que es abrazado entusiastamente por una cantidad impresionante de usuarios, antes de que su diseño o funcionalidad esté estabilizada, y que de pronto toma al mundo por sorpresa y se auto configura de una modo al mismo tiempo creativo pero sumamente ineficiente .
Porque si Tim Berners-Lee o Robert Caillou pudieron haberse imaginado algunas de las consecuencias de lo que estaban pergeñando en el CERN, seguramente la experiencia de los usuarios hubiesen sido totalmente distintas y la forma en que hoy usamos la web se hubiese modificado acorde.
Lamentablemente la red tal como existe hoy difícilmente se adapte a nuestras necesidades y no es casual que la revolución de los weblogs haya implicado un cambio brutal en su uso y su reapropiación por parte de los usuarios comunes y silvestres. Si los weblogs son tan exitosos -y el nuestro que ustedes están utilizando testimonia hacia dónde va esta tendencia- ello se debe justamente a las fallas estructurales en la concepción y el diseño de la red.
Nada sorprendentemente mientras que muchos investigadores y programadores insisten en crear nuevas aplicaciones y servicios, un grupo de memetistas (entre los cuales afortunada y orgullosamente nos encontramos) hemos empezado a hacernos una pregunta clave: ¿Qué es exactamente lo que hemos inventado? ¿Qué tipo de criatura hemos liberado en el ciberespacio? y ¿En qué puede o nos podemos convertir nosotros a partir de su mediamorfosis y evolución? ¿Hasta qué punto los hábitos de lectura y escritura, que sabemos son constitutivos de nuestra identidad y subjetividad se verán transformados y modificados por su emergencia?
Porque aunque es un producto 100% humano, Internet tiene una vida propia. A poco que la usamos y analizamos exhibe todas las propiedades que son específicas de un sistema complejo evolutivo, lo que la vuelve mucho más parecida a una célula que a un chip.
Es por ello que quienes usamos e investigamos la red hemos devenido en tiempo récord de exploradores en diseñadores. Todos los internetólogos nos asemejamos cada día más a biólogos y a ecólogos (de la información) –más que a físicos y matemáticos- que deben lidiar con un sistema increíblemente complejo que a todos los efectos prácticos nos preexiste y es independiente de nosotros .
Pero si por un lado estamos en muchas mejores condiciones que los biólogos para entender a la red, porque después de todo nosotros la hemos diseñado, y conocemos cada uno y todos los componentes que la conforman, por el otro concordamos con los bioanalistas, en que no tenemos la más remota idea de qué pasa (qué tipo de estructura es la que emerge) cuando el sistema se pone en movimiento y se auto-organiza como mejor le place.
Pero hoy estamos en el 2004 y no en 1997 o en el 2000. Porque si antes del 2000 se sabía poco y nada de la topología de Internet, a partir del trabajo seminal de los hermanos Michalis, Petros y Christos Faloutsos On Power-Law Relationship of the Internet Topology lo que sabemos ahora es que la red de routers que corona Internet es una red scale-free. Dicho en romance todos los modelos de la red que imaginaban hasta bien entrado 1999 que ésta crecía en forma aleatoria estaban profunda y definitivamente equivocados.
Lo que los hermanos Faloutsos no sabían, empero, es que sus investigaciones se aplicaban pari passu a la WWW. O lo que es lo mismo, dicho nuevamente en romance, que Internet no pertenece a la categoría de las redes aleatorias, sino que merece un lugar destacado en el zoológico de las topologías scale-free.
Este descubrimiento no es nada menor o secundario e implicó un claro cuestionamiento a la concepción tradicional de que las redes físicas y los routers no tenían ninguna motivación ni inteligencia para desarrollarse según preceptos y reglas que valen mucho más para el caso de las relaciones sociales o de la libre elección de jerarquías en la páginas que navegamos
Cualquier inventario o análisis de la evolución de la red muestra su carácter exponencial como lo hemos testimoniado en numerosos gráficos y cuadros. Esta expansión está literalmente conectada a la naturaleza scale-free de la red. Pero esto no alcanza. Para entender Internet necesitamos 3 principios adicionales.
Principios para entender a la Red
Para entender la topología de la red debemos considerar también pues la conexión preferencial (preferential attachment). La lógica indica que todos deberíamos conectar nuestra computadora al router mas cercano, después de todo cuanto más largo sea el cable más nos costará estar conectado.
Sin embargo tal apreciación intuitiva es profundamente errónea. El largo del cable es irrelevante cuando del costo de las comunicaciones se trata. Porque lo que realmente nos interesa cuando de abaratar la conexión se trata no es la distancia al nodo sino su ancho de banda. Y no siempre es mucho más económico conectarnos con un router cercano pero pobre en bits que con uno lejano pero mucho más rico en ellos.
Esto se traduce en algo evidente, los nodos más ricos (porque proveen más ancho de banda) son ipso facto los que más conexiones atraen -confirmando un efecto bola de nieve o una estructura el ganador se queda con todo (the-winner-takes-all).
Pero no alcanza aun con estos dos criterios para entender cómo funciona la red. Porque aunque no sea el criterio definitivo, la distancia también importa. 2 km de fibra óptica son más caros que 0.5 km.... Por otra parte los nodos no aparecen al azar en los mapas. Hay mas routers donde hay más demanda de ellos, y la demanda es a su vez una propiedad de quienes quieren usarlos.
Además la correlación pertinente es aquella que pone en correspondencia la densidad de la población y la densidad de los nodos de Internet. Para nuestra infinita sorpresa la distribución de los routers sobre el territorio de USA conforma un conjunto fractal, esos objetos auto similares descubiertos por Benoit Mandelbrot en los años 70.
Por lo tanto para entender la dinámica de la red debemos tener en cuenta estas cuatro dimensiones o variables: reconocimiento, conexión preferencial, dependencia de la distancia y estructura fractal subyacente.
Cada una de estas dimensiones si se desbandaran por la suya podría destruir la red. Así si la longitud del cable fuera la única consideración a tener en cuenta la red podría fácilmente recaer en una estructura semejante a la de las autopistas, pero increíblemente (¿mágicamente?) las cuatro dimensiones interactúan entre sí eliminando cualquier posible inestabilidad y haciendo posible una Red scale-free.

4 Computación parásita y los usos debidos e indebidos de la red
Sin embargo esto no debe hacernos olvidar que tremenda labilidad es al mismo tiempo motivo de sorpresa y alegría pero simultáneamente una posible condición para el eventual colapso de la red.
No vamos a recrear aquí el episodio que ocurrió el 25 de abril de 1997, a saber la catástrofe de MAI que por error convirtió a una configuración defectuosa de routers en un agujero negro por el cual se perdió todo el tráfico de la red en pocas horas.
Pero ese ejemplo -y hay muchos más ligados a la proliferación de viruses y otras intoxicaciones en la red- mostró la vulnerabilidad de la red a la propagación de errores u horrores.
Paul Baran jamás se imagino que los enemigos de la red podrían estar durmiendo en su seno y que serian no los rusos sino los hackers o más bien los crackers quienes con una facilidad sorprendente podrían liquidar a la red en tiempo récord -algo que puede hacerse apropiándose de los routers clave (hay 10 en toda la red) que orientan todo el tráfico, ya sea lanzando marejadas de ataques de denegación de servicio contra los nodos más activos -tal como sucedió un par de años atrás contra Yahoo, Amazon y otros sitios claves. Y lo mismo aconteció con el gusano Código Rojo.
Pero ¿qué es efectivamente Internet? ¿Podría como se le ocurrió a alguien ser una computadora -aunque más no fuera en clave metafórica? Es obvio que la red está compuesta por computadoras que intercambian páginas y e-mails, pero esto por sí mismo de ningún modo convierte a la red en una súper-computadora. A menos que.. a menos que se pudieran inventar programas, gusanos, troyanos o algún tipo de dispositivos de software que tomaran por ataque a todas las computadoras del mundo que y las hicieran trabajar para alguien -ya fuese el profesor Neurus o el doctor Zeus?
Que esta idea no era descabellada pudo comprobarse cuando en Agosto del 2001 a una nota aparecida en Nature publicada por Albert-Lazlo Barabasi y otros autores acerca de la parásita, fue respondida por decenas de miles de mails enviados desde todos los rincones del mundo, amenazando a los intrépidos que habían osado invadir las máquinas sagradas de la red con represalias sin fin.
Lo que hizo el equipo comandado por Albert Lazlo-Barabasi autor del excelente texto Linked. The New Science of Networks (Perseus, 2002) que ha sido el eje del desarrollo de este teórico, fue disfrazar simples pedidos de armado de páginas, con verdaderas proezas computacionales que le eran exigidas a las computadoras host. Cuando una computadora recibía un paquete hacia un chequeo rutinario para comprobar que el mensaje no se había corrompido en su viaje sideral, pero sin saberlo al mismo tiempo estaba resolviendo un problema que les interesaba a los investigadores usando recursos computacionales ajenos -sin que encima los dueños de los equipos se dieran cuenta.
Lo que los investigadores descubrieron era la posibilidad de esclavizar máquinas remotas abriendo así el abanico a una parafernalia de preguntas y problemas computacionales, éticos y legales que ni siquiera hoy están bien planteados y mucho menos resueltos.
¿Qué pasaría si alguien (al estilo de El hombre en el jardín 1) perfeccionara la técnica y pudiera generar un sistema de concentración de recursos ajenos a gran escala. ¿De quienes son los recursos disponibles en la red que de pronto son esclavizados o apropiados por terceros? ¿Sería esto el inicio de Internet como supercomputadora? ¿Podría emerger un ser consciente e inteligente (al estilo de Skynet en Terminator 1 y 2) como resultado de estos devaneos?
De lo que no hay duda es de que en un futuro sumamente cercano las computadoras empezarán a intercambiar servicios y esfuerzos sobre la base de una demanda ad hoc. Si hoy los chips funcionan mucho más rápido que las redes, en el futuro ambas velocidades se equipararán y problemas inverosímilmente complejos se resolverán a manos de una computadora única o de un grupo de investigadores aislado.
Ya tenemos ejemplos de este tipo discutidos en esa excelente obra sobre el par a par compilada por Andy Oram Peer-to-peer. Harnessing the power of disruptive technologies, Sebastopol, O'Reilly, 2001, De hecho experiencias como SETI acudieron a este esquema aunque claro en una escala infinitamente menor, pero sobretodo pidiendo permiso, algo que Barabasi y sus colegas evitaron graciosamente hacer.
Pero si el procesamiento distribuido fuera un norma una infinidad de recursos actualmente disponibles (las horas y horas que mi maquina permanece conectada al ADSL al cuete por ejemplo) podrían servir para tamaños y maravillosos fines, sin que yo deba enterarme necesariamente.
Nuevamente las tecnologías van mucho más rápido que nuestra capacidad de investigarlas, analizarlas y sobretodo normativizarlas. En el próximo teórico avanzaremos en la aplicabilidad de estas nociones al caso de la WWW y sobre todo a la posibilidad ,sobre la base del descubrimiento de leyes de información en sistemas gigantescos, de la posibilidad de rediseñarlos y sobretodo de imaginar su domesticación y/o control, aunque éste en realidad pase mucho mas por un auto-control que por cualquier hetero-regulación.


Publicado por Piscitelli el Noviembre 2, 2004 01:21 PM | TrackBack
Tomado: http://www.ilhn.com/datos/teoricos/archives/001898.php

No hay comentarios:

Publicar un comentario