domingo, 3 de mayo de 2009

9. Internet y la teoría de las redes







Lo que la WEB permite avizorar es una pantalla convertida en un nuevo soporte intelectual. Como lo fueron en un momento los ejercicios del Arte de la Memoria de los griegos y romanos, la inscripción en piedra o en cera; el papiro y el papel y más recientemente los soportes electromagnéticos. Lo que pasó con la Internet, refugio del texto y del blanco y negro, y que terminó explotando en una paleta de nuevas formas expresivas, de textos unidos a la distancia, de nuevas y divertidas formas de enseñar, aprender, ver, oír, negociar, vender, abusar, entretener y aburrir es lo mismo que pasa con todas las tecnologías.
Hay aquí dos principios evolutivos de los medios de comunicación que estamos desanudando permanentemente. El primero es que con cada nuevo avance tecnológico se gana mucho y se pierde también bastante. El segundo es que los nuevos medios generalmente recuperan elementos de la comunicación natural (biológica) eclipsados por los medios primitivos anteriores (que extendieron la comunicación sacrificando algunos de sus beneficios naturales).
Pero es imposible entender estos resultados si antes no se entiende que los produce. Por ello hay que investigar la infraestructura que hace posible el nuevo medio y sobretodo la reglas que regulan su crecimiento, expansión y emergencia. Este teórico y el próximo estarán dedicados a estas cuestiones
1 Los desconocidos de siempre
Cada vez que se habla de los orígenes de Internet un personaje mítico reaparece en el relato. Se trata nada más y nada menos que de Paul Baran, quien con sus cumplidos 30 años aceptó un trabajo nuevo en la Rand Corporation, un think tank creado por el gobierno de USA en 1946.
Corría el lejanísimo 1959 y a Baran le ofrecieron un trabajito por demás ambicioso. Diseñar un sistema de comunicaciones que fuera capaz de detener un presunto ataque nuclear soviético. Por esa época la Rand estaba demasiado asociada a las elucubraciones de personajes como Herman Kahn una de cuyas debilidades fue dedicarse a los juegos de guerra -al mejor estilo del Dr Insólito de Stanley Kubrick- calculando la muerte eventual de millones de personas como resultado de un ataque nuclear.
A Baran tales elucubraciones no le preocupaban demasiado, y con mucho entusiasmo miró hacia otro lado y se puso a inventar un sistema de comunicaciones totalmente distinto al existente, algo que plasmó publicando una serie de 12 volúmenes que harían historia, aunque con unos cuantos zig zags en el medio.
Para Baran la vulnerabilidad de la red de comunicaciones existente derivaba obviamente del sistema de comando sobre la que se basaba en los años 50. Dado que una detonación nuclear destruye todo lo que está alrededor de la zona de impacto Baran imaginó como preservar a otros nodos no colindantes de los efectos del ataque.
Analizando los sistemas dominantes en la época encontró tres tipos de organizaciones de redes a los que denominó centralizado, descentralizado y distribuido. Obviamente descartó de un plumazo como objeto de elección a las dos primeras configuraciones dado el altísimo grado de vulnerabilidad que las mismas exhibirían ante un ataque nuclear.
Para Baran la estructura ideal para esos fines habría de ser una red distribuida en forma de retícula, muy parecida a un sistema de autopistas, con tan alto grado de redundancia, donde aun cuando muchos de los nodos fueran borrados del mapa por un ataque, caminos alternativos mantendrían la conexión entre el resto de los nodos sobrevivientes.
Primer punto interesante: los militares le pidieron a Baran que diseñara la red alternativa, por lo cual la fantasía o mito acerca de un origen militar de la red tiene un punto a su favor. Pero lo que esta narrativa olvida/oculta es que finalmente los militares no le hicieron un ápice de caso a Baran. Es por ello que la estructura real de la red tal como la conocemos hoy tiene poco y nada que ver con las propuestas concretas de Baran -aunque quienes finalmente la diseñaron por ese remanido mecanismo de equifinalidad -llegaron a un idéntico fin a través de numerosos caminos alternativos.

Cuando ser digital fue una mala palabra
Además la oposición de los militares (pero también de la industria) a las ideas de Baran no se reflejó tan solo en filosofías o ideologías incompatibles, sino en un hecho mucho más insoportable a la mentalidad de la época -lo que muestra cuanto más fuerte es la resistencia cultural que la incultura técnica.
A saber que la propuesta de Baran incluía descomponer los mensajes en pequeños paquetes de información capaces de viajar independientemente uno de los otros en la red. Para lograr este (entonces) delirio hacía falta un sistema de comunicación inexistente en ese momento, es por ello que Baran abogó por la creación de un sistema de comunicación digital.
Esta demanda difícilmente podía ser sostenida o cumplida por el monopolio telefónico de AT&T que desde la década de 1910 reinó omnímodo en USA, hasta su desmembramiento en 1982.
Por eso el entonces presidente de AT&T, Jack Ostermani rechazó de un plumazo la propuesta de Baran, sosteniendo que era imposible de lograr, y de que en el caso de que llevara a algo, eso implicaría crearle una competencia interna a AT&T.
Las ideas de Baran naufragaron pues ante la oposición combinada del pensamiento centralizado de los militares y de las prácticas monopólicas de la industria, y sólo serían valoradas casi una década más tarde cuando ARPA (Advanced Research Project Agency) las desarrollaría por su propia cuenta para (re)-descubrir imprevistamente, que solo habían llegado 10 años más tarde al mismo lugar. Pero entonces todo sería diferente en el escenario internacional y local y lo otrora inviable se demostraría necesario.

2. Modelos alternativos de topología y diseño
Necesitamos entender la topología (la arquitectura espacial) de la red si queremos diseñar herramientas, y queremos ofrecer servicios que corran eficazmente sobre ella. Curiosamente, aunque es un producto 100% humano, la red no ha sido diseñada en forma centralizada. Desde el punto de vista estructural la red se parece mucho más a un ecosistema que a un reloj suizo o cualquier otro aparato que haya emanado a partir de un plano y que se haya concretado en el espacio físico.
Es por ello que entender a Internet supone no solo competencias ingenieriles o matemáticas -indispensables por otra parte- sino sobre todo una comprensión detallada del intrincado juego de fuerzas políticas, económicas sociales y culturales que subyacen en su genealogía y devenir.
Por eso conviene volver al corazón de la guerra fría. Al durísimo golpe narcisista que supuso para los norteamericanos el lanzamiento de la perra Laica (ya sea que fuera una o varias como en las mejores películas-perros de Hollywood) al espacio.
Como respuesta a esa obscenidad el presidente y general Dwight Eisenhower (ese del botón I lique Ike) creo ARPA. A los pocos años -y sobre todo como respuesta a la visión de Kennedy que a su vez creó a la NASA (National Astronautical Space Agency)- DARPA se quedo sin credenciales ni objetivos -mostrando como la competencia inter-burocrática también tiene su dinámica interna.
Por ello DARPA se convirtió en una usina estratégica de proyectos para los militares. Y así Internet entró en el radar de sus preocupaciones en 1965/1966 cuando Bob Taylor el director de los programas de computación de ARPA se encontró con un agujero negro que consumía millones de dólares del presupuesto federal.
En esa época las computadoras costaban millones de dólares y Taylor en un día de Epifanía y revelación se dio cuenta de algo al mismo tiempo trivial y catastrófico. Las distintas redes de computadoras entonces existentes eran incapaces de comunicarse entre sí. Es más, dos máquinas pertenecientes a distintas redes, presentes en la misma sala no eran capaces de hablar entre ellas.
Divisado el problema se trataba entonces de crearle la solución y esta consistiría debidamente en algún protocolo capaz de interconectar máquinas hasta ese momento mudas o competentes en dialectos que nadie era capaz de traducir entre sí. Con un millón de poderosos y sustanciales dólares de la época -al mismo tiempo que un grupo de investigadores ingleses comandados por Donald Davis del laboratorio nacional de Física Ingles redescubría las principales ideas y enseñanzas de Baran por su cuenta- ARPA se puso a trabajar en serio.
En un simposio que tuvo lugar en Texas en 1967 estas ideas empezaron a circular ampliamente y lo que había sido anatema una década atrás se convertiría en la ciencia normal de la época. El packet switching devendría el abc de la red y aunque los militares intervendrían poco y nada en su desarrollo, Internet estaba lista para dar sus primeros pasos.
Pero no nos perdamos en la historia sino que concentrémonos básicamente en la topología... actual de la red, así como en tratar de desentrañar los principios de crecimiento y de construcción -si es que existen- que dan cuenta de porque Internet tiene la forma actual, en que se parece ésta a otras redes, y que podamos deducir a partir del conocimiento de la topología de la red conducente a un pre-conocimiento de sus posibles futuros.
Aunque de Internet hay miles de mapas no existe EL MAPA de la red. Lo que si existen son innumerables mapas que buscan delinearla o recorrer sus principales configuraciones
Por eso si nos apersonamos en peacockmaps.com encontraremos unos impresionantes mapas realizados por Bill Cheswick y Hal Burch (nada baratos eso si como que cuestan U$ 30 c/u). Se trata de unos llamativos entramados densos en nodos y enlaces que solo tienen como homólogos las topografías computadas o las resonancias nucleares magnéticas del cerebro. Con una importante distinción, mientras que el cerebro hace milenios que se ha estabilizado anatómicamente la red crece sin parar y multiplica diariamente su hiperconectividad y su densidad .

¿Porque es tan importante esta cuestión de los mapas? En todo caso resulta sumamente sugestivo que siendo el camino que va de la idea al objeto o producto invariablemente un proceso que comienza con detallados inventarios y topografías, partiendo de meticulosos diagramas y visualizaciones, la Internet este recorriendo el camino inverso.
Nadie sabe exactamente qué forma tiene y por más que permanentemente se la patrulla y se la fotografía, se la ausculta y se la mide, sus contornos son borrosos y sus centros son difícilmente localizables y discernibles.
Esta inaccesibilidad está muy ligada al carácter anárquico, auto-organizado y fundamentalmente local y distribuido que subyace a la evolución de la red.
Quienquiera -cumpliendo un mínimo de requisitos- se "enchufa" a la red. Y si hubiera alguien que decidiera cerrar la red (a excepción tal vez de un locura insana del gobierno de USA que alguna día decidiera darse de baja en la red. como hizo hace un tiempo atrás de la UNESCO) lo único que lograría es aislar una porción minúscula de la misma, pero inmediatamente la información se auto-regeneraría y a los efectos prácticos tal caída seria invisible o en todo caso insignificante.
Es precisamente la naturaleza distribuida, descentralizada y localmente aislada de la red la que la vuelve por un lado prácticamente inmune a cualquier ataque, pero al mismo tiempo lo que hace tan difícil retratarla y aislarla.

3. Navegando en el mar de los sargazos
Insistimos. Si estamos obsesionados por establecer un (o varios) mapa de la red ello obedece a que el diseño de nuevos y más eficientes servicios requiere obligadamente que tengamos un mucho mejor conocimiento de su topología.
Por otra parte cuando Internet se inventó nadie imaginó que podría llegar a tener más de 1 millón de usuarios, o que sus usos trascenderían primero los militares y luego los relacionados con la investigación. Ni en 1970 ni en 1980 pero tampoco en el mucho más cercano 1990 a nadie se le ocurrió jamás que existiría una Internet comercial y mucho menos una red de comunicación universal -que inclusive llegaría a Marte y que a junio del 2004 tiene 750 millones de usuarios.
Incluso el e-mail best seller de todas las aplicaciones en la red emergió en forma inopinada de un travestismo en el uso de la transferencia de archivos a manos de Rega Tomlison un empleado de BBN y uno de los inventores de la propia red.
Lo mismo está pasando con la web que es uno de los mejores ejemplos que podemos mostrar hoy acerca de un desastre exitoso. Es decir de un sistema que se escapa de la mesa del dibujante, que es abrazado entusiastamente por una cantidad impresionante de usuarios, antes de que su diseño o funcionalidad esté estabilizada, y que de pronto toma al mundo por sorpresa y se auto configura de una modo al mismo tiempo creativo pero sumamente ineficiente .
Porque si Tim Berners-Lee o Robert Caillou pudieron haberse imaginado algunas de las consecuencias de lo que estaban pergeñando en el CERN, seguramente la experiencia de los usuarios hubiesen sido totalmente distintas y la forma en que hoy usamos la web se hubiese modificado acorde.
Lamentablemente la red tal como existe hoy difícilmente se adapte a nuestras necesidades y no es casual que la revolución de los weblogs haya implicado un cambio brutal en su uso y su reapropiación por parte de los usuarios comunes y silvestres. Si los weblogs son tan exitosos -y el nuestro que ustedes están utilizando testimonia hacia dónde va esta tendencia- ello se debe justamente a las fallas estructurales en la concepción y el diseño de la red.
Nada sorprendentemente mientras que muchos investigadores y programadores insisten en crear nuevas aplicaciones y servicios, un grupo de memetistas (entre los cuales afortunada y orgullosamente nos encontramos) hemos empezado a hacernos una pregunta clave: ¿Qué es exactamente lo que hemos inventado? ¿Qué tipo de criatura hemos liberado en el ciberespacio? y ¿En qué puede o nos podemos convertir nosotros a partir de su mediamorfosis y evolución? ¿Hasta qué punto los hábitos de lectura y escritura, que sabemos son constitutivos de nuestra identidad y subjetividad se verán transformados y modificados por su emergencia?
Porque aunque es un producto 100% humano, Internet tiene una vida propia. A poco que la usamos y analizamos exhibe todas las propiedades que son específicas de un sistema complejo evolutivo, lo que la vuelve mucho más parecida a una célula que a un chip.
Es por ello que quienes usamos e investigamos la red hemos devenido en tiempo récord de exploradores en diseñadores. Todos los internetólogos nos asemejamos cada día más a biólogos y a ecólogos (de la información) –más que a físicos y matemáticos- que deben lidiar con un sistema increíblemente complejo que a todos los efectos prácticos nos preexiste y es independiente de nosotros .
Pero si por un lado estamos en muchas mejores condiciones que los biólogos para entender a la red, porque después de todo nosotros la hemos diseñado, y conocemos cada uno y todos los componentes que la conforman, por el otro concordamos con los bioanalistas, en que no tenemos la más remota idea de qué pasa (qué tipo de estructura es la que emerge) cuando el sistema se pone en movimiento y se auto-organiza como mejor le place.
Pero hoy estamos en el 2004 y no en 1997 o en el 2000. Porque si antes del 2000 se sabía poco y nada de la topología de Internet, a partir del trabajo seminal de los hermanos Michalis, Petros y Christos Faloutsos On Power-Law Relationship of the Internet Topology lo que sabemos ahora es que la red de routers que corona Internet es una red scale-free. Dicho en romance todos los modelos de la red que imaginaban hasta bien entrado 1999 que ésta crecía en forma aleatoria estaban profunda y definitivamente equivocados.
Lo que los hermanos Faloutsos no sabían, empero, es que sus investigaciones se aplicaban pari passu a la WWW. O lo que es lo mismo, dicho nuevamente en romance, que Internet no pertenece a la categoría de las redes aleatorias, sino que merece un lugar destacado en el zoológico de las topologías scale-free.
Este descubrimiento no es nada menor o secundario e implicó un claro cuestionamiento a la concepción tradicional de que las redes físicas y los routers no tenían ninguna motivación ni inteligencia para desarrollarse según preceptos y reglas que valen mucho más para el caso de las relaciones sociales o de la libre elección de jerarquías en la páginas que navegamos
Cualquier inventario o análisis de la evolución de la red muestra su carácter exponencial como lo hemos testimoniado en numerosos gráficos y cuadros. Esta expansión está literalmente conectada a la naturaleza scale-free de la red. Pero esto no alcanza. Para entender Internet necesitamos 3 principios adicionales.
Principios para entender a la Red
Para entender la topología de la red debemos considerar también pues la conexión preferencial (preferential attachment). La lógica indica que todos deberíamos conectar nuestra computadora al router mas cercano, después de todo cuanto más largo sea el cable más nos costará estar conectado.
Sin embargo tal apreciación intuitiva es profundamente errónea. El largo del cable es irrelevante cuando del costo de las comunicaciones se trata. Porque lo que realmente nos interesa cuando de abaratar la conexión se trata no es la distancia al nodo sino su ancho de banda. Y no siempre es mucho más económico conectarnos con un router cercano pero pobre en bits que con uno lejano pero mucho más rico en ellos.
Esto se traduce en algo evidente, los nodos más ricos (porque proveen más ancho de banda) son ipso facto los que más conexiones atraen -confirmando un efecto bola de nieve o una estructura el ganador se queda con todo (the-winner-takes-all).
Pero no alcanza aun con estos dos criterios para entender cómo funciona la red. Porque aunque no sea el criterio definitivo, la distancia también importa. 2 km de fibra óptica son más caros que 0.5 km.... Por otra parte los nodos no aparecen al azar en los mapas. Hay mas routers donde hay más demanda de ellos, y la demanda es a su vez una propiedad de quienes quieren usarlos.
Además la correlación pertinente es aquella que pone en correspondencia la densidad de la población y la densidad de los nodos de Internet. Para nuestra infinita sorpresa la distribución de los routers sobre el territorio de USA conforma un conjunto fractal, esos objetos auto similares descubiertos por Benoit Mandelbrot en los años 70.
Por lo tanto para entender la dinámica de la red debemos tener en cuenta estas cuatro dimensiones o variables: reconocimiento, conexión preferencial, dependencia de la distancia y estructura fractal subyacente.
Cada una de estas dimensiones si se desbandaran por la suya podría destruir la red. Así si la longitud del cable fuera la única consideración a tener en cuenta la red podría fácilmente recaer en una estructura semejante a la de las autopistas, pero increíblemente (¿mágicamente?) las cuatro dimensiones interactúan entre sí eliminando cualquier posible inestabilidad y haciendo posible una Red scale-free.

4 Computación parásita y los usos debidos e indebidos de la red
Sin embargo esto no debe hacernos olvidar que tremenda labilidad es al mismo tiempo motivo de sorpresa y alegría pero simultáneamente una posible condición para el eventual colapso de la red.
No vamos a recrear aquí el episodio que ocurrió el 25 de abril de 1997, a saber la catástrofe de MAI que por error convirtió a una configuración defectuosa de routers en un agujero negro por el cual se perdió todo el tráfico de la red en pocas horas.
Pero ese ejemplo -y hay muchos más ligados a la proliferación de viruses y otras intoxicaciones en la red- mostró la vulnerabilidad de la red a la propagación de errores u horrores.
Paul Baran jamás se imagino que los enemigos de la red podrían estar durmiendo en su seno y que serian no los rusos sino los hackers o más bien los crackers quienes con una facilidad sorprendente podrían liquidar a la red en tiempo récord -algo que puede hacerse apropiándose de los routers clave (hay 10 en toda la red) que orientan todo el tráfico, ya sea lanzando marejadas de ataques de denegación de servicio contra los nodos más activos -tal como sucedió un par de años atrás contra Yahoo, Amazon y otros sitios claves. Y lo mismo aconteció con el gusano Código Rojo.
Pero ¿qué es efectivamente Internet? ¿Podría como se le ocurrió a alguien ser una computadora -aunque más no fuera en clave metafórica? Es obvio que la red está compuesta por computadoras que intercambian páginas y e-mails, pero esto por sí mismo de ningún modo convierte a la red en una súper-computadora. A menos que.. a menos que se pudieran inventar programas, gusanos, troyanos o algún tipo de dispositivos de software que tomaran por ataque a todas las computadoras del mundo que y las hicieran trabajar para alguien -ya fuese el profesor Neurus o el doctor Zeus?
Que esta idea no era descabellada pudo comprobarse cuando en Agosto del 2001 a una nota aparecida en Nature publicada por Albert-Lazlo Barabasi y otros autores acerca de la parásita, fue respondida por decenas de miles de mails enviados desde todos los rincones del mundo, amenazando a los intrépidos que habían osado invadir las máquinas sagradas de la red con represalias sin fin.
Lo que hizo el equipo comandado por Albert Lazlo-Barabasi autor del excelente texto Linked. The New Science of Networks (Perseus, 2002) que ha sido el eje del desarrollo de este teórico, fue disfrazar simples pedidos de armado de páginas, con verdaderas proezas computacionales que le eran exigidas a las computadoras host. Cuando una computadora recibía un paquete hacia un chequeo rutinario para comprobar que el mensaje no se había corrompido en su viaje sideral, pero sin saberlo al mismo tiempo estaba resolviendo un problema que les interesaba a los investigadores usando recursos computacionales ajenos -sin que encima los dueños de los equipos se dieran cuenta.
Lo que los investigadores descubrieron era la posibilidad de esclavizar máquinas remotas abriendo así el abanico a una parafernalia de preguntas y problemas computacionales, éticos y legales que ni siquiera hoy están bien planteados y mucho menos resueltos.
¿Qué pasaría si alguien (al estilo de El hombre en el jardín 1) perfeccionara la técnica y pudiera generar un sistema de concentración de recursos ajenos a gran escala. ¿De quienes son los recursos disponibles en la red que de pronto son esclavizados o apropiados por terceros? ¿Sería esto el inicio de Internet como supercomputadora? ¿Podría emerger un ser consciente e inteligente (al estilo de Skynet en Terminator 1 y 2) como resultado de estos devaneos?
De lo que no hay duda es de que en un futuro sumamente cercano las computadoras empezarán a intercambiar servicios y esfuerzos sobre la base de una demanda ad hoc. Si hoy los chips funcionan mucho más rápido que las redes, en el futuro ambas velocidades se equipararán y problemas inverosímilmente complejos se resolverán a manos de una computadora única o de un grupo de investigadores aislado.
Ya tenemos ejemplos de este tipo discutidos en esa excelente obra sobre el par a par compilada por Andy Oram Peer-to-peer. Harnessing the power of disruptive technologies, Sebastopol, O'Reilly, 2001, De hecho experiencias como SETI acudieron a este esquema aunque claro en una escala infinitamente menor, pero sobretodo pidiendo permiso, algo que Barabasi y sus colegas evitaron graciosamente hacer.
Pero si el procesamiento distribuido fuera un norma una infinidad de recursos actualmente disponibles (las horas y horas que mi maquina permanece conectada al ADSL al cuete por ejemplo) podrían servir para tamaños y maravillosos fines, sin que yo deba enterarme necesariamente.
Nuevamente las tecnologías van mucho más rápido que nuestra capacidad de investigarlas, analizarlas y sobretodo normativizarlas. En el próximo teórico avanzaremos en la aplicabilidad de estas nociones al caso de la WWW y sobre todo a la posibilidad ,sobre la base del descubrimiento de leyes de información en sistemas gigantescos, de la posibilidad de rediseñarlos y sobretodo de imaginar su domesticación y/o control, aunque éste en realidad pase mucho mas por un auto-control que por cualquier hetero-regulación.


Publicado por Piscitelli el Noviembre 2, 2004 01:21 PM | TrackBack
Tomado: http://www.ilhn.com/datos/teoricos/archives/001898.php

Rescatado el programa de teorías de la organización

FACULTAD DE HUMANIDADES
DEPTO. CIENCIAS DE LA COMUNICACION

Programa del curso

TEORIAS CONTEMPORÁNEAS DE LA ORGANIZACIÓN
Dos créditos


Profesor
Sello de la Facultad responsable
Karina J. Garcia-Ruano



Correo electrónico del profesor
garcia98@msu.edu
Horario

Lunes a viernes
5:30 a 9:00pm
Sábado
7:30am a 1:15/3:30 PM
Del 27 de febrero al 7 de marzo 2009



Módulo I
Unidad II
Teorías de la Organización
Maestría en Comunicación Estratégica e Imagen Institucional


DESCRIPCIÓN DEL CURSO.


Éste es un curso de reconocimiento, análisis crítico y aplicación de las principales teorías relacionadas con las organizaciones en el marco de la comunicación estratégica y manejo de la imagen institucional. Tradicionalmente, se hace la crítica de programas académicos en los que la teoría aparece divorciada de la práctica y de la realidad que los profesionales enfrentan en su desempeño cotidiano. Sin embargo, este programa de posgrado fue diseñado para construir un lazo entre ambos, tomando en cuenta el valor esencial de las teorías para describir, explicar y predecir fenómenos de la realidad.

La metodología de enseñanza-aprendizaje está diseñada para que los participantes del módulo reconozcan las principales teorías, como contenido mínimo y no exhaustivo, y que profundicen en las que consideren de mayor relevancia. El objetivo omnipresente de la unidad es incentivar a que los participantes generen su propio conocimiento para el mejoramiento continuo de su desempeño profesional y el cumplimiento de los principios éticos relacionados con la gerencia de la comunicación en los diferentes sectores institucionales (i.e., público, privado y ONG´s).



OBJETIVOS DEL CURSO.


Al finalizar esta unidad de estudio, las y los participantes estarán en capacidad de:

Objetivo General:
Desarrollar su propia base de conocimiento que les permita el análisis crítico y la aplicación ética y efectiva de las teorías de la organización para la dirección y ejecución de la comunicación estratégica en las instituciones.


Objetivos Específicos:

Conocer, analizar y criticar las teorías más relevantes relacionadas con la organización y la comunicación estratégica.
Identificar y aplicar las teorías más efectivas para la descripción, explicación y/o predicción de fenómenos (manejo de crisis, campañas, dirección de proyectos) en casos prácticos relacionados con la comunicación estratégica en la realidad nacional e internacional.
Analizar las consecuencias prácticas y fundamentos éticos de la aplicación de determinadas teorías en la organización y su entorno.
Identificar potenciales teorías que puedan aplicar para el trabajo final de graduación y la resolución de casos grupales a presentar en el último semestre del programa.


ORGANIZACIÓN DE LA ASIGNATURA.


SESION
TEMA
ACTIVIDADES
TEMAS SIGUIENTE SESION

EVALUACIÓN
1

Vie
02/27
Presentación de participantes
Introducción del curso, programa, clases, trabajos y expectativas.
Introducción de la Unidad: Valor de las teorías
Por qué teorías de la organización
Relación con teorías de la comunicación y otras áreas
Principales áreas en las teorías de la organización
Marco de referencia para el análisis de teorías
Aplicación de teorías a casos prácticos
Presentaciones personales


Comentarios a Taller de Diagnóstico 1 enviado por vía electrónica el 24/02
Puesta en común (Karina)
Discusión grupal
Materiales de compartir adicionales











Ejemplo
Resolución de Caso práctico
Teorías de la Administración
Preguntas de discusión Sesión-1

Taller2:
1.1-Tabla de elementos para análisis de teorías
1.2- para elaboración y resolución de casos



2
Sab
28/02
Teorías de Administración
Introducción teorías de administración (management)
Teorías de los Sistemas
Sistemas Cooperativos
Sistemas Alejados del Equilibrio
Sistemas Complejos

Teoría de la Contingencia

Teorías de las RR Humanas
Del Comportamiento
Modelo Político
Teoría de Recursos y Capacidades

Teoría del Caos
Teoría de la Autocredibilidad

Puesta en Común (k)
Discusión Grupal y materiales compartir
Ejemplos Aplicación de teorías a casos

Teorías del Marketing
Preguntas de discusión sesión 2
Taller 3
Resolución de Caso Práctico y Exposición Grupal



3
Lu
03/03
Teorías del Marketing

Orígenes y conceptos básicos
Importancia y Gestión dentro de las empresas

Teoría del comportamiento planeado y la acción razonada

Teoría de la disonancia cognitiva

Marketing Social

*Posible cubrir: Personal and Impersonal Influence


Puesta en Común (k)
Discusión Grupal y materiales compartir
Exposición de ejemplos nacionales e internacionales de aplicación de teorías del marketing
Mesa Redonda1:(tema a definir)
Teorías Culturales y Organización



Preguntas de discusión Sesión3 (incluir listado de 3 ejemplos nacionales y/o internacionales de aplicación de teorías del marketing)
Taller 4: Conclusiones Mesa Redonda
4
Mar
04/03
Teorías Culturales y Organización
Esfera Pública
Públicos y contra públicos
Sociedad Civil
Interacteraccionismo Simbólico, Social Construction of Reality

Framing

Espiral del Silencio

Puesta en Común (k)
Discusión Grupal y materiales compartir
Vídeos YouTube

Teorías de las RRPP
Preguntas de discusión Sesión 4
Taller 5: Resolución casos diferentes para cada grupo y exposición
5
Mie
4/3
Teorías de las RRPP I
Teorías de las RRPP I
Fundamentos teóricos de las RRPP
Teoría Situacional
Teoría de la Coorientación
Teoría de la Excelencia
Puesta en Común (k)
Discusión Grupal y materiales compartir
Teorías para Mensajes Efectivos
Preguntas de discusión Sesión5
Taller 6
Simulación

6
Jue
5/3
Teorías para Crear Estrategias Efectivas de Mensajes a públicos internos y externos de la organización
Puesta en Común (k)
Discusión Grupal e identificación de públicos clave en experiencia personal
Teorías y Metodologías
Taller 7: Caso de Diseño de Mensaje con Público Clave y sector organizacional específico
7
Vie
6/3
Teorías y Metodologías


Metodologías cuantitativas y cualitativas
Puesta en Común (k)
Discusión Grupal sobre metodologías de interés
Aplicación de teorías a estrategias, planes y materiales
Taller 8: Ejercicios de selección de metodologías para casos específicos
Evaluación Comprensiva
8
Sab
7/3
Aplicación de teorías a estrategias, planes y materiales
Conclusiones del curso
Puesta en Común (k)
Discusión Grupal y materiales compartir
Ejemplos de recursos en Internet



Taller 9: Mesas de Trabajo: Manejo de Estrategia/ Campaña de...



OBSERVACIONES


El desarrollo de los contenidos se realizará a través de actividades de aplicación constante a la realidad de los participantes. El curso es elaborado desde los participantes, no hacia ellos. Cada persona es protagonista de su propio aprendizaje y es invitada a aprovechar los recursos de la mejor manera posible. Las expectativas de cada participante se intercalan con las del grupo para provocar un ambiente de intercambio e inter-aprendizaje constante.

La participación de la profesora será de facilitar, no de proveer. Cada participante del curso se espera que participe activamente en las diferentes actividades desarrolladas en horas de clase, previas y posteriores a las mismas, a través de ejercicios de aplicación y evaluación:

Antes de cada sesión: Prelecturas y Preguntas de discusión. Cada sesión está estructurada de forma que los participantes se preparen con prelecturas. De cada prelectura, deberán preparar 2 preguntas de discusión, las cuales enviarán a la profesora por vía electrónica al menos 2 horas antes de cada sesión. Las preguntas servirán para conducir la discusión de los temas y como método de evaluación de contenidos.

Durante cada sesión: Puesta en común, discusión grupal y materiales para compartir. La profesora preparará los contenidos mínimos para cada clase, que serán presentados como una puesta en común, abierta a preguntas, ejemplos y comentarios de los participantes. La discusión de los temas se hará de forma grupal, tomando como base las preguntas de discusión enviadas por medio electrónico previo a cada clase. Asimismo, se promueve que los participantes compartan materiales, ejercicios y lecturas adicionales que complementen los contenidos y lecturas mínimas del curso para enriquecimiento del grupo. Todos estos elementos se tomarán en cuenta para evaluar la asistencia participativa.

Después de clase: Talleres y Evaluación Final. El curso se desarrolla con base a la evaluación constante, que permita la apropiación y consolidación de los conocimientos en cada etapa de la unidad. Al final del curso, se desarrollan actividades de integración de los contenidos y conocimiento a través de una evaluación comprensiva y un trabajo de aplicación práctica. Se espera que los participantes desarrollen los talleres y trabajos de evaluación con un profundo involucramiento y en vistas no solo a la aplicación sino a la generación de conocimiento.

Reglamentos, Respeto y Honestidad: El desarrollo del curso se basará en los reglamentos del Estudiante de la Universidad Rafael Landívar y de Estudios de Posgrado vigentes. Especialmente se requiere que los participantes presenten en todo momento un comportamiento de respeto y honestidad hacia el resto de compañeros, profesora y para la elaboración de sus trabajos. El plagio será severamente sancionado de acuerdo a reglas de la URL.

Accesibilidad especial: Si alguno de los participantes requiere equipo especial para accesibilidad auditiva, visual, de movimiento, etc., por favor comuníquelo a la profesora con anticipación para coordinar convenientemente.



RESUMEN DEL PROCESO DE EVALUACIÓN.


Preguntas de Discusión (5/3pts): 15 puntos
Talleres (9/5 pts): 45 puntos
Asistencia Participativa: 10 puntos
Evaluación Comprensiva: 15 puntos
Evaluación práctica final: 15 puntos

Total: 100 puntos


Criterios de evaluación propuestos:

Aplicación de conceptos y contenidos
Relevancia para el contenido que está siendo aplicado o evaluado.
Pensamiento crítico
Referencias de bibliografía y materiales relevantes
Claridad, precisión y calidad en exposición de ideas

En los programas de Maestría, se gana la asignatura con 71 puntos
BIBLIOGRAFÍA A DESARROLLAR DURANTE LA ASIGNATURA.


Se recomienda que los participantes inicien las lecturas con anticipación ya que las clases presenciales se desarrollarán de forma diaria e intensiva.

Sesión 1
Recursos de lectura e investigación
Teorías... para qué

Por qué teorías de la Organización
Relación con otras áreas
- Comunicación
- Administración (management)
- Sociología
- Antropología
- Psicología

Principales ramas de la teoría de la organización

Marco de referencia para análisis de teorías
Supuestos teóricos
Principales aplicaciones – Ejemplos clásicos
Principales críticas & Limitaciones
Implicaciones éticas y aporte social en el contexto guatemalteco
Aplicación de teorías a casos
- Qué son los estudios de caso
- Para qué sirven
- Cómo se elaboran
Austin & Pinkleton, 2001. Cap. 13: What is a theory useful for? P. 267-270

Navegar en la página:
http://www.cw.utwente.nl/theorieenoverzicht/Theory%20clusters/

Rivas, L.A. (2007) Mapa de las Teorías de la Organización. P. Intro 276-77
Comparación y Mapa 309-310

Sesión 2 – Sab 28/02/09

Introducción teorías de administración (management)
Teorías de los Sistemas
Sistemas Cooperativos
Sistemas Alejados del Equilibrio
Sistemas Complejos

Teoría de la Contingencia

Teorías de las RR Humanas
Del Comportamiento
Modelo Político
Teoría de Recursos y Capacidades

Teoría del Caos
Teoría de la Autocredibilidad

Otras

Rivas, L.A. (2007) Mapa de las Teorías de la Organización. Completo (pp. 276-310)

Teoría de los sistemas:
http://www.cw.utwente.nl/theorieenoverzicht/Theory%20clusters/Organizational%20Communication/System_Theory.doc/

Monografias:
http://www.monografias.com/trabajos11/teosis/teosis.shtml

Teoría Contingencia:
http://www.cw.utwente.nl/theorieenoverzicht/Theory%20clusters/Organizational%20Communication/Contingency_Theories.doc/

Sobre teoría de sistemas, contingencia y otras:
Extracto gestiopolis

Sesión 3 – Lunes 02/03/09

Teorías del Marketing
Orígenes y conceptos básicos
Importancia y Gestión dentro de las empresas

Teoría del comportamiento planeado y la acción razonada

Teoría de la disonancia cognitiva

Marketing Social

*Posible cubrir: Personal and Impersonal Influence

Navegar la página:
http://www.marketing-xxi.com/marketing-presente-futuro.html

http://es.wikipedia.org/wiki/Marketing

http://es.wikipedia.org/wiki/Philip_Kotler

Theory of Planned Behavior/ Reasoned Action

http://www.cw.utwente.nl/theorieenoverzicht/Theory%20clusters/Public%20Relations%2C%20Advertising%2C%20Marketing%20and%20Consumer%20Behavior/theory_planned_behavior.doc/

Disonancia Cognitiva
http://www.cw.utwente.nl/theorieenoverzicht/Theory%20clusters/Public%20Relations%2C%20Advertising%2C%20Marketing%20and%20Consumer%20Behavior/Cognitive_Dissonance_theory.doc/

Marketing Social
Austin & Pinkleton, 2001. Cap. 13: What is a theory useful for? P. 268

Sesión 4 – Martes 03/03/09

Teorías Críticas y Culturales
Esfera Pública
Públicos y contra públicos
Sociedad Civil
Interacteraccionismo Simbólico, Social Construction of Reality

Framing

Espiral del Silencio
Habermas (de la Unidad 1)

Interaccionismo Simbólico
http://es.wikipedia.org/wiki/Interaccionismo_simb%C3%B3lico

Constructivismo
http://infovis.lacoctelera.net/post/2007/10/24/teoraaas-interpretativas-iii-cogniciain-constructivismo-y

Estudios culturalistas
http://infovis.lacoctelera.net/post/2007/11/13/estudios-culturales-de-birmingham-al-recepcionismo-

Cohen, et al. (2001) Sociedad Civil y Teoría Política.

Espiral del Silencio
http://www.cw.utwente.nl/theorieenoverzicht/Theory%20clusters/Media%2C%20Culture%20and%20Society/spiral_of_silence.doc/

Sesión 5 – Miércoles 04/03/09

Teorías de las RRPP I
Fundamentos teóricos de las RRPP
Teoría Situacional
Teoría de la Coorientación
Teoría de la Excelencia
Austin & Pinkleton, 2001. Cap. 13: What is a theory useful for?

Grunig y estudio de la excelencia
http://www.unav.es/cys/xvi1/rgrunig.html

Complementaria:
Arceo, J. (1999) Tratado de Publicidad y Relaciones Públicas. Cap 1: Teoría y Técnica de las Relaciones Públicas.
Sesión 6: Jueves 05/03/09


Teorías para Crear Estrategias Efectivas de Mensajes a públicos internos y externos de la organización

Austin & Pinkleton, 2001. Cap. 14

Sesión 7: Viernes 06/03/09

Teorías y Metodologías
Proceso de Investigación
Investigación Cuantitativa
Investigación Cualitativa

Maguiña y Lopez, 2004.
Perspectivas de la Metodología Cuantitativa y Cualitativa.

Métodos cualitativos
http://www1.universia.net/CatalogaXXI/pub/ir.asp?IdURL=150215&IDC=10010&IDP=CL&IDI=1

Métodos cuantitativos

Cuantitativos, Cualitativos y Triangulación
http://psicoliquidas.spaces.live.com/Blog/cns!CC34544583A6953C!155.entry


Sesión 8 – Sab 07/03/09

Aplicaciones Prácticas de las Teorías para la Planeación Estratégica de la Comunicación

Austin & Pinkleton, 2001. Cap. 15

Tema redes

FICHA TECNICA REDES

Hoy, el papel de los medios de comunicación, se reconstruye ante el avance vertiginoso de la tecnología.

La sociedad está definida en términos de comunicación y esta a su vez, en el término de la red. La cibernética reemplaza a la teoría matemática de la información.

Tiempos atrás, el concepto de innovación, se limitaba a la transmisión de un dato, de cuyo uso había que persuadir a los usuarios. Este concepto estaba enmarcado en una significación única de desarrollo, conformada por una visión particular de progreso, modernización y adopción de ciertas innovaciones. Estos conceptos esconden un rechazo a las denominadas “culturas tradicionales”.

Rogers critica esta teoría, por ser demasiado matemática e ignorar los contextos, definir a los interlocutores aisladamente y considerar una causalidad mecánica con un único sentido.

Propone una definición de comunicación como “convergencia”. “Un proceso en el que los participantes crean y comparten información a fin de llegar a una comprensión mutua” ( Rogers y Kincaid, en Mattelart, 97)

El modelo disfuncionista se sustituye por el análisis de la red de comunicación, la cual está compuesta de individuos conectados entre sí por flujos estructurados de comunicación. Este modelo implica nuevos modelos de investigación, que identifican:

grupos afines: bandas o subsistemas de comunicación en un sistema general
individuos-puente: vinculan entre sí dos o varias bandas a partir de su condición de miembros de una banda
individuos-enlace: vinculan dos o varias bandas, sin ser miembros de ninguna.

Rogers sostiene que están dadas las condiciones para acercar la investigación crítica y la investigación empírica. Esto provoca polémicas. El autor justifica su planteamiento a partir de que la escuela empírica integra en el análisis elementos como el contexto de la comunicación, aspectos étnicos en el proceso de comunicación y métodos plurales.
“La red sirve para hacer olvidar una sociedad profundamente segregada y para proponer una visión armónica de esta. En el momento en que las exclusiones se manifiestan con fuerza, la “ideología de la comunicación”, el nuevo igualitarismo, por medio de la comunicación, cumple su función de legitimación” (Mattelart, 86)

Jacob L. Moreno

Lleva a cabo una metodología para medir las variables de una red de relaciones y cuantificar los modelos de comunicación interindividual dentro de un sistema. Elabora un esquema o sociograma, que indica las actitudes positivas y negativas de los miembros de un grupo e identifica a los líderes o individuos claves. Este modelo se considera un paso importante para la investigación de lo que Moreno llama la “la comunidad armónica”



Bruno Latour y Michel Callon

Establecen una problemática de la red. Introducen el modelo de la traducción o de la construcción socio-técnica. Proponen captar las ciencias dentro de la acción y desde allí entender cómo se construyen, más allá de concebirlas como objetos dados.

Traducir es “poner en la red elementos heterogéneos; mediante la traducción se captan los elementos heterogéneos y se los articula en un sistema de interdependencia” (ídem).

Los innovadores, se hacen aliados, portavoces, introducen tácticas para captar el interés de los interlocutores a participar de nuevas series de alianzas.
Esta visión, se niega al estudio de lo social en “estado puro”. Incluyen en los estudios, el vínculo del ser humano con la naturaleza y los objetos técnicos. “El lazo social entra en la máquina”
CRITICAS:
Louis Quére: Sostiene que se sobrestima la libertad de maniobra del actor y del actor-red, ya que según su opinión, se atenúa el factor de las normas sociales. El lazo social no se establece sobre el azar o algo arbitrario.
Así mismo, objeta que la concepción técnica de esta corriente, ignora la coacción inherente al objeto técnico, sus lógicas internas.
“Al deshacerse de una esencia de la técnica, se corre el riesgo de excluir también el principio mismo de un funcionamiento operativo de la máquina que implica un encadenamiento regulado de mediaciones organizadas más que otras cualesquiera, arbitrarias” (Quéré, en Mattelart, 97)
LAS CIENCIAS COGNITIVAS

Formadas en los años 40, en EEUU, paralelamente al movimiento cibernético, teoría de la información y desarrollo de la lógica matemática en la descripción del funcionamiento del sistema nervioso y el razonamiento humano.
El objeto de estas ciencias es: conocer el acto de conocer. Se interesan en el proceso de la cognición y se concibe el conocimiento como una actividad y no como estado o contenido.

Este proceso se da en el mundo “vivo”, pero también en las máquinas inteligentes. Hay máquinas que reproducen actividades mentales como un orden de comprensión, percepción y decisión.

Identifican un parecido muy cercano entre la inteligencia y el ordenador, por lo que definen la cognición como “la computación de representaciones simbólicas” y a los símbolos como “elementos que representan aquello con lo que se corresponden”. (ídem)

Introducen el término “inteligencia artificial” (IA)

Noción de representación: comprende el funcionamiento del cerebro como un dispositivo de tratamiento de la información, que reacciona selectivamente ante el entorno y la información que llega del exterior.
La inteligencia artificial concibe la organización como un sistema abierto en interacción con el entorno, con “inputs y outputs”.

Humberto Maturana y Francisco Varela (chilenos)

Están en desacuerdo con la posición del sistema abierto. Desarrollan el concepto “autopoiesis”, (del griego: Autos: uno mismo. Poiseín: producir.) y sistema autopoiético.


El sistema autopoiético se organiza como una red de procesos de producción de componentes que a través de las transformaciones e interacciones, generan continuamente la red que los ha producido y conforman un sistema como unidad concreta en el espacio en el que existe, especificando el campo topológico en el que se realiza como red

Esta organización implica la autonomía, circularidad y autorreferencia. Engendra continuamente su propia organización. Reemplaza constantemente sus componentes porque está sometida a perturbaciones externas y forzada a compensarlas. “Así una máquina autopoiética es un sistema homeostásico ( o mejor aún, de relaciones estables) cuya invariante fundamental es su propia organización , la red de relaciones que define” (Varela, en ídem)
En el sistema autopoiético, no se toma en cuenta lo preexistente, sino un orden emergente de las actividades cognitivas. La cotidianidad cognitiva, hace emerger significados, es creadora del mundo. “La cognición es el advenimiento conjunto de un mundo y una idea a partir de la historia de las diversas acciones que cumple un ser en el mundo” (ídem)

Esta corriente rompe con el estudio de la experiencia humana, con la percepción de las cosas. Se interesa por “la integración corporal del espíritu” como dice Varela en la obra del mismo nombre, publicada en 1993. Dialogan la psicología meditativa del budismo y la tradición fenomenológica. Sostienen que la cognición está vinculada tanto al cerebro como al cuerpo, no es un sistema mecánico.

EL PLANETA HIBRIDO

El mundo ya no está ordenado solamente a través de los estados. Las redes de información y comunicación, con flujos invisibles, forman territorios abstractos.
Entran a jugar un papel importante, teóricos de las nuevas empresas globales, transnacionales, a los que Mattelart llama “intelectuales orgánicos” del pensamiento empresarial. Así como la sociología interpretativa se lleva a cabo en un devenir entre lo micro y lo macro, estas nuevas teorías también se desarrollan dentro de este fenómeno.

Mattelart sostiene que el término “globalización” enturbia el campo de la comunicación, ya que según su parecer, proviene de una concepción empresarial de la organización de la economía mundial, en coincidencia con la liberalización y la privatización de las redes de comunicación.
“La liberalización significa el desplazamiento del centro de gravedad de la sociedad hacia el mercado”. (ídem)

Desde esta perspectiva, ahora es el mercado la principal fuente de regulación social. El autor sostiene que de forma creciente, los valores de la empresa y del interés privado, se hicieron predominantes, paralelamente al retroceso de las fuerzas sociales, el servicio público y la noción de “Estado-nación-providencia”. Esto trajo como consecuencia una nueva visión del quehacer de la comunicación. Es de allí donde nace “el modelo empresarial de comunicación” y se promueve como una tecnología de gestión de las relaciones sociales. Según él, este es el marco de referencia: el mercado como regente de las estrategias de comunicación de las organizaciones del estado, asociaciones humanitarias, colectividades locales y territoriales.

A través de la globalización, se instaura una forma particular de concebir el mundo, bajo una visión capitalista cuyo objetivo es la producción de bienes. Este es el “único modo posible de vida, de cultura, de desarrollo y de democracia”. (ídem) La única ley establecida es “la búsqueda del beneficio y el interés exclusivo por los sectores sociales solventes”


Hay autores como Guattari, que critican esta idea tan radical y a los conceptos de mundialidad y de espacio-mundo; las inscriben dentro de la construcción social, conectada con la historia e inmersa en un capitalismo mundial integrado. Colocan la economía de los flujos inmateriales en los orígenes materiales.

Entra el concepto de comunicación-mundo, inspirado en el postulado de economía-mundo. Aquí se dice que la lógica de las redes, es integradora, pero al mismo tiempo produce nuevas segregaciones, exclusiones, disparidades. El sistema mundial está organizado alrededor de las superpotencias. Según Kenichi Ohmae, el mundo global es el “global marketplace”, definido a partir de los polos que irradian el poder. Aunque los grandes países tienen sus propios desequilibrios sociales, siempre son la referencia única.

En América Latina, surgen estudios sobre apropiación, reapropiación, resistencia, mimetismo. Entran nuevos conceptos como criollaje, mestizaje, hibridación, modernidad alternativa. Algunos de los principales autores son: Néstor García Canclini, Martín Barbero, Appadurai, entre otros. Canclini plantea la reivindicación de las culturas populares, el concepto de culturas híbridas.

Ante un contexto de debates sobre intercambio desigual, donde los flujos de la comunicación se conciben cada vez de forma diferente, donde aún hay choques con las posturas conservadoras del “freee flow of information”, donde Latinoamérica se plantea el desarrollo desde la mira del primer mundo, surgen las siguientes interrogantes:

“¿Cómo adquieren sentido para cada comunicad, para cada cultura, las innumerables conexiones a redes que constituyen la trama de la mundialización? ¿Cómo se le resisten, se adaptan, sucumben a ella?” (ídem)
Entre la tensión de pluralidad de culturas y la visión centrípeta comercial, se revelan complejidades ante la emergencia de un mercado mundial.
HACIA UNA NUEVA JERARQUÍA DEL SABER

Jean Francois Lyotard, introduce el término posmodernidad. Los conceptos de división, lucha de clases, adquieren un sentido diferente; decrece la discusión para dar paso a otros temas. Sostiene que se pierde la credibilidad de los grandes relatos, la fe en los héroes. Es el advenimiento de la caída de las ideologías.

Umberto Eco, opina que lo posmoderno es difícil de analizar en un orden cronológico, lo interpreta como una categoría espiritual, un modo de operar. Algo importante es su propuesta de que cada período tiene su propia posmodernidad.
Fredric Jameson, lo contradice sosteniendo que el postmodernismo, se puede ubicar en una época históricamente determinada. Lo sitúa como dominante cultural de la lógica del capitalismo avanzado, caracterizado por un modelo dialéctico de la esencia, apariencia, conceptos de ideología y falsa conciencia. La autenticidad o la falta de ella, se oponen a la alienación y desalienación. Se oponen el significante y significado que reinó en los años sesenta y setenta.

Se construye un “modelo de superficie” o de superficies múltiples. Según Jameson, el mundo pierde profundidad y existe la amenaza de que se convierta en una “superficie brillante, una ilusión esteroscópica, un flujo de imágenes fílmicas carentes de densidad” (Jameson, en ídem)
Se plantean varias crisis: de la metafísica, de los discursos de verdad, el auge de los criterios operativos, tecnológicos que crean confusión sobre lo que es verdadero y justo. El triunfo de “una pragmática de los juegos del lenguaje”

En 1992, Guattari plantea que las máquinas de información y comunicación, la informática, la robótica, los medios de comunicación, son capaces de operar en la subjetividad humana, en la memoria, en la inteligencia. También en la sensibilidad, en los afectos y en el inconsciente. Rechaza la idea de posmodernidad como “paradigma de todos los sometimientos, de todos los compromisos con el status quo existente”. Su objetivo es tener una perspectiva diferente sobre la utilización de las máquinas de comunicar, desde la experimentación social en intercambios múltiples.

Paul Virilio, propone que los cambios acelerados de la tecnología, motivan un pensamiento bajo el signo de “dromología” (dromos = velocidad). Según el autor, esta aceleración es inversamente proporcional a la inercia y es el horizonte de la actividad humana actual. “Lo que hasta ahora parecía el signo de la desventaja y de la invalidez (incapacidad de moverse para actuar) se convierte en el símbolo de progreso y dominio del medio.” (Virilio, en ídem)

Hoy existe una “inercia domiciliaria”, todo lo podemos hacer en casa, debido al acceso a la pantalla. Se pierde el sentido de la duración, el movimiento del cuerpo y la vida social “Cuando no hay tiempo para compartir, no hay democracia posible” (ídem)

Baudrillard, opina que hoy día, la comunicación es víctima de un “exceso de comunicación”, lo que ha ocasionado la “implosión del sentido”, la pérdida de la noción de realidad, en el reino donde todo es un simulacro.

Por su parte, Gianni Vattimo, asegura que la sociedad de los medios de comunicación, está “lejos de ser una sociedad más ilustrada, más educada, más consciente de sí(…) es más compleja, incluso caótica y nuestras esperanzas de emancipación residen en ese “caos” relativo” (Vattinmo, en ídem)

A juicio de estos autores, hemos perdido la historia, el sentido de la realidad y la verdad y el mundo de la comunicación, maneja tensiones con las racionalidades locales, étnicas, sexuales, religiosas. “La liberación de las diversidades es tal vez la oportunidad de una nueva manera de ser (¿Por fin?) humano” (ídem)
En la sociedad de los medios, más allá de la construcción de un ideal emancipador desde la autoconciencia, con un discernimiento claro del ser humano, se instaura un ideal emancipador, sí, pero basado en la “oscilación, la pluralidad y en definitiva, en la erosión del propio principio de realidad”

Baudirllard sostiene que todas las esferas, desde lo macro hasta la intimidad doméstica, están impregnadas con un sistema de control bajo “el fantasma de comunicación”, una compulsión general, se diría talvez, una proyección para existir en todas las pantallas y en todos los programas.
“¿Soy un hombre, soy una máquina? Ya no hay respuesta a esta pregunta antropológica?” (Baudrillard, en ídem)