Manuel Castells: La revolución de la tecnología de la información (1997)

La era de la información. Tomo I (1997)

Manuel Castells

Cap. 1 de Castells, Manuel. La era de la información. Tomo I. Economía, Sociedad y Cultura. Alianza, España, 2000 [1997].


Sumario

¿Qué revolución?

Lecciones de la revolución industrial

  1. La secuencia histórica de la revolución de la tecnología de la información
  1. La microingeniería de los macrocambios: electrónica e información.
  2. La constitución de Internet Tecnologías de red y ubicuidad informática
  3. La divisoria tecnológica de los años setenta
  4. Las tecnologías de la vida
  5. El contexto social y las dinámicas del cambio tecnológico
  1. Modelos, actores y centros de la revolución de la tecnología de la información
  2. El paradigma de la tecnología de la información

La revolución de la tecnología de la información

¿Cuál revolución?

"El gradualismo", escribió el paleontólogo Stephen J. Gould, "la idea de que todo cambio debe ser suave, lento y estable, no brotó de las rocas. Representaba un sesgo cultural común, en parte una respuesta del liberalismo del siglo diecinueve para un mundo en revolución. Pero continúa coloreando nuestra supuestamente objetiva lectura de la historia. La historia de la vida, como yo la leo, es una serie de estadios estables, matizado por raros intervalos con grandes eventos que suceden con mucha rapidez y ayudan a establecer la siguiente era estable." Mi punto de partida, y no soy el único que tiene este supuesto, es que, al final del siglo veinte, estamos atravesando uno de esos raros intervalos en la historia. Un intervalo caracterizado por la transformación de nuestra "cultura material" por obra de un nuevo paradigma tecnológico organizado en torno a las tecnologías de la información.

Por tecnología entiendo exactamente lo que Harvey Brooks y Daniel Bell, "el uso de un conocimiento científico para especificar modos de hacer cosas de un modo reproducible" Entre las tecnologías de la información yo incluyo, como todos, el conjunto convergente de tecnologías en microelectrónica, computación (máquinas y software), telecomunicaciones/transmisiones, y la optoelectrónica. En suma, contrariamente a otros analistas, también incluyo en el reino de las tecnologías de la información a la ingeniería genética y su creciente conjunto de descubrimientos y aplicaciones. Esto es, primero, porque la ingeniería genética se ha concentrado en la decodificación, manipulación, y eventual reprogramación de los códigos de información de la materia viviente. Pero también porque, en los 90s, la biología, la electrónica, y la informática parecían estar convergiendo e interactuando en sus aplicaciones y en sus materiales, y, fundamentalmente, en su aproximación conceptual, un tema que merece más que una mención en este capítulo. Alrededor de este núcleo de tecnologías de la información, en el sentido amplio que fue definido, una constelación de importantes rupturas tecnológicas han tenido lugar en las dos últimas décadas del siglo veinte en materiales avanzados, en fuentes de energía, en aplicaciones médicas, en técnicas de manufactura (existentes o potenciales, como la nanotecnología), y en la tecnología de la transportación, entre otras. Por otra parte, el actual proceso de transformación tecnológica se expande exponencialmente por su habilidad para crear una interfaz entre los campos tecnológicos a través de un lenguaje digital común en el que la información es generada, almacenada, recuperada, procesada y retransmitida. Vivimos en un mundo que, siguiendo la expresión de Nicolás Negroponte, se ha vuelto digital.

La profética optimista y la manipulación ideológica que caracteriza la mayor parte de los discursos sobre la revolución de la tecnología de la información no debe llevarnos equivocadamente a desestimar su verdadera significación. Es un evento histórico tan importante, como este libro tratará de mostrar, como lo fue la Revolución Industrial en el siglo dieciocho, induciendo un patrón de discontinuidad en la base material de la economía, la sociedad, y la cultura. El registro histórico de las revoluciones tecnológicas, tal como fuera compilado por Melvin Kranzberg y Carroll Pursell, muestra que todos se caracterizan por su penetración en todos los dominios de la actividad humana, no como una fuente exógena de impacto, sino como el género con el que esta actividad está tejida. En otras palabras, están orientadas según procesos, además de inducir nuevos productos. Por otra parte, y a diferencia de cualquier revolución, el núcleo de la transformación que estamos experimentando en la revolución actual refiere a las tecnologías del procesamiento y comunicación de la información. La tecnología de la información es para esta revolución lo que las nuevas fuentes de energía fueron para las sucesivas Revoluciones Industriales, desde la máquina al vapor a la electricidad, combustibles fósiles, e incluso la energía nuclear, desde que la generación y distribución de la energía fue el elemento clave subyacente a la sociedad industrial. Sin embargo, este planteo acerca del rol preeminente de la tecnología de la información es frecuentemente confundido con la caracterización de la revolución en curso como esencialmente dependiente de nuevos conocimientos e información. Esto es cierto en el actual proceso de cambio tecnológico, pero también lo es para las revoluciones tecnológicas precedentes, como es demostrado por los principales historiadores de la tecnología, como Melvin Kranzberg y Joel Mokyr. La primer Revolución Industrial, si bien no tuvo bases científicas, se apoyó en el uso extendido de la información, aplicando y desarrollando conocimientos preexistentes. Y la segunda Revolución Industrial, después de 1850, estuvo caracterizada por el rol decisivo de la ciencia en incentivar la innovación. Por cierto, los laboratorios de investigación y desarrollo surgieron por primera vez en la industria química alemana en las últimas décadas del siglo diecinueve.

Lo que caracteriza la revolución tecnológica actual no es la centralidad del conocimiento y la información, sino la aplicación de ese conocimiento e información a la generación de conocimiento y los dispositivos de procesamiento/ comunicación de la información, en un circuito de retroalimentación acumulativa que se da entre la innovación y los usos de la innovación. Un ejemplo quizá pueda esclarecer este análisis. Los usos de nuevas tecnologías de telecomunicación en las dos últimas décadas han atravesado tres etapas diferentes: la automatización de tareas, la experimentación de usos, la reconfiguración de las aplicaciones. En las dos primeras etapas, la innovación tecnológica progresó en función del aprendizaje por uso, según la terminología de Rosemberg. En la tercer etapa, los usuarios aprendieron la tecnología haciendo, y terminaron reconfigurando las redes, y encontrando nuevas aplicaciones. El proceso de retroalimentación generado entre la introducción de nueva tecnología, su uso y su desarrollo hacia nuevos territorios se produce mucho más rápidamente bajo el nuevo paradigma tecnológico. Como resultado, la difusión de la tecnología amplía sin límites el poder de la tecnología, al ser apropiada y redefinida por sus usuarios. Las nuevas tecnologías de la información no son simples herramientas para ser aplicadas, sino que son procesos para ser desarrollados. Usuarios y hacedores pueden llegar a ser la misma cosa. Por tanto los usuarios pueden tomar el control de la tecnología, como en el caso de Internet (ver capítulo 5). Luego sigue una estrecha relación entre los procesos sociales de creación y manipulación de símbolos (la cultura de la sociedad) y la capacidad para producir y distribuir bienes y servicios (las fuerzas productivas). Por primera vez en la historia, la mente humana es una fuerza productiva directa, no solo un elemento decisivo del sistema de producción.

Por lo tanto, las computadoras, los sistemas de comunicación, y la decodificación y programación genética son todos amplificadores y extensiones de la mente humana. Lo que pensamos, y cómo lo pensamos, es expresado en bienes, servicios, output material e intelectual, ya sea comida, refugio, sistema de transporte y de comunicación, computadoras, misiles, salud, educación o imágenes. La creciente integración entre mentes y máquinas, incluyendo la máquina ADN, está cancelando lo que Bruce Mazlish llama la "cuarta discontinuidad" (entre humanos y máquinas), alterando fundamentalmente el modo en que nacemos, vivimos, aprendemos, trabajamos, producimos, consumimos, soñamos, peleamos, o morimos. Por supuesto los contextos culturales/institucionales y la acción social intencionada interactúan decisivamente con el nuevo sistema tecnológico, pero este sistema tiene su propia lógica enclavada, caracterizada por la capacidad de trasladar todos los inputs en un sistema común de información, y de procesar esa información a una velocidad creciente, con poder creciente, a costo decreciente, en una red de recuperación y distribución potencialmente ubicua.

Hay un elemento más caracterizando la revolución de la tecnología de la información en comparación con sus predecesoras históricas. Mokyr ha mostrado que las revoluciones tecnológicas tuvieron lugar solo en unas pocas sociedades, y se difundieron en un área geográfica relativamente limitada, frecuentemente aislando espacial y temporalmente otras regiones del planeta. Así, mientras los europeos tomaban prestado algunos de los descubrimientos ocurridos en China, por muchos siglos China y Japón adoptaron tecnología europea sólo con fundamentos muy limitados, principalmente restringidos a aplicaciones militares. El contacto entre civilizaciones con distintos niveles tecnológicos a menudo termina con la destrucción del menos desarrollado, o de aquellos que aplicaron su conocimiento predominantemente en tecnología no militar, como es el caso de las civilizaciones americanas aniquiladas por los conquistadores españoles, a veces a través de una guerra biológica accidental. La Revolución Industrial se extendió por casi todo el mundo desde sus originarias costas del occidente europeo durante los siguientes dos siglos. Pero su expansión fue altamente selectiva, y su paso lento para los estándares usuales de difusión de tecnología. En verdad, incluso en Inglaterra para mediados del siglo diecinueve, los sectores que habían dado cuenta de la mayoría de la fuerza de trabajo, y al menos la mitad del producto bruto nacional, no estaban afectados por las nuevas tecnologías industriales. Además, su alcance planetario en las décadas siguientes adoptó la forma de dominación colonial, ya fuera en India bajo el imperio británico; en Latinoamérica bajo la dependencia industrial/comercial en Inglaterra y los Estados Unidos; en el desmembramiento de África con el Tratado de Berlín; o con la apertura al comercio extranjero de Japón y China por las armas de los barcos de occidente. En contraste, las nuevas tecnologías de información se han expandido por todo el mundo a la velocidad del relámpago en menos de dos décadas, entre mediados de los 70 y mediados de los 90, desplegando una lógica que yo propongo como característica de esta revolución tecnológica: la aplicación inmediata para su propio desarrollo de las tecnologías que genera, conectando al mundo a través de tecnología de la información. Seguramente hay grandes áreas en el mundo, y considerables segmentos de la población desenchufados del nuevo sistema tecnológico: este es precisamente uno de los argumentos centrales de este libro. Además, la velocidad de la difusión de la tecnología es selectiva, tanto social como funcionalmente. Los tiempos diferenciales para el acceso al poder de la tecnología por parte de las personas, los países y las regiones son una fuente crítica de desigualdad en nuestra sociedad. Las áreas que están desconectadas son cultural y espacialmente discontinuas: están en las ciudades del interior de Estados Unidos o en los banlieues franceses, tanto como en los pueblos de chozas de África o en las paupérrimas áreas rurales de China o India. Sin embargo, las funciones dominantes, los grupos sociales y los territorios a lo largo del mundo están conectados desde mediados de los 90 a un nuevo sistema tecnológico, que como tal, comenzó a tomar forma sólo en los 70.

¿Cómo es que esta transformación fundamental sucedió en lo que sería un instante histórico? Por qué la difusión a través del mundo va a un paso tan acelerado? Por qué es una "revolución"? Desde que nuestra experiencia de lo nuevo está moldeada por nuestro pasado reciente, pienso que las respuestas a estas preguntas básicas podría ser más sencilla con una breve reseña histórica de la Revolución Industrial, todavía presente en nuestras instituciones, y por lo tanto en nuestra mente.


Lecciones de la Revolución Industrial

Los historiadores han mostrado que hubo por lo menos dos Revoluciones Industriales: la primera comenzó en el último tercio del siglo dieciocho, caracterizada por nuevas tecnologías como la máquina a vapor, la máquina de hilar, el proceso Cort en metalúrgica, y más ampliamente, el reemplazo de las herramientas manuales por máquinas; la segunda, unos 100 años después, se caracterizó por el desarrollo de la electricidad, el motor de combustión interna, los químicos producidos por la ciencia, la efectiva fundición de acero, y el comienzo de las tecnologías de la comunicación, con la difusión del telégrafo y la invención del teléfono. Entre las dos hubo continuidades fundamentales, así como algunas diferencias críticas, siendo la principal de ellas la importancia decisiva del conocimiento científico para sostener y guiar el desarrollo tecnológico después de 1850.

Es precisamente por sus diferencias que los aspectos que tienen ambas en común pueden ofrecer importantes reflexiones en la comprensión de la lógica de las revoluciones tecnológicas.

En primer lugar, en ambos casos, somos testigos de lo que Mokyr describe como un periodo de "cambio tecnológico acelerado y sin precedentes". Un conjunto de macro invenciones preparó el terreno para el florecimiento de las micro invenciones en los reinos de la agricultura, la industria y las comunicaciones. La discontinuidad histórica fundamental, de carácter irreversible, fue introducida en el fundamento material de la especie humana, en un proceso dependiente cuya lógica interna y secuencial ha sido investigada por Paul David y teorizada por Brian Arthur. Fueron de hecho "revoluciones", en el sentido de que el súbito, inesperado surgimiento de una aplicación tecnológica transformaba el proceso de producción y distribución, creaba un torrente de nuevos productos, y elevaba decisivamente la ubicación de la riqueza y el poder en un planeta que de pronto se ponía bajo el alcance de aquellos países y elites capaces de dominar el nuevo sistema tecnológico. El lado oscuro de esta aventura tecnológica es que está intrincadamente atada a las ambiciones imperialistas y a los conflictos anti imperialistas.

Esta es precisamente una confirmación del carácter revolucionario de las nuevas tecnologías industriales. El ascenso histórico del así llamado Occidente, de hecho limitado a Inglaterra y a un puñado de naciones de Europa Occidental así como a sus vertientes norteamericana y australiana, está fundamentalmente vinculado con la superioridad tecnológica acumulada en las dos Revoluciones Industriales. Nada en la historia cultural, científica, política o militar del mundo previas a la Revolución Industrial podrían explicar la indisputable supremacía "Occidental"(Anglosajona/Germana, con un toque francés) entre 1750 y 1940. China era por mucho una cultura superior por gran parte de su historia pre Renacentista; la civilización Musulmana (tomando la libertad para usar esta expresión) dominaba gran parte del Mediterráneo y ejerció una influencia significativa en África a lo largo de la modernidad; Asia y África permanecieron y se organizaron en torno a centros políticos y culturales autónomos; Rusia reinaba en un espléndido aislamiento una vasta expansión a través de Europa oriental y Asia; y el imperio español, la cultura europea más rezagada de la Revolución Industrial, fue la mayor potencia mundial por más de dos siglos después de 1492. La tecnología, expresando condiciones sociales específicas, introdujo un nuevo camino histórico en la segunda mitad del siglo dieciocho.

Este camino se originó en Inglaterra, aunque sus raíces intelectuales se remontan por toda Europa y al espíritu renacentista del descubrimiento. De hecho, algunos historiadores insisten en que el conocimiento científico necesario subyacente a la primer Revolución Industrial estaba disponible 100 años antes, listo para ser usado bajo condiciones sociales maduras; o como otros argumentan, esperando la ingenuidad tecnológica de inventores auto entrenados, como Newcomen, Watts, Crompton o Arkwright, capaces de transferir el conocimiento disponible, combinado con la experiencia de quien se da maña, a las decididamente nuevas tecnologías industriales. Sin embargo, la segunda Revolución Industrial, más dependiente del nuevo conocimiento científico, elevó su centro de gravedad hacia Alemania y los Estados Unidos, donde tuvieron lugar los principales desarrollos en química, electricidad y telefonía. Los historiadores han disectado penosamente las condiciones sociales de la ascendente geografía de la innovación tecnológica, frecuentemente centrándose en las características de la educación y los sistemas científicos, o en la institucionalización de los derechos de propiedad. Sin embargo, la explicación contextual de la despareja trayectoria de la innovación tecnológica parece ser excesivamente amplia y abierta a interpretaciones alternativas. Hall y Preston, en su análisis de los cambios geográficos de la innovación tecnológica entre 1846 y 2003, muestra la importancia de los semilleros locales de innovación, de los que Berlín, Nueva York y Boston son coronados como los "centros de alta tecnología industrial del mundo" entre 1880 y 1914, mientras "Londres en ese periodo era una pálida sombra de Berlín". La razón radica en la base territorial de la interacción de los sistemas de descubrimiento tecnológico y las aplicaciones, a saber, en las propiedades sinérgicas de lo que se conoce en la literatura como "milieux de innovación."

Ciertamente, las innovaciones tecnológicas se dieron en grupos, interactuando entre sí en un proceso de retornos incrementados. Cualquiera fuera la condición que determinara tal agrupación, la lección clave a ser retenida es que la innovación tecnológica no es una instancia aislada. Refleja un estado dado del conocimiento, un ambiente institucional e industrial particular, una cierta disponibilidad de habilidades para definir el problema técnico y para resolverlo, una mentalidad económica para hacer que esa aplicación sea eficiente en términos de costos, y una red de productores y usuarios que puedan comunicar sus experiencias acumuladas, aprendiendo por el uso y por el hacer: las elites aprenden haciendo, o sea modificando las aplicaciones de la tecnología, mientras que la mayor parte de la gente aprende usando, o sea manteniéndose dentro de los constreñimientos del packaging de la tecnología. La interacción de los sistemas de innovación tecnológica y su dependencia a ciertas "milieux" de intercambio de ideas, problemas y soluciones son elementos críticos que pueden ser generalizados de la experiencia de revoluciones pasadas a la actual.

Los efectos positivos de las nuevas tecnologías industriales sobre el crecimiento económico, el nivel de vida y el dominio del hombre sobre la Naturaleza hostil (reflejado en la dramática prolongación de la expectativa de vida, que no había mejorado antes del siglo dieciocho) a largo plazo son indisputables en el registro histórico. Sin embargo, no llegaron temprano, a pesar de la difusión de la máquina a vapor y la nueva maquinaria. Mokyr nos recuerda que "el consumo per capita y los estándares de vida mejoraron poco al principio {al fin del siglo dieciocho} pero las tecnologías de producción cambiaron dramáticamente en muchas industrias y sectores, preparando el paso al crecimiento sostenido schumpeteriano en la segunda mitad del siglo diecinueve cuando el progreso tecnológico se expandió a industrias que previamente no habían estado afectadas. Esta es una imposición crítica que nos obliga a evaluar los efectos actuales a la mayor parte de los cambios tecnológicos a la luz de un retraso temporal altamente dependiente de las condiciones específicas de cada sociedad. A pesar de todo, el registro histórico parece indicar que, en términos generales, cuanto más estrecha sea la relación entre los lugares de la innovación, producción y uso de las nuevas tecnologías, cuanto más rápido se da la transformación de las sociedades, y cuanto más positivo sea el feedback de las condiciones sociales sobre las condiciones generales mas innovaciones pueden ocurrir. Así, en España, la Revolución Industrial se difundió rápidamente en Cataluña, en el siglo dieciocho, pero tuvo un ritmo mucho menor en el resto de España, particularmente en Madrid que en el sur; solo el País Vasco y Asturias se habían unido al proceso de industrialización para finales del siglo diecinueve. Las fronteras de la innovación industrial eran en gran medida linderas a áreas en las que estuvo prohibido el comercio con las colonias americanas españolas por casi dos siglos: mientras que las elites andaluza y castellana, así como la Corona, podían vivir de sus rentas americanas, los catalanes tenían que proveerse a sí mismos a través del comercio y la ingenuidad, mientras eran sometidos a la presión de un estado centralizado. En parte como resultado de esta trayectoria histórica, Cataluña y el País Vasco fueron las únicas regiones completamente industrializadas hasta los 50 y los semilleros principales del emprendimiento y la innovación, en agudo contraste con las tendencias en el resto de España. Así, las condiciones sociales específicas guían la innovación tecnológica que se dirige a sí misma hacia el camino del desarrollo económico y la innovación. Aun así, la reproducción de esas condiciones es cultural e institucional, tanto como económica y tecnológica. La transformación del ambiente social e institucional puede alterar el paso y la geografía del desarrollo tecnológico (por ejemplo, Japón luego de la Restauración Meiji, o Rusia después de un breve período bajo Stolypin), aunque la historia pasada tolera una inercia considerable.

Una última y esencial lección de las Revoluciones Industriales, que considero relevante para este análisis, es controvertida: aunque ambos trajeron todo un orden de nuevas tecnologías que de hecho formó y transformó el sistema industrial en etapas sucesivas, en su núcleo hubo una innovación fundamental en la generación y distribución de la energía. R. J. Forbes, un historiador clásico de la tecnología, afirma que "la invención de la máquina a vapor es el factor central en la revolución industrial", seguido de la introducción de nuevos móviles principales y por el principal móvil removible, bajo el que "el poder de la máquina de vapor podía ser creada donde fuera necesario y con la extensión deseada." Y aunque Mokyr insiste en el carácter multifacético de la Revolución Industrial, también cree que "las protestas de algunos historiadores económicos no tiene lugar, la máquina a vapor es todavía ampliamente vista como la quintaesencia de la invención de la Revolución Industrial". La electricidad era la fuerza central en la segunda revolución, a pesar de otros extraordinarios descubrimientos en química, acero, la máquina de combustión interna, telegrafía y telefonía. Esto es porque sólo a través de la generación y distribución eléctrica todos los otros campos podían desarrollar sus aplicaciones y conectarse entre sí. Un caso puntual es el del telégrafo eléctrico, que primero fue usado experimentalmente en los 1790 y difundido desde 1837, pudiendo convertirse en una red de comunicación conectando al mundo en gran escala, solo cuando pudo confiar en la difusión de la electricidad. El uso difundido de la electricidad desde los 1870 en adelante cambió el transporte, la telegrafía, la iluminación y el trabajo en las fábricas al difundirse el poder en la forma de la máquina eléctrica. De hecho, mientras las fábricas habían sido asociadas con la primer Revolución Industrial, por casi un siglo no fueron concomitantes con el uso de la máquina de vapor que fue ampliamente utilizada en los talleres, mientras que las grandes fábricas seguían usando las mejoradas fuentes hidráulicas. Fue la máquina eléctrica que hizo posible e indujo la organización a gran escala del trabajo en la fábrica industrial. Como R. J. Forbes escribió (en 1958):

Durante los últimos 250 años los nuevos móviles principales han producido lo que frecuentemente se denomina la Era de la Máquina. El siglo dieciocho trajo la máquina a vapor; el siglo diecinueve la turbina de agua, la máquina de combustión interna y la turbina al vapor; y el siglo veinte la turbina a gas. Los historiadores han inventado frases llamativas para denotar movimientos o corrientes en la historia. Como "la Revolución Industrial", el título para un desarrollo frecuentemente descripto como un comienzo al principio del siglo dieciocho y que se extiende por casi todo el siglo diecinueve. Fue un movimiento lento, pero trajo cambios tan profundos en su combinación de progreso material y disloque social que colectivamente puede bien ser descripto como revolucionario si consideramos esas fechas extremas.

De esta forma, al actuar en el proceso en el corazón de todos los procesos -esto es, el poder necesario para producir, distribuir y comunicar- las dos Revoluciones Industriales se difundieron a través de todo el sistema económico y permearon la materia social. Fuentes de energía económicas, accesibles, y móviles se extendieron y aumentaron el poder del cuerpo humano, creando la base material para la continuación histórica de un movimiento similar hacia la expansión de la mente humana.


La secuencia histórica de la Revolución de la Tecnología de la Información

La breve, aunque intensa historia de la Revolución de la Tecnología de la Información ha sido contada tantas veces en años recientes que se hace innecesario proveer al lector con otra reseña detallada. Además, dada la rapidez de su paso, cualquier relato de este tipo sería instantáneamente obsoleto, tanto que entre la escritura de este libro y su lectura (digamos, 18 meses), los microchips habrán duplicado su rendimiento por un precio dado, de acuerdo con la bien conocida "ley de Moore". Sin embargo, encuentro analíticamente útil recordar los ejes principales de la transformación tecnológica en la generación/ procesamiento/ transmisión de información, y situarlos en la secuencia que fue llevando hacia la formación de un nuevo paradigma socio-técnico. Este breve resumen me permitió, mas adelante, saltar las referencias sobre rasgos tecnológicos cuando discutía su interacción específica con la economía, la cultura y la sociedad a través del itinerario intelectual de este libro, excepto cuando se requieren nuevos elementos de información.


Macro cambios en micro-ingeniería: electrónica e información

Aunque los predecesores científicos e industriales de las tecnologías de información basadas en la electrónica pueden encontrarse décadas antes de los 40(por ejemplo la invención del teléfono por Bell en 1876, la radio por Marconi en 1898, y la válvula de De Forest en 1906), fue durante la Segunda Guerra Mundial, y en los años posteriores, que tuvieron lugar las mayores innovaciones en tecnología electrónica: la primera computadora programable, y el transistor, fuente de la microelectrónica, el verdadero corazón de la Revolución de la Tecnología de la Información en el siglo veinte. Aun así sostengo que las nuevas tecnologías de información solo se difundieron ampliamente en los 70, acelerando su desarrollo sinérgico y convergiendo en un nuevo paradigma. Volvamos a trazar las etapas de innovación en tres campos tecnológicos principales que, aunque estrechamente interrelacionados, constituyeron la historia de las tecnologías basadas en la electrónica: la microelectrónica, las computadoras, y las telecomunicaciones.

El transistor, inventado en 1947 en los Laboratorios Bell en Murray Hill, Nueva Jersey, por tres físicos, Bardeen, Brattain y Shockley (que recibieron el Premio Nobel por este descubrimiento), hicieron posible el procesamiento de impulsos eléctricos a alta velocidad en el modo binario de interrupción y amplificación, permitiendo de esta forma la codificación de la lógica y de la comunicación con y entre máquinas: llamamos a estos dispositivos de procesamiento semiconductores, y la gente comúnmente los llama chips (actualmente conformados por millones de transistores). El primer paso en la difusión del transistor fue a través del invento de Shockley del junction transistor en 1951. De todas formas su fabricación y difusión requirieron de nuevas tecnologías y el uso de material apropiado. El salto a la silicona, literalmente construyendo una nueva revolución sobre la arena, fue logrado primero por Texas Instruments (en Dallas) en 1954 (una movida facilitada por la contratación en 1953 de Gordon Teal, otro científico líder de los Bell Labs). La invención del proceso planar en 1959 por Fairchild Semiconductors (en Silicon Valley) abrió la posibilidad de la integración de componentes miniaturizados con la manufactura de precisión.

Sin embargo el paso decisivo en microelectrónica tuvo lugar en 1957: el circuito integrado fue inventado por Jack Kilby, un ingeniero de Texas Instruments (que lo patentó), y Bob Noyce, uno de los fundadores de Fairchild. Pero fue Noyce quien primero fabricó circuitos integrados usando el proceso planar. Desató una explosión tecnológica: en sólo tres años, entre 1959 y 1962, los precios de los semiconductores cayeron un 85%, y en los siguientes diez años la producción se incrementó unas 20 veces, 50% de la cual se destinó a usos militares. Como punto de comparación histórica, tomó 70 años (1780-1850) para que el precio de la tela de algodón cayera 85% en Inglaterra durante la Revolución Industrial. Después, el movimiento se aceleró durante los 60: a medida que la tecnología para la fabricación mejoraba y la ayuda de las computadoras permitía diseñar un chip mejor usando recursos microelectrónicos más poderosos y rápidos, el precio promedio de un circuito integrado cayó de $50 en 1962 a $1 en 1971.

El gigantesco salto adelante en la difusión de la microelectrónica en todas las máquinas fue en 1971 con la invención de un ingeniero de Intel, Ted Hoff (también en Silicon Valley), del microprocesador, eso es la computadora en un chip.

De esta forma, el poder de procesamiento de la información podía ser instalado en cualquier parte. La carrera para lograr una mayor integración de la capacidad de los circuitos de un solo chip comenzaba; la tecnología del diseño y la fabricación excedía constantemente los límites de integración que previamente se consideraba físicamente imposible superar sin abandonar el uso de silicio. A mediados de los 90, las evaluaciones técnicas todavía dan entre 10 a 20 años de buena vida a los circuitos con base de silicio, aunque la investigación sobre materiales alternativos ha sido acelerada. El nivel de integración ha progresado de a saltos en las últimas dos décadas. Si bien los detalles técnicos no tienen lugar en este libro, es analíticamente relevante indicar la velocidad y alcance del cambio tecnológico.

Como es sabido, el poder de los chips puede ser evaluado por una combinación de tres características: su capacidad de integración, indicada por la línea de menor grosor en el chip medida en micrones (1 micrón = 1 millonésima parte de una pulgada); su capacidad de memoria, medida en bits: miles (k), y millones (megabits); y la velocidad del microprocesador medida en megahertz. De esta forma, el primer procesador de 1971 tenía líneas de 6.5 micrones aproximadamente; en 1980, llegaba a 4 micrones; en 1987, 1 micrón; en 1995, el chip de la Pentium de Intel tenía 0.35 micrones; y según proyecciones llegará a 0.25 micrones en 1999. Así, mientras que en 1971 se ponían 2.300 transistores en un chip del tamaño de una chinche, en 1993 cabían 35 millones de transistores. La capacidad de memoria, indicada por DRAM (dynamic random access memory; memoria de acceso dinámico al azar) era en 1971 de 1.024 bits; en 1980, 64.000; en 1987, 1.024.000; en 1993, 16.384.000, y proyectada para 1999, 256.000.000. En cuanto a la velocidad, los microprocesadores de 64 bits son 550 veces más rápidos que el primer chip de Intel de 1972; y los MPU están duplicándose cada 18 meses. Las proyecciones para el 2002 pronostican una aceleración de la tecnología microelectrónica en integración (chips de 0.18 micrones), en capacidad DRAM (1024 megabits), y en la velocidad del microprocesador (500+ megahertz comparado a 150 en 1993). Combinado con los dramáticos desarrollos en procesamiento paralelo usando microprocesadores múltiples (incluyendo, en el futuro, vinculaciones de múltiples microprocesadores en un solo chip), parecería que el poder de la microelectrónica todavía está siendo descubierto, mientras continua ampliando la capacidad de las computadoras. Además, la mayor miniaturización, la mayor especialización, y el precio decreciente de los cada vez más poderosos chips ha hecho posible ubicarlos en cada máquina de nuestra vida cotidiana, desde máquinas lavaplatos y hornos micro-ondas hasta automóviles, cuya electrónica, en los modelos standard de los 90, era más valiosa que su acero.

Las computadoras también fueron concebidas de la madre de todas las tecnologías, la Segunda Guerra Mundial, pero sólo nacieron en 1946 en Filadelfia, si exceptuamos las herramientas relacionadas con la guerra del British Colossus de 1943, aplicadas al desciframiento de códigos enemigos, y el Z-3 alemán producido en 1941 para ayudar con los cálculos de aviación. Sin embargo la mayor parte de los esfuerzos de los aliados en electrónica se concentraron en hacer programas de investigación en el MIT, y la actual experimentación del poder de las calculadoras, bajo el auspicio de la Armada norteamericana, tuvo lugar en la Universidad de Pennsylvania, donde Mauchly y Eckert produjeron en 1946 la primera computadora de propósitos generales, la ENIAC (Electronic Numerical Integrator and Calculator; Integradora y Calculadora Numérica Electrónica). Los historiadores recordarán que la primera computadora pesaba 30 toneladas, que estaba construida sobre módulos de metal de nueve pies de alto, que tenía 70.000 resistencias y 18.000 válvulas, y que ocupaba el área de un gimnasio. Cuando era encendida, su consumo de electricidad era tan alto que la iluminación de toda Filadelfia titilaba.

La primera versión comercial de esta máquina primitiva, la UNIVAC-1, producida en 1951 por el mismo equipo, entonces bajo la marca Remington Rand, fue extremadamente exitosa en el procesamiento del censo norteamericano de 1950. IBM, que también estaba sustentada por contratos militares y confiando parcialmente en las investigaciones del MIT, superó sus reservas sobre la era de la computación, e ingresó a la carrera en 1953 con su máquina de 701 válvulas. En 1958, cuando Sperry Rand introdujo una mainframe de segunda generación, IBM inmediatamente la siguió con su modelo 7090. Pero fue recién en 1964 que IBM, con su mainframe 360/ 370, llegó a dominar la industria de la computación, popularizada por nuevas (Control Data, Digital) y viejas (Sperry, Honeywell, Burroughs, NCR) compañías de máquinas para empresas. La mayoría de estas firmas estaban expirando o se habían esfumado para los 90: esto es lo rápido que la "destrucción creativa" schumpeteriana ha procedido en la industria electrónica. En esa era antigua, unos 30 años antes de que esto fuera escrito, la industria se organizaba a sí misma en una pulcramente definida jerarquía de mainframes, minicomputadoras (de hecho, máquinas bastante voluminosas), y terminales, con alguna especialización informática librada al esotérico mundo de las supercomputadoras (una cruza fértil de pronóstico del tiempo y juegos de guerra), en la que la extraordinaria ingenuidad de Seymour Cray, a pesar de su falta de visión tecnológica, reinó por algún tiempo.

La microelectrónica cambió todo esto, introduciendo una "revolución dentro de la revolución". La llegada del microprocesador en 1971, con la capacidad de poner una computadora en un chip, dio vuelta el mundo de la electrónica, de hecho el mundo en sí. En 1975, De Roberts, un ingeniero que había creado una pequeña compañía de calculadoras, MITS, en Alburquerque, Nuevo México, construyó una caja computadora con el improbable nombre de Altair, inspirado en un personaje de la serie de TV Star Trek, que era objeto de devoción de su joven hija. La máquina era un objeto primitivo, pero fue construido como una computadora a pequeña escala alrededor de un microprocesador. Fue la base para el diseño de Apple I, luego Apple II, la primera microcomputadora comercialmente exitosa, construida en el garaje de la casa de los padres de dos jóvenes estudiantes rateados, Steve Wozniak y Steve Jobs, en Menlo Park, Silicon Valley, en una verdaderamente extraordinaria saga que se ha convertido hoy en la leyenda fundadora de la Era de la Información.

Lanzada en 1976, con tres socios y $91.000 de capital inicial, Apple Computers había alcanzado los $583 millones en ventas en 1982, conduciendo la era de la difusión de las computadoras. IBM reaccionó rápidamente: en 1981 introdujo su propia versión de la microcomputadora, con un nombre brillante: la Computadora Personal (PC), que se convirtió de hecho en el nombre genérico para las microcomputadoras. Pero como no estaba basada en la propia tecnología de IBM, sino en tecnología desarrollada para IBM de otras fuentes, se hizo vulnerable a la clonación, que pronto se practicó en escala masiva, particularmente en Asia. Aunque este hecho eventualmente condenó la predominancia de IBM en el negocio de las PCs, también desplegó el uso de los clones por todo el mundo, difundiendo un estandar común, a pesar de la superioridad de las máquinas Apple. La Macintosh de Apple, lanzada en 1984, fue el primer paso hacia la computadora amigable, con la introducción del uso de íconos, originalmente desarrollado por el Palo Alto Research Center (PARC) de Xerox.

Una condición fundamental para la difusión de las microcomputadoras fue subsanada con el desarrollo de nuevo software adaptado a su operación. El software para PC también surgió a mediados de los 70 del entusiasmo generado por Altair: dos jóvenes ex estudiantes de Harvard, Bill Gates y Paul Allen, adaptaron el BASIC para operar la Altair en 1976. Al darse cuenta de su potencial, fundaron Microsoft (primero en Albuquerque, dos años después se mudaron a Seattle, ciudad natal de los padres de Bill Gates), que es hoy la empresa gigante de software, que disputó el dominio de software para sistemas operativos para luego lograr el dominio del software en todo el creciente mercado de las microcomputadoras.

En los últimos 15 años, la creciente potencia del chip ha resultado en una dramática ampliación del poder de la microcomputadora, limitando la función de las máquinas grandes. A principios de los 90, las microcomputadoras de un solo chip tenían el poder de procesamiento de IBM de unos 5 años atrás. Los sistemas de red basados en microprocesadores, conformados por máquinas de escritorio más pequeñas (clientes), servidas por una más poderosa (servidor), podían eventualmente reemplazar máquinas especializadas en procesamiento de información, como las mainframes tradicionales y las supercomputadoras. De hecho, a los avances en microelectrónica y software hay que agregar los grandes saltos en las capacidades de las redes. Desde mediados de los 80, las microcomputadoras no pueden ser concebidas aisladamente: trabajan en redes, con movilidad creciente, basadas en computadoras portátiles. Esta extraordinaria versatilidad, y la capacidad de agregar memoria y capacidad de procesamiento al compartir el poder de la computadora con una red electrónica, decisivamente llevaron a dar un salto en la era de la computación de los 90 del almacenamiento y procesamiento centralizado de datos a la computadora compartida y en red. No solo ha cambiado todo el sistema tecnológico, sino también sus interacciones sociales y organizacionales. De esta forma, el costo promedio para procesar información cayó de alrededor de $75 por millón de operaciones en 1960 a menos de una centésima parte de un centavo en 1990.

Esta capacidad de trabajar en red solo fue posible, naturalmente, por los importantísimos desarrollos alcanzados en telecomunicaciones y redes durante los 70. Pero, al mismo tiempo, estos cambios solo fueron posibles por los nuevos inventos en microelectrónica y los avances en la capacidad de la computación, en una impactante muestra de las relaciones sinérgicas que se dan en la Revolución de la Tecnología de la Información.

Las telecomunicaciones también han sido revolucionadas con la combinación de tecnologías "nodales" (llaves switch electrónicas y routers) y nuevos vínculos (tecnologías de transmisión). La primera llave electrónica producida industrialmente, la ESS-1, fue introducida por Bell Labs en 1969. Para mediados de los 70 los progresos en las tecnologías de circuitos integrados hicieron posible la llave digital, incrementando la velocidad, el poder y la flexibilidad, mientras ahorraba espacio, energía y trabajo, vis-à-vis aplicaciones análogas. Aunque ATT, pariente de Bell Labs, era inicialmente reticente a su introducción, ya que necesitaba amortizar la inversión ya realizada en equipo analógico, cuando en 1977 Northen Telecom de Canadá capturó una parte del mercado norteamericano con las llaves digitales, las compañías Bell se unieron a la carrera y dispararon un movimiento similar en el mundo.

Importantes avances en optoelectrónica (fibra óptica y transmisión láser) y en tecnología de transmisión digital de paquetes amplió dramáticamente la capacidad de las líneas de transmisión. La Integrated Bradband Networks (IBN) vio que en los 90 podía sobrepasar sustancialmente las propuestas revolucionarias de los 70 para una Integrated Services Digital Network (ISDN; Red Digital de Servicios Integrados): mientras la capacidad de transferencia de ISDN en cables de cobre estaba estimada en 144.000 bits, en 1990 IBN podría, aunque a un alto costo, transferir un cuatrillón de bits por fibra óptica. Para medir el cambio, recordemos que en 1956 el primer cable transatlántico de teléfono llevaba 50 circuitos comprimidos de voz; en 1995, la fibra óptica podría llevar 85.000 de esos circuitos. La capacidad de transmisión basada en la optoelectrónica, junto con las llaves de avanzada y las arquitecturas de routeo, como la Asynchronous Transmission Mode (ATM; Modo de Transmisión Asincrónica) y el Transmission Control Protocol/ Interconnection Protocol (TCP/ IP; Protocolo de Control de Transmisión/ Protocolo de Interconexión), son la base de la llamada Supercarretera de la Información, cuyas características se discuten en el capítulo 5.

Diferentes formas de usar el espectro radial (transmisión tradicional, transmisión satelital, micro-ondas, telefonía celular digital) así como el cable coaxil y la fibra óptica, ofrecen una diversidad y versatilidad de tecnologías de transmisión que están siendo adaptadas a una gran gama de usos, y hacen posible la comunicación ubicua entre usuarios móviles. Así, la telefonía celular se difundió con fuerza en todo el mundo en los 90, literalmente apuntando a Asia con pagers poco sofisticados y a Latinoamérica con teléfonos celulares como símbolo de status social, confiando en la promesa (de Motorola por ejemplo) de un producto de comunicación personal que proporcionaría una cobertura universal antes del 2000. Cada salto en el campo tecnológico amplía los efectos de las tecnologías de información que están relacionadas. Así, la telefonía móvil, confiando en el poder de la computación para routear los mensajes, provee al mismo tiempo la base para una computación generalizada y para la comunicación electrónica interactiva en tiempo real.


La división tecnológica de los 70

Este sistema tecnológico en el que nos hemos sumergido completamente en los 90 se conformó en los 70. Por lo significativo que son los contextos históricos específicos para las trayectorias tecnológicas, y por la forma particular de interacción entre tecnología y sociedad, es importante recordar algunos datos asociados a descubrimientos fundamentales en las tecnologías de información. Todos ellos tienen algo esencial en común: mientras que estaban basados en el conocimiento previamente existente, y se desarrollaban como prolongación de las tecnologías clave, representaban un salto cualitativo hacia adelante en la difusión masiva de tecnología en aplicaciones comerciales y civiles debido a su accesibilidad y su costo decreciente junto con una calidad creciente. Así, el microprocesador, elemento clave en la difusión de la microelectrónica, fue inventado en 1971 y comenzó a difundirse a mediados de los 70. La microcomputadora fue inventada en 1975 y el primer producto comercialmente exitoso , Apple II, fue introducido en abril de 1977, más o menos en la misma época en que Microsoft comenzó a producir sistemas operativos para microcomputadoras. La Xerox Alto, matriz de muchas tecnologías de software para las PC de los 90, fue desarrollado en los laboratorios PARC en Palo Alto en 1973. La primera llave electrónica industrial apareció en 1969, y las llaves digitales se desarrollaron a mediados de los 70 y tuvieron difusión comercial en 1977. La fibra óptica fue producida industrialmente por primera vez por Corning Glass a principios de los 70. También a mediados de los 70, Sony comenzó a producir comercialmente máquinas de VCR, con base en los descubrimientos realizados en Estados Unidos e Inglaterra en los 60, que jamás habían llegado a la producción masiva. Y por último, fue en 1969 que la Agencia de Proyectos de Investigación del Departamento de Defensa de Estados Unidos (ARPA) estableció una nueva, revolucionaria, red electrónica de comunicación, que crecería durante los 70 para convertirse en la Internet. Fue muy ayudada por la invención de Cerf y Kahn en 1974 del TCP/ IP, el protocolo de interconexión de redes que permitió que varias redes pudieran conectarse. Creo que podemos decir, sin exagerar, que la Revolución de la Tecnología de la Información, como revolución, nació en los 70, particularmente si incluimos en ella la emergencia y difusión paralela de la ingeniería genética que se dio por las mismas fechas y lugares, un desarrollo que merece, al menos, unas pocas líneas de atención.


Tecnologías de la vida

Aunque la biotecnología puede ser rastreada a una tabla de arcilla de Babilonia del 6000 BC, y la revolución en microbiología a los descubrimientos científicos de la estructura básica de la vida, la doble hélice del ADN, por Francis Crick y James Watson en la Cambridge University en 1955, fue solo a comienzos de los 70 que la separación y recombinación genética del ADN, la fundación tecnológica de la ingeniería genética, hizo posible la aplicación del conocimiento acumulado. Stanley Cohen de Stanford y Herbert Boyer en la Universidad de California, San Francisco son generalmente acreditados con el descubrimiento de los procedimientos para la clonación de genes en 1973, aunque su trabajo está basado en la investigación del Premio Nobel Paul Berg, de Stanford. En 1975 los investigadores de Harvard aislaron el primer gen mamario, de la hemoglobina de un conejo; y en 1977 se clonó el primer gen humano.

Lo que siguió a continuación fue una carrera para establecer firmas comerciales, muchas de ellas desprendimientos de las grandes universidades y de los centros de investigación de los hospitales, que emergieron en California del Norte, Nueva Inglaterra y Maryland. Periodistas, inversionistas y activistas sociales fueron igualmente impactados por las posibilidades que se abrían con la potencial habilidad de diseñar vida, incluyendo vida humana. Genentech al Sur de San Francisco, Cetus en Berkeley y Biogen en Cambridge, Massachusetts, estaban entre estas primeras compañías, organizadas en torno a ganadores de premios Nobel, para usar las nuevas tecnologías genéticas para aplicaciones médicas. Le siguió el negocio del agro; y los microorganismos, algunos de ellos genéticamente alterados, tuvieron cada vez más asignaciones, por ejemplo limpiar la polución, muchas veces generada por las mismas compañías y agencias que estaban vendiendo los superorganismos. Sin embargo las dificultades científicas, de los problemas técnicos, y los obstáculos legales motivados por intereses éticos y de seguridad desaceleraron la revolución de la biotecnología durante los 80. Una considerable cantidad de capitales invertidos se perdieron y algunas de las compañías más innovadoras, incluyendo Genentech, fueron absorbidas por las farmacéuticas gigantes (Hoffman-La Roche, Merck) que mejor que nadie, entendieron que no podían reproducir la costosa arrogancia que las firmas de computación establecidas habían desplegado frente a las pequeñas empresas innovadoras: comprarlas, junto con los servicios de sus científicos, era una mejor póliza de seguro para las multinacionales farmacéuticas y químicas, para internalizar los beneficios comerciales de la revolución tecnológica y controlar su paso. Siguió una desaceleración de su paso, por lo menos en cuanto a la difusión de sus aplicaciones.

Sin embargo, a fines de los 80 y en los 90 un gran impulso de la ciencia, y una nueva generación de científicos emprendedores revitalizaron la biotecnología, con un enfoque decisivo sobre la ingeniería genética, la verdadera tecnología revolucionaria en el terreno. La clonación genética ingresó a una nueva etapa cuando, en 1988, Harvard formalmente patentó un ratón genéticamente diseñado, quitándole de esta forma los derechos de autor a Dios y a la Naturaleza. En los siguientes 7 años, otros siete ratones también fueron patentados como nuevas formas de vida creadas, identificadas como propiedad de sus ingenieros. En agosto de 1989 los investigadores de la Universidad de Michigan y Toronto descubrieron el gen responsable de la fibrosis cística, abriendo el camino a la terapia genética.

Con el despertar de las expectativas generadas por este descubrimiento, el gobierno norteamericano decidió en 1990 auspiciar y fundar un programa de colaboración de $3 billones durante 15 años, coordinado por James Watson, uniendo a los equipos de investigación en microbiología más avanzados para mapear el genoma humano, esto es, para identificar y localizar los 60.000 a 80.000 genes que componen el alfabeto de la especie humana. A través de este y otros esfuerzos, un continuo río de genes humanos relacionados con varias enfermedades están siendo identificados, por lo que para mediados de los 90, alrededor del 7% de los genes han sido localizados, con una correcta comprensión de su funcionamiento. Esto por supuesto crea la posibilidad de actuar sobre estos genes, y en aquellos que sean identificados en el futuro, posibilitando que la especie humana pueda no solo controlar las enfermedades, sino también identificar predisposiciones biológicas e intervenir en ellas, potencialmente alterando el destino genético. Lyon y Gorner concluyen su investigación sobre la ingeniería genética humana, con una predicción y una advertencia:

En unas pocas generaciones podremos acabar con ciertas enfermedades mentales, quizás, o la diabetes, o la presión alta, o casi con cualquier aflicción que seleccionemos. Lo que no debemos olvidar es que la calidad de la toma de decisión dictamina si las elecciones que hagamos serán sabias y justas...La poco gloriosa forma en que la elite científica y administrativa está manejando los primeros frutos de la terapia genética es ominosa...Los humanos hemos evolucionado intelectualmente para puntualizar que, relativamente pronto, podremos comprender la composición, función, y dinámica del genoma mucho más allá de su intimidante complejidad. En términos emocionales, sin embargo, somos todavía simios, con toda la carga de comportamiento que implica. Quizás la forma esencial de terapia genética sea para que nuestra especie pueda elevarse por sobre su herencia básica y aprenda a aplicar este nuevo conocimiento sabia y benignamente.

Aun así, mientras los científicos, reguladores y éticos debaten las implicancias humanísticas de la ingeniería genética, los investigadores que se han convertido en empresarios toman el atajo, estableciendo mecanismos para tener control legal y financiero sobre el genoma humano. El intento más osado en este sentido fue de un proyecto iniciado en 1990 en Rockville, Maryland, por dos científicos, J. Craig Venter, luego con el Instituto Nacional de Salud, y William Haseltine, luego en Harvard. Usando el poder de supercomputadoras, secuenciaron en solo 5 años partes de casi el 85% de todos los genes humanos, creando una gigantesca base de datos genética. El problema es que no sabemos, ni sabremos por un largo tiempo, cuál pieza de gen es qué y dónde está localizada: su base de datos comprende cientos de miles de fragmentos genéticos con funciones desconocidas. ¿Cuál es entonces el interés? Por un lado, la investigación focalizada sobre genes específico puede (y de hecho así es) utilizar para sí la información contenida en esas secuencias. Pero, lo que es más importante y la principal razón para todo el proyecto, Craig y Haseltine han estado ocupados patentando su base de datos, entonces, literalmente, algún día podrían ser los dueños de los derechos legales de una gran parte del conocimiento para manipular el genoma humano. La amenaza que se cierno por este desarrollo es tan seria que, mientras por un lado han atraído decenas de millones de dólares de inversionistas, por otro lado, una de las más grandes empresas farmacéuticas, Merck, dio en 1994 un financiamiento sustantivo a la Universidad de Washington para proceder con el mismo secuenciamiento ciego y para hacer pública la información, para que no haya control privado de trozos y partes de conocimiento que podrían bloquear el desarrollo de productos basados en una comprensión sistemática futura del genoma humano.

La lección para el sociólogo de estas batallas de negocios no es sólo otra instancia de la avaricia humana. Señala un tiempo que se acelera con la expansión y profundización de la revolución genética. Debido a su especificidad, tanto científica como social, la difusión de la ingeniería genética fue más lenta entre los 70 y los 90 que en el caso de la revolución en electrónica. Pero en los 90, la revolución de la biotecnología se ha visto acelerada en todo el mundo por la existencia de mercados más abiertos, y por las mayores posibilidades educativas y de investigación. Todos los indicadores apuntan hacia la explosión de sus aplicaciones con el cambio de milenio, disparando de esta forma un debate mucho más fundamental a la hoy borrosa frontera entre naturaleza y sociedad.


Contexto social y la dinámica del cambio tecnológico

Por qué los descubrimientos de las nuevas tecnologías de la información ocurrieron en los 70, y casi todos en Estados Unidos? Y cuáles son las consecuencias de esto en su desarrollo futuro y en su interacción con las sociedades? Sería tentador relacionar directamente la formación de este paradigma tecnológico con las características de su contexto social; particularmente si recordamos que a mediados de los 70 Estados Unidos y el mundo capitalista estaban siendo sacudidos por una gran crisis económica, lanzada (pero no causada) por el shock del petróleo en 1973-4: una crisis que precipitó la dramática reestructuración del sistema capitalista a escala global, actualmente induciendo un nuevo modelo de acumulación en discontinuidad histórica con el capitalismo de posguerra, como propuse en el prólogo de este libro. ¿Fue el nuevo paradigma tecnológico una respuesta del sistema capitalista para recuperarse de sus contradicciones internas? ¿O fue un modo de asegurarse la superioridad militar sobre el enemigo Soviético, en respuesta a su desafío tecnológico en la carrera espacial y de armamentos nucleares? Ninguna explicación parece ser convincente. Mientras que hay una coincidencia histórica entre la aparición de las nuevas tecnologías y la crisis económica de los 70, su sincronización fue demasiado cercana, el "arreglo tecnológico" habría sido demasiado rápido, y demasiado mecánico cuando sabemos de las lecciones de la Revolución Industrial y de otros procesos históricos de cambio tecnológico que las sendas económica, industrial y tecnológica, que están relacionados, se mueven con lentitud y calzan imperfectamente en esta interacción. Y con respecto al argumento militar, el shock del Sputnik de 1957-60 fue respondido mediante una construcción tecnológica masiva en los 60, no en los 70; y el nuevo empuje de la tecnología militar norteamericana fue impulsado en 1983 en torno al programa "Star Wars", de hecho usando las tecnologías desarrolladas en la prodigiosa década precedente. De hecho, parece que la emergencia de un nuevo sistema tecnológico en los 70 debe rastrearse a la dinámica autónoma del descubrimiento y difusión tecnológica, incluyendo los efectos sinérgicos entre varias tecnologías clave. Así, el microprocesador hizo posible la microcomputadora; los avances en telecomunicaciones, como mencionáramos arriba, permitieron que las microcomputadoras funcionaran en redes, incrementando así su poder y flexibilidad. Las aplicaciones de estas tecnologías a la electrónica y a la fabricación aumentaron el potencial para nuevos diseños y tecnologías de fabricación en la producción de semiconductores. El nuevo software fue estimulado por el mercado de las microcomputadoras y su rápido crecimiento que, a su vez, explotó sobre la base de nuevas aplicaciones y tecnologías amigables que brotaban de las mentes de los escritores de software. Y así sucesivamente.

El fuerte impulso militar de los 60 a la tecnología preparó a la tecnología norteamericana para dar el salto adelante. Pero el invento del microprocesador de Ted Hoff mientras intentaba completar una orden para una compañía japonesa de calculadoras manuales en 1971 provino del conocimiento y la ingenuidad acumulados en Intel, una estrecha interacción con el milieu de innovación creado desde 1950 en Silicon Valley. En otras palabras, la primera Revolución de la Tecnología de la Información se produjo en Estado Unidos, básicamente en California, en los 70, construyéndose sobre los descubrimientos de las dos décadas precedentes, y bajo la influencia de varios factores institucionales, económicos y culturales. Pero no salieron de una necesidad preestablecida: estaba tecnológicamente inducido más que socialmente determinado. Sin embrago, una vez que existió como sistema, en la base de la emergencia que he descripto, su desarrollo y aplicaciones, y en esencia su contenido, fueron decisivamente configurados por el contexto histórico en el que se expandieron. De hecho, el capitalismo de los 80 (específicamente: las grandes corporaciones y gobiernos de los países del club de los 7) encararon un proceso de reestructuración económica y organizacional, en el que la nueva tecnología de información jugaba un rol fundamental y era moldeado decisivamente por el rol que jugaba. Por ejemplo, el movimiento organizado por los negocios hacia la desregulación y liberalización en los 80 fue decisivo en la reorganización y crecimiento de las telecomunicaciones, más notorio luego del despojo de ATT en 1984. En contraposición, la habilidad de las nuevas redes de telecomunicaciones y de los sistemas de información prepararon el terreno para la integración global de los mercados financieros y la articulación segmentada de la producción y el comercio a través del mundo, como examinaré en el próximo capítulo.

Así, la disponibilidad de las nuevas tecnologías constituía un sistema en los 70 y era base fundamental para el proceso socio-económico que se estaba reestructurando en los 80. Y los usos de esas tecnologías en los 80 condicionaron mucho los usos y las trayectorias en los 90. El surgimiento de la sociedad "enredada", que trataré de analizar en los siguientes capítulos de este volumen, no pueden ser entendidos sin la interacción entre estas dos tendencias relativamente autónomas: el desarrollo de nuevas tecnologías de información y el intento de la vieja sociedad de reinstrumentarse a sí misma utilizando el poder de la tecnología para servir a la tecnología del poder. Sin embargo, la salida histórica de esta estrategia parcialmente consciente no está determinada, desde que la interacción entre tecnología y sociedad depende de las relaciones estocásticas entre un número excesivo de variables cuasi independientes. Sin tener que rendirnos necesariamente al relativismo histórico, puede decirse que la Revolución de la Tecnología de la Información fue cultural, histórica y espacialmente contingente en un conjunto de circunstancias muy específico cuyas características marcaron su evolución futura.


Modelos, actores y centros de la revolución de la tecnología de la información

Si la primera revolución industrial fue británica, la primera revolución de la tecnología de la información fue estadounidense, con una inclinación californiana. En ambos casos, científicos e industriales de otros países desempeñaron un papel importante, tanto en el descubrimiento como en la difusión de las nuevas tecnologías. Francia y Alemania fueron fuentes clave de talento y aplicaciones en la revolución industrial. Los descubrimientos científicos originados en Inglaterra, Francia, Alemania e Italia pusieron las bases de las nuevas tecnologías de la electrónica y la biología. El ingenio de las compañías japonesas fue decisivo para la mejora de los procesos de fabricación en la electrónica y en la penetración de las tecnologías de la información en la vida cotidiana de todo el mundo, mediante un aluvión de productos innovadores, de los vídeos y faxes a los videojuegos y buscas 63.

En efecto, en la década de 1980, las compañías japonesas lograron dominar la producción de semiconductores en el mercado mundial, si bien a mediados de la de 1990 las compañías estadounidenses retornaron en conjunto la cabeza de la competición. La industria entera evolucionó hacia la interpenetración, las alianzas estratégicas y el establecimiento de redes entre firmas de diferentes países, como analizaré en el capítulo 3. Esto hizo que la diferenciación por origen nacional fuera menos importante. No obstante, no sólo hubo innovadores, firmas e instituciones estadounidenses en los orígenes de la revolución durante la década de 1970, sino que han continuado desempeñando un papel dirigente en su expansión, que probablemente se mantendrá en el siglo XXI; aunque sin duda seremos testigos de una presencia creciente de firmas japonesas, chinas y coreanas, así como de una contribución europea importante en biotecnología, química avanzada, software y telecomunicaciones.

Para comprender las raíces sociales de la revolución de la tecnología de la información en los Estados Unidos, más allá de los mitos que la rodean, recordaré brevemente el proceso de formación de su medio de innovación más famoso: Silicon Valley. Como ya mencioné, fue allí donde se desarrollaron el circuito integrado, el microprocesador, el microordenador, entre otras tecnologías clave, y donde ha latido el corazón de la innovación electrónica cuatro décadas ya, mantenido por cerca de un cuarto de millón de trabajadores de la tecnología de la información 64. Además, la zona de la Bahía de San Francisco en su conjunto (que incluye otros centros de innovación como Berkeley, Emeryville, Marin County y el mismo San Francisco) también se halló en los orígenes de la ingeniería genética y, a comienzos del siglo XXI, es uno de los principales centros del mundo en software avanzado, ingeniería genética, diseño y desarrollo de Internet y diseño informático multimedia.

Silicon Valley (Condado de Santa Clara, 48 km al sur de San Francisco, entre Stanford y San José) se convirtió en un medio de innovación por la convergencia en ese sitio del nuevo conocimiento tecnológico; de un gran mercado de expertos ingenieros y científicos de las principales universidades de la zona; de financiamiento generoso y un mercado asegurado por parte del Departamento de Defensa; del desarrollo de una eficaz red de sociedades de capital de riesgo y, en la primera etapa, del liderazgo institucional de la Universidad de Stanford. En efecto, los orígenes de la ubicación poco probable de la industria electrónica en una agradable zona semirrural de California del Norte pueden remontarse al establecimiento en 1951 del Parque Industrial de Stanford, realizado por el visionario decano de Ingeniería y vicerrector de la universidad, Frederick Terman. Había apoyado personalmente a dos de sus estudiantes doctorales, William Hewlett y David Packard, para crear una empresa electrónica en 1938. La Segunda Guerra Mundial fue una bonanza para Hewlett-Packard y otras empresas electrónicas que acababan de ponerse en marcha. Así que, naturalmente, fueron los primeros inquilinos de una nueva y privilegiada ubicación donde sólo las firmas que Stanford juzgara innovadoras podrían beneficiarse de una renta de alquiler simbólica. Como el parque se llenó en seguida, las nuevas firmas electrónicas comenzaron a localizarse a lo largo de la autopista 101 hacia San José.

El acontecimiento decisivo fue el traslado a Palo Alto en 1955 de William Shockley, el inventor del transistor. Fue algo fortuito, aunque refleja la incapacidad histórica de las empresas electrónicas establecidas para hacerse con la tecnología microelectrónica revolucionaria. Shockley había solicitado el apoyo de grandes compañías de la costa Este, como RCA y Raytheon, para desarrollar la producción industrial de su descubrimiento.

Cuando le negaron su apoyo, Shockley aceptó un trabajo en Silicon Valley, en una empresa subsidiaria de Beckman Instruments, debido sobre todo a que su madre vivía en Palo Alto. Con el apoyo de Beckman Instruments decidió crear allí su propia compañía, Shockley Transistors, en 1956.

Empleó a ocho brillantes ingenieros jóvenes, la mayoría procedentes de Bell Labs, a los que atrajo la posibilidad de trabajar con Shockley; uno de ellos, aunque no precisamente de Bell Labs, era Bob Noyce. Pronto quedaron decepcionados. Aunque aprendieron las nociones fundamentales de la electrónica puntera con Shockley, rechazaron su autoritarismo y tozudez, que condujeron a su empresa a callejones sin salida. En particular, deseaban, en contra de su decisión, trabajar con el silicio como el camino más prometedor para la integración a mayor escala de transistores. Por tanto, al cabo de sólo un año dejaron a Shockley (cuya empresa se vino abajo) y crearon (con ayuda de Fairchild Cameras) Fairchild Semiconductors, donde tuvo lugar durante los siguientes dos años la invención del proceso planar y del circuito integrado. En tanto que Shockley, después de repetidos fracasos empresariales, acabó refugiándose en una cátedra de Stanford en 1963, los "Ocho de Fairchild", tan pronto como descubrieron el potencial tecnológico y comercial de sus conocimientos, abandonaron Fairchild para fundar cada uno su propia compañía. y sus nuevos contratados hicieron lo mismo tras cierto tiempo, de tal forma que los orígenes de la mitad de las ochenta y cinco firmas mayores de semiconductores estadounidenses, incluidos los principales productores actuales como Intel, Advanced Micro Devices, National Semiconductors, Signetics, etc., pueden remontarse a este proceso de escisión de Fairchild.

Fue esta transferencia de tecnología de Shockley a Fairchild y luego a una red de empresas escindidas lo que constituyó la fuente inicial de innovación sobre la que se levantó Silicon Valley y la revolución en la microelectrónica.

En efecto, a mediados de la década de 1950, Stanford y Berkeley aún no eran centros punteros en electrónica; lo era el MIT y ello se reflejó en la ubicación original de la industria electrónica en Nueva Inglaterra. Sin embargo, tan pronto como Silicon Valley tuvo a su disposición el conocimiento, el dinamismo de su estructura industrial y la continua creación de nuevas empresas lo afirmaron ya como el centro mundial de la microelectrónica a comienzos de la década de 1970. Anna Saxenian comparó el desarrollo de los complejos electrónicos de las dos zonas (la carretera 128 de Boston y Silicon Valley) y llegó a la conclusión de que la organización social e industrial de las empresas desempeñó un papel decisivo en el fomento u obstrucción de la innovación 65. Así, mientras que las grandes empresas de prestigio reconocido del Este eran demasiado rígidas (y demasiado arrogantes) para re equiparse constantemente en pos de nuevas fronteras tecnológicas, Silicon Valley siguió produciendo una profusión de nuevas firmas y practicando la fertilización cruzada y la difusión del conocimiento mediante los cambios de trabajo y las escisiones.

Las tertulias hasta entrada la noche en el Walker=s Wagon Wheel Bar and Grill de Mountain View hicieron más por la difusión de la innovación tecnológica que la mayoría de los seminarios de Stanford.

En otra obra 66 he tratado por extenso otro factor clave de la formación de Silicon Valley: la temprana existencia de una red de empresas de capital de riesgo 67. El hecho relevante a este respecto es que muchos de los primeros inversores procedían de la industria electrónica, y por tanto entendían los proyectos tecnológicos y comerciales por los que apostaban. Por ejemplo, Gene Kleiner, de una de las empresas más importantes de capital de riesgo de los años sesenta, Kleinert, Perkins y socios, era uno de los ingenieros de los Ocho de Fairchild. En 1988, podía calcularse que "el capital de riesgo constituía en torno a la mitad de las inversiones en los nuevos productos y servicios asociados a la industria de la información y la comunicación" 68.

Un proceso similar se dio en el desarrollo del microordenador, que introdujo una divisoria histórica en los usos de la tecnología de la información 69. A mediados de la década de 1970, Silicon Valley ya había atraído a cientos de miles de mentes jóvenes y brillantes provenientes de todo el mundo, que llegaban a la agitación de la nueva Meca tecnológica en busca del talismán de la invención y el dinero. Se reunían en clubes abiertos para intercambiar ideas e información sobre los últimos avances. Uno de ellos era el Home Brew Computer Club (Club de Ordenadores de Fabricación Casera), cuyos jóvenes visionarios (entre los que estaban Bill Gates, Steve Jobs y Steve Wozniak) crearían en los siguientes años hasta 22 firmas, incluidas Microsoft, Apple, Comeco y North Star. Fue la lectura en el club de un artículo aparecido en Popular Electronics que informaba sobre la máquina Altair de Ed Roberts lo que inspiró a Wozniak para diseñar un microordenador, Apple I, en su garaje de Menlo Park durante el verano de 1976. Steve Jobs vio el potencial y juntos fundaron Apple, con un préstamo de 91.000 dólares de un ejecutivo de Intel, Mike Markkula, que entró como socio. Casi al mismo tiempo, Bill Gates fundó Microsoft para proporcionar el sistema operativo a los microordenadores, aunque en 1978 ubicó su compañía en Seattle para aprovechar los contactos sociales de su familia.

Podría contarse un relato paralelo sobre el desarrollo de la ingeniería genética: científicos sobresalientes de Stanford, la Universidad de California en San Francisco y Berkeley crearon en paralelo empresas, ubicadas al principio en la zona de la Bahía, que también atravesarían procesos frecuentes de escisión, aunque seguirían manteniendo estrechos vínculos con sus "alma mater" 70, Procesos muy similares ocurrieron en Boston/Cambridge en torno a Harvard-MIT, en el triángulo de investigación alrededor de la Duke University y la Universidad de Carolina del Norte y, más importante, en Maryland, en torno a los grandes hospitales, los institutos nacionales de investigación sobre la salud y la Universidad Johns Hopkins.

La lección fundamental de esas pintorescas historias es doble: el desarrollo de la revolución tecnológica contribuyó a la formación de un entorno innovador en el que descubrimientos y aplicaciones interactuaban y eran puestos a prueba en un proceso recurrente de ensayo y error, de aprender haciendo; ese entorno requería (y sigue requiriendo a principios del siglo XXI, a pesar de la conexión on-line en red) la concentración espacial de centros de investigación, instituciones de educación superior, compañías tecnológicas avanzadas, una red de proveedores auxiliares de bienes y servicios y redes empresariales de capital de riesgo para financiar las empresas recién constituidas. En segundo lugar, una vez que ese entorno se consolida, como ocurrió con Silicon Valley en los años setenta, tiende a generar su propia dinámica ya atraer los conocimientos, la inversión y el talento de todo el mundo. En efecto, en los años noventa Silicon Valley se benefició de una proliferación de compañías japonesas, taiwanesas, coreanas, indias y europeas y del aflujo de miles de ingenieros y expertos en informática, principalmente de India y China, para quienes una activa presencia en el valle es el vínculo más productivo con las fuentes de nueva tecnología y con valiosa información comerciar 71. Además, dada su posición en las redes de la innovación tecnológica y su inherente enfoque empresarial de las normas de la nueva economía de la información, el área de la bahía de San Francisco ha conseguido sumarse a cualquier desarrollo nuevo. En los años noventa, cuando Internet se privatizó y se convirtió en una tecnología comercial, Silicon Valley también logró captar a la nueva industria. Algunas de las principales compañías de equipos para Internet (como Cisco Systems), compañías de ordenadores en red (como Sun Microsystems), compañías de software (como Oracle) y portales de Internet (como Yahoo) empezaron en Silicon Valley. Además, la mayoría de las nuevas empresas de Internet que introdujeron el comercio electrónico y revolucionaron el comercio (como Ebay) también se agruparon en Silicon Valley 72. La aparición del multimedia a mediados de los años noventa creó una red de vínculos tecnológicos y comerciales entre la capacidad de diseño por ordenador de las compañías de Silicon Valley y los estudios productores de imagen de Hollywood, a la que se denominó de inmediato la industria de "Siliwood". En un rincón decadente de San Francisco, South of Market, artistas, diseñadores gráficos y programadores se unieron en la denominada "Multimedia Gulch" [Torrentera Multimedia], que amenaza con inundar nuestras salas de estar con imágenes salidas de sus mentes febriles, creando de paso el centro de diseño multimedia más dinámico del mundo 73.

¿Puede extrapolarse este modelo social, cultural y espacial al resto del mundo? Para responder a esta pregunta, en 1988 mi colega Peter Hall y yo emprendimos un viaje de varios años por el mundo, que nos llevó a visitar y analizar algunos de los principales centros científicos/tecnológicos de este planeta, de California a Japón, de Nueva Inglaterra a la vieja Inglaterra, de París-Sur a Hsinchu-Taiwán, de Sofía-Antípolis a Akademgorodok, de Zelenogrado a Daeduck, de Munich a Seúl. Nuestras conclusiones, presentadas en forma de libro 74, confirman el papel crucial desempeñado por los medios de innovación en el desarrollo de la revolución de la tecnología de la información: concentraciones de conocimiento científico/técnico, instituciones, empresas y trabajo cualificado constituyen las forjas de la innovación en la era de la información. No obstante, no necesitan reproducir el modelo cultural, espacial, institucional e industrial de Silicon Valley o de otros centros estadounidenses de innovación tecnológica, como California del Sur, Boston, Seattle o Austin.

Nuestro descubrimiento más sorprendente es que las viejas grandes áreas metropolitanas del mundo industrializado son los principales centros de innovación y producción en tecnología de la información fuera de los Estados Unidos. En Europa, París-Sur constituye la mayor concentración de producción e investigación de alta tecnología; y el corredor M-4 de Londres sigue siendo la ubicación preeminente para la electrónica británica, en continuidad histórica con las fábricas de armamento y material que trabajaban para la Corona desde el siglo XIX. El desplazamiento de Berlín por Munich está obviamente relacionado con la derrota alemana en la Segunda Guerra Mundial, que supuso el traslado deliberado de Siemens de Berlín a Baviera en previsión de la ocupación estadounidense de esa zona. Tokio-Yokohama continúa siendo el núcleo tecnológico de la industria de la tecnología de la información japonesa, a pesar de la descentralización de las plantas sucursales operada bajo el Programa Tecnópolis. Moscú-Zelenogrado y San Petersburgo fueron y son los centros del conocimiento y la producción tecnológicos soviéticos y rusos, tras el fracaso del sueño siberiano de Jruschov. Hsinchu es de hecho un satélite de Taipei; Daeduck nunca desempeñó un papel significativo frente a Seúl-Inchon, a pesar de encontrarse en la provincia natal del dictador Park; y Pekín y Shanghai son, como veremos, el núcleo del desarrollo tecnológico chino. Al igual que lo son la ciudad de México en ese país, São Paulo-Campinas en Brasil y Buenos Aires en Argentina. En este sentido, el relativo retraso tecnológico de las viejas metrópolis estadounidenses (Nueva York-Nueva Jersey, a pesar de su papel prominente hasta la década de 1960; Chicago, Detroit, Filadelfia) es la excepción a nivel internacional, ligada con el excepcionalismo estadounidense del espíritu de frontera y con su huida interminable de las contradicciones de las ciudades construidas y las sociedades constituidas.

Por otra parte, sería interesante explorar la relación que existe entre este excepcionalismo estadounidense y su indiscutible preeminencia en una revolución tecnológica caracterizada por la necesidad de romper moldes mentales para espolear la creatividad.

No obstante, el carácter metropolitano de la mayoría de los emplazamientos de la revolución de la tecnología de la información en todo el mundo parece indicar que el ingrediente crucial en este desarrollo no es que sea nuevo el entorno cultural e institucional, sino su capacidad para generar sinergia basándose en el conocimiento y la información, directamente relacionados con la producción industrial y las aplicaciones comerciales. La fuerza cultural y empresarial de las metrópolis (viejas o nuevas; después de todo, la zona de la Bahía de San Francisco es una metrópoli de más de seis millones de habitantes) las convierte en el entorno privilegiado de esta nueva revolución tecnológica, que en realidad desmiente la noción de que la innovación carece de lugar geográfico en la era de la información.

De modo similar, el modelo empresarial de la revolución de la tecnología de la información parece estar oscurecido por la ideología. No sólo son los modelos japonés, europeo o chino de innovación tecnológica bastante diferentes de la experiencia estadounidense, sino que incluso esta experiencia capital con frecuencia se toma en sentido erróneo. El papel del Estado suele reconocerse como decisivo en Japón, donde las grandes compañías fueron guiadas y respaldadas por el MITI durante largo tiempo, hasta bien entrados los años ochenta, mediante una serie de arriesgados programas tecnológicos, algunos de los cuales fracasaron (por ejemplo, los ordenadores de quinta generación), pero la mayoría ayudó a transformar a Japón en una superpotencia tecnológica en sólo unos veinte años, como ha documentado Michael Borrus 75. En la experiencia japonesa no puede hallarse la puesta en marcha de empresas innovadoras y las universidades tuvieron un papel pequeño. La planificación estratégica del MITI y la constante interfaz de keiretsu y gobierno son los elementos clave para explicar la proeza japonesa que abrumó a Europa y adelantó a los Estados Unidos en varios segmentos de las industrias de la tecnología de la información. Un relato similar puede contarse sobre Corea del Sur y Taiwán, si bien en el último caso las multinacionales desempeñaron un papel mayor. Las fuertes bases tecnológicas de India y China están directamente relacionadas con su complejo industrial militar, financiado y dirigido por el Estado.

Pero también fue el caso de gran parte de las industrias electrónicas británicas y francesas, centradas en las telecomunicaciones y la defensa, hasta la década de 1980 76. En el último cuarto del siglo XX, la Unión Europea desarrolló una serie de programas tecnológicos para mantenerse a la altura de la competencia internacional, respaldando de forma sistemática a los "campeones nacionales", incluso con pérdidas, sin mucho resultado.

En efecto, el único medio de sobrevivir tecnológicamente de las compañías europeas de tecnología de la información fue utilizar sus considerables recursos (una parte sustancial de los cuales proviene de los fondos gubernamentales) para establecer alianzas con las compañías japonesas y estadounidenses, que cada vez más son su fuente principal de conocimientos prácticos en tecnología de la información avanzada77.

Hasta en los Estados Unidos es un hecho bien conocido que los contratos militares y las iniciativas tecnológicas del Departamento de Defensa desempeñaron un papel decisivo en la etapa formativa de la revolución de la tecnología de la información, es decir, entre las décadas de 1940 y 1960.

Incluso la principal fuente de descubrimientos electrónicos, los Laboratorios Bell, desempeñó de hecho el papel de un laboratorio nacional: su compañía matriz (ATT) disfrutó de un monopolio en las comunicaciones establecido por el gobierno, una parte significativa de sus fondos de investigación provino del gobierno estadounidense y de hecho se vio obligada por el gobierno, desde 1956, a cambio de su monopolio sobre las telecomunicaciones públicas, a difundir los descubrimientos tecnológicos al dominio público 78. El MIT, Harvard, Stanford, Berkeley, UCLA, Chicago, Johns Hopkins y los laboratorios de armamento nacionales como Livermore, Los Álamos, Sandia y Lincoln trabajaron con los organismos del Departamento de Defensa y para ellos en programas que condujeron a avances fundamentales, de los ordenadores de la década de 1940 a la optoelectrónica y las tecnologías de la inteligencia artificial de los programas de la "Guerra de las Galaxias" de la década de 1980. DARP A, el organismo de investigación extraordinariamente innovador del Departamento de Defensa, desempeñó en los Estados Unidos un papel no demasiado diferente al del MITI en el desarrollo tecnológico japonés, incluido el diseño y la financiación inicial de Internet 79. En efecto, en la década de 1980, cuando el ultraliberal gobierno de Reagan sintió el pellizco de la competencia japonesa, el Departamento de Defensa financió SEMATECH, un consorcio de empresas electrónicas estadounidenses, para apoyar costosos programas de I+D en la fabricación electrónica por razones de seguridad nacional. y el gobierno federal también ayudó al esfuerzo cooperativo de importantes empresas para colaborar en la microelectrónica con la creación del MCC, ubicando SEMATECH y MCC en Austin (Texas) 80. También, durante las decisivas décadas de 1950 y 1960, los contratos militares y el programa espacial resultaron mercados esenciales para la industria electrónica, tanto para los gigantescos contratistas de defensa de California del Sur como para los innovadores que se acababan de poner en marcha en Silicon Valley y Nueva Inglaterra 81. No podrían haber sobrevivido sin la generosa financiación y los mercados protegidos de un gobierno estadounidense ansioso por recobrar la superioridad tecnológica sobre la Unión Soviética, una estrategia que acabaría siendo rentable. La ingeniería genética que se derivó de la investigación de las principales universidades, hospitales e institutos de investigación sobre la salud, fue en buena medida financiada y patrocinada con dinero gubernamental 82. Así pues, el Estado, no el empresario innovador en su garaje, tanto en los Estados Unidos como en el resto del mundo, fue el iniciador de la revolución de la tecnología de la información 83.

Sin embargo, sin estos empresarios innovadores, como los que estuvieron en el origen de Silicon Valley o de los ordenadores clónicos de Taiwán, la revolución de la tecnología de la información habría tenido características muy diferentes y no es probable que hubiera evolucionado hacia el tipo de herramientas tecnológicas descentralizadas y flexibles que se están difundiendo en todos los ámbitos de la actividad humana. En efecto, desde los comienzos de la década de 1970, la innovación tecnológica se ha dirigido esencialmente al mercado 84; y los innovadores, aunque aún suelen ser empleados de las principales compañías, sobre todo en Japón y Europa, continúan estableciendo sus propias empresas en los Estados Unidos y, cada vez más, a lo largo del mundo. Ello provoca la aceleración de la innovación tecnológica y la difusión más rápida de esa innovación, ya que las mentes creadoras, llevadas por la pasión y la codicia, escudriñan constantemente la industria en busca de nichos de mercado en productos y procesos. En efecto, es por esta interfaz de programas de macroinvestigación y grandes mercados desarrollados por el Estado, por una parte, y la innovación descentralizada estimulada por una cultura de creatividad tecnológica y modelos de rápido éxito personal, por la otra, por lo que las nuevas tecnologías de la información llegaron a florecer. Al hacerlo, agruparon a su alrededor redes de empresas, organizaciones e instituciones para formar un nuevo paradigma socio-técnico.


El paradigma de la tecnología de la información

Como escribe Christopher Freeman:

Un paradigma tecnoeconómico es un grupo de innovaciones técnicas, organizativas y gerenciales interrelacionadas, cuyas ventajas se encuentran no sólo en una nueva gama de productos y sistemas, sino en su mayoría en la dinámica de la estructura del costo relativo de todos los posibles insumos (inputs) para la producción. En cada nuevo paradigma, un insumo particular o conjunto de insumos puede describirse como el "factor clave" de ese paradigma, caracterizado por la caída de los costos relativos y la disponibilidad universal. El cambio contemporáneo de paradigma puede contemplarse como el paso de una tecnología basada fundamentalmente en insumos baratos de energía a otra basada sobre todo en insumos baratos de información derivados de los avances en la microelectrónica y la tecnología de las comunicaciones 85.

La noción de paradigma tecnológico, elaborada por Carlota Pérez, Christopher Freeman y Giovanni Dosi, adaptando el análisis clásico de las revoluciones científicas de Kuhn, ayuda a organizar la esencia de la transformación tecnológica actual en su interacción con la economía y la sociedad 86. Creo que sería útil, como una guía para nuestro próximo viaje por los senderos de la transformación social, precisar los rasgos que constituyen el núcleo del paradigma de la tecnología de la información.

Tomados en conjunto, constituye1l la base material de la sociedad red. La primera característica del nuevo paradigma es que la información es su materia prima: son tecnologías para actuar sobre la información, no sólo información para actuar sobre la tecnología, como era el caso en las revoluciones tecnológicas previas.

El segundo rasgo hace referencia a la capacidad de penetración de los efectos de las nuevas tecnologías. Puesto que la información es una parte integral de toda actividad humana, todos los procesos de nuestra existencia individual y colectiva están directamente moldeados (aunque sin duda no determinados) por el nuevo medio tecnológico.

La tercera característica alude a la lógica de interconexión de todo sistema o conjunto de relaciones que utilizan estas nuevas tecnologías de la información. La morfología de red parece estar bien adaptada para una complejidad de interacción creciente y para pautas de desarrollo impredecibles que surgen del poder creativo de esa interacción 87. Esta configuración topológica, la red, ahora puede materializarse en todo tipo de procesos y organizaciones mediante tecnologías de la información de reciente disposición. Sin ellas, sería demasiado engorroso poner en práctica la lógica de interconexión. No obstante, ésta es necesaria para estructurar lo no estructurado mientras se preserva su flexibilidad, ya que lo no estructurado es la fuerza impulsora de la innovación en la actividad humana. Además, cuando las redes se difunden, su crecimiento se hace exponencial, en tanto que los beneficios de estar en la red crecen exponencialmente dado el mayor número de conexiones, mientras que los costos crecen de forma lineal. Además, los costos de exclusión de la red aumentan con el crecimiento de la red debido al número decreciente de oportunidades de alcanzar otros elementos fuera de ésta. El creador de la tecnología de la red de área local (LAN), Robert Metcalfe, propuso en 1973 una sencilla fórmula matemática que mostraba cómo el valor de la red aumenta con el cuadrado del número de nodos de la red. La fórmula es V=n(n - 1), donde n es el número de nodos de la red.

En cuarto lugar y relacionado con la interacción, aunque es un rasgo claramente diferente, el paradigma de la tecnología de la información se basa en la flexibilidad. No sólo los procesos son reversibles, sino que pueden modificarse las organizaciones y las instituciones e incluso alterarse de forma fundamental mediante la reordenación de sus componentes. Lo que es distintivo de la configuración del nuevo paradigma tecnológico es su capacidad para reconfigurarse, un rasgo decisivo en una sociedad caracterizada por el cambio constante y la fluidez organizativa. Cambiar de arriba abajo las reglas sin destruir la organización se ha convertido en una posibilidad debido a que la base material de la organización puede reprogramarse y re equiparse 88. Sin embargo, debemos evitar un juicio de valor sobre este rasgo tecnológico. Porque la flexibilidad puede ser una fuerza liberadora, pero también una tendencia represiva si quienes reescriben las leyes son siempre los mismos poderes. Como Mulgan escribió, "las redes se han creado no sólo para comunicar, sino también para ganar posición, para sobrecomunicar" 89. Así pues, es esencial mantener una distancia entre afirmar el surgimiento de nuevas formas y procesos sociales, inducidos y permitidos por las nuevas tecnologías, y extrapolar las consecuencias potenciales de tales desarrollos para la sociedad y la gente: sólo los análisis específicos y la observación empírica serán capaces de determinar el resultado de la interacción de las nuevas tecnologías y las formas sociales emergentes. No obstante, también es esencial identificar la lógica intrínseca del nuevo paradigma tecnológico.

Una quinta característica de esta revolución tecnológica es la convergencia creciente de tecnologías específicas en un sistema altamente integrado, dentro del cual las antiguas trayectorias tecnológicas separadas se vuelven prácticamente indistinguibles. Así, la microelectrónica, las telecomunicaciones, la optoelectrónica y los ordenadores están ahora integrados en sistemas de información. Aún existe, y existirá durante cierto tiempo, alguna distinción empresarial entre fabricantes de chips y diseñadores de software, por ejemplo. Pero hasta esta diferenciación está quedando borrada por la creciente integración de las firmas empresariales en alianzas estratégicas y proyectos de colaboración, así como por la inscripción de los programas de software en el hardware de los chips.

Además, en lo referente al sistema tecnológico, un elemento no puede imaginarse sin el otro: los microordenadores están en buena parte determinados por la potencia del chip y tanto el diseño como el procesamiento paralelo de los microprocesadores depende de la arquitectura del ordenador. Las telecomunicaciones son ahora sólo una forma de procesar la información; las tecnologías de transmisión y enlace están al mismo tiempo cada vez más diversificadas e integradas en la misma red, operada por los ordenadores 90. Según el análisis anterior, el desarrollo de Internet está invirtiendo la relación entre la propia Internet y la centralita telefónica en las tecnologías de comunicación, de modo que la transmisión de datos se convierte en la forma predominante, universal, de comunicación. y la transmisión de datos se basa en instrucciones de software para su codificación y decodificación.

La convergencia tecnológica se extiende cada vez más hacia una interdependencia creciente de las revoluciones de la biología y la microelectrónica, tanto desde una perspectiva material como metodológica. Así, los decisivos avances en la investigación biológica, como la identificación de los genes humanos o de segmentos del ADN humano, sólo pueden seguir adelante debido a la ingente potencia de los ordenadores 91. Gracias a la nanotecnología sería posible introducir diminutos microprocesadores en el sistema de seres vivos, incluidos los humanos 92.

Por otra parte, el uso de materiales biológicos en la microelectrónica, aunque aún muy lejos de una aplicación generalizada, ya estaba en un estadio de experimentación a finales de los noventa. En 1995, Leonard Adleman, científico informático de la Universidad de California del Sur, utilizó moléculas sintéticas de ADN, con la ayuda de una reacción química, para hacerlas funcionar según la lógica combinatoria del ADN, como base material de la informática 93. Aunque los investigadores tienen aún un largo camino que recorrer hacia la integración material de la biología y la electrónica, la lógica de la primera (la capacidad de autogenerar secuencias no programadas y coherentes) se está introduciendo cada vez más en las máquinas electrónicas 94. En 1999, Harold Abelson y sus colegas del laboratorio científico del MIT intentaban "trocear" la bacteria E. coli para que pudiera funcionar como un circuito electrónico con capacidad de autorreproducirse. Experimentaban con la "computación amorfa", es decir, integrar circuitos en material biológico. Como las células biológicas sólo pueden computar mientras están vivas, esta tecnología se combinaría con la electrónica molecular, insertando millones o miles de millones de estos conmutadores de base biológica en espacios diminutos, con la aplicación potencial de producir "materiales inteligentes" de todo tipo 95.

Algunos experimentos de investigación avanzada en la interacción entre ser humano y ordenador se basan en el uso de interfaces cerebrales adaptativas que reconocen estados mentales a partir de las señales de electroencefalogramas espontáneos (EEG) on-line, basadas en la teoría de redes neuronales artificiales. Así, en 1999, en el European Union Joint Research Center de Ispra, Italia, el científico informático José Millán y sus colegas lograron mostrar experimentalmente que sujetos provistos de un casco EEG compacto podían comunicarse mediante el control consciente de sus pensamientos96. Su enfoque se basaba en un proceso de aprendizaje mutuo a través del cual el usuario y la interfaz cerebral se acoplaban y adaptaban mutuamente. Por tanto, una red neuronal aprende pautas EEG específicas del usuario, al tiempo que los sujetos aprenden a pensar de tal modo que su interfaz personal pueda entenderles mejor.

La convergencia en curso entre diferentes campos tecnológicos en el paradigma de la información es el resultado de su lógica común de generación de la información, una lógica que es más evidente en las funciones del ADN y en la evolución natural, y que cada vez se reproduce más en los sistemas de información más avanzados, a medida que los chips, los ordenadores y el software alcanzan nuevas fronteras de velocidad, capacidad de almacenamiento y tratamiento flexible de la información desde fuentes múltiples. Si bien la reproducción del cerebro humano, con sus miles de millones de circuitos e insuperable capacidad de recombinación, es estricta ciencia ficción, los límites de la capacidad de información de los ordenadores actuales se traspasan cada mes 97.

A partir de la observación de este cambio tan extraordinario en nuestras máquinas y el conocimiento de la vida, y con la ayuda proporcionada por estas máquinas y este conocimiento, está teniendo lugar una profunda transformación tecnológica. El historiador de la tecnología Bruce Mazlish propone la idea del necesario reconocimiento de que la evolución biológica humana, ahora mejor comprendida en términos culturales, obliga a la humanidad BnosotrosB a aceptar la conciencia de que herramientas y máquinas son inseparables de la naturaleza evolutiva humana. También requiere que nos demos cuenta de que el desarrollo de las máquinas, culminando en el ordenador, hace ineludible la percepción de que las mismas teorías que resultan útiles para explicar los funcionamientos de los artificios mecánicos también la son para comprender al animal humano, y viceversa, ya que la comprensión del cerebro humano arroja luz sobre la naturaleza de la inteligencia artificial 98.

Desde una perspectiva diferente, basada en los discursos sobre la "teoría del caos" tan de moda en los años ochenta, en los noventa una red de científicos e investigadores convergió en un enfoque epistemológico común, identificado por la palabra clave de "complejidad". Organizados en torno a seminarios celebrados en el Santa Fe Institute de Nuevo México (originalmente un club de físicos de alto nivel del laboratorio de Los Álamos, a los que pronto se sumó una red selecta de premios Nobel y sus amigos), este círculo intelectual tiene como objetivo comunicar el pensamiento científico (incluidas las ciencias sociales) bajo un nuevo paradigma. Tratan de comprender la aparición de estructuras autoorganizativas que crean complejidad a partir de la simplicidad y un orden superior a partir del caos a través de diversos órdenes de interacción entre los elementos básicos que están en el origen del proceso 99. Aunque la ciencia ortodoxa muchas veces desestima el proyecto como proposición no verificable, es un ejemplo más del esfuerzo que se realiza, desde frentes distintos, por encontrar un terreno común para la fertilización intelectual mutua de la ciencia y la tecnología en la era de la información. Sin embargo, este enfoque parece vetar cualquier marco integrador y sistemático. El pensamiento de la complejidad debe considerarse un método para la comprensión de la diversidad más que una metateoría unificada. Su valor epistemológico podría derivarse del reconocimiento del carácter autoorganizativo de la naturaleza y de la sociedad. No se trata de que no existan reglas, sino de que las reglas se crean, y se modifican, en un proceso incesante de acciones deliberativas e interacciones únicas. Así, en 1999 un joven investigador del Santa Fe Institute, Duncan Watts, propuso un análisis formal de la lógica de conexión en red subyacente a la formación de "pequeños mundos", es decir, al amplio conjunto de conexiones, en la naturaleza y en la sociedad, entre elementos que, aunque no se comuniquen de forma directa, de hecho están relacionados por una corta cadena de intermediarios. Por ejemplo, Watts muestra matemáticamente que si representamos los sistemas de relaciones mediante un gráfico, la clave para generar el fenómeno de un pequeño mundo (que resume la lógica de conexión en red) es la presencia de una pequeña fracción de límites globales de alcance muy amplio que contraen partes del gráfico que, de no ser por ellos, quedarían distanciadas, mientras que la mayoría de los límites siguen siendo locales, organizados en agrupaciones 100. Esto representa con exactitud la lógica de la interconexión global-local en redes de innovación, como se ha documentado en este capítulo. La contribución relevante de la escuela de pensamiento de la teoría de la complejidad es su énfasis en la dinámica no lineal como enfoque más fructífero para comprender la conducta de los sistemas vivos, tanto en la sociedad como en la naturaleza. La mayoría del trabajo de los investigadores del Santa Fe Institute es de naturaleza matemática, no un análisis empírico de los fenómenos naturales o sociales. Pero hay investigadores en distintos campos de la ciencia que utilizan la dinámica no lineal como principio guía, con resultados científicos cada vez más importantes. Fritjof Capra, un físico teórico y ecologista de Berkeley, ha integrado muchos de estos resultados en un bosquejo de una teoría coherente de los sistemas vivos en una serie de libros, particularmente en su notable Web of Life 101. Capra desarrolló su trabajo basándose en la obra del premio Nobel llya Prigogine. La teoría de las estructuras disipativas de Prigogine demostró la dinámica no lineal de la autoorganización de los ciclos químicos y permitió una nueva interpretación de la emergencia espontánea del orden como característica clave de la vida. Capra muestra cómo las investigaciones de vanguardia en áreas tan diversas como el desarrollo de las células, los sistemas ecológicos globales (representada por la controvertida teoría de Gaia y el modelo de simulación Daisyworld de Lovelock), la neurociencia (por ejemplo, en la obra de Gerald Edelman u Oliver Sacks) y los estudios sobre los orígenes de la vida basados en la teoría de redes químicas son en su totalidad manifestaciones de la perspectiva de una dinámica no lineal 102. Nuevos conceptos clave, como los de atractores, imágenes de fase, propiedades emergentes o fractales ofrecen nuevas perspectivas para entender observaciones del comportamiento de los sistemas vivos, incluidos los sistemas sociales, preparando así el camino para un nexo teórico entre diversos campos de la ciencia. No reduciéndolos a un conjunto común de normas, sino explicando los procesos y los resultados a partir de las propiedades autogenerativas de sistemas vivos específicos. Brian Arthur, un economista de Stanford que participa en el Santa Fe Institute, ha aplicado la teoría de la complejidad a la teoría económica formal, proponiendo conceptos como los de mecanismo de autorrefuerzo, dependencia de la trayectoria y propiedades emergentes, y mostrando su relevancia para la comprensión de las características de la nueva economía103.

En suma, el paradigma de la tecnología de la información no evoluciona hacia su cierre como sistema, sino hacia su apertura como una red multifacética. Es poderoso e imponente en su materialidad, pero adaptable y abierto en su desarrollo histórico. Sus cualidades decisivas son su carácter integrador, la complejidad y la interconexión.

De este modo, la dimensión social de la revolución de la tecnología de la información parece obligada a seguir la ley sobre la relación entre tecnología y sociedad propuesta hace tiempo por Melvin Kranzberg: "La primera ley de Kranzberg dice lo siguiente: La tecnología no es buena ni mala, ni tampoco neutral" 104. Es en efecto una fuerza, probablemente más que nunca bajo el paradigma tecnológico actual, que penetra en el núcleo de la vida y la mente 105. Pero su despliegue real en el ámbito de la acción social consciente y la compleja matriz de interacción de las fuerzas tecnológicas desatadas por nuestra especie, y la misma especie, son una cuestión que ha de investigarse, más que una fatalidad ineludible. A continuación, procederé con dicha investigación.


Notas al capítulo 1

1 Gould, 1980, pág. 226.

2 Melvin Kranzberg, uno de los principales historiadores de la tecnología, escribió: "La era de la información ha revolucionado los elementos técnicos de la sociedad industrial" (1985, pág. 42). En cuanto a sus efectos sociales: "Aunque tenga un carácter evolutivo, en el sentido de que todos los cambios y beneficios no aparecerán de la noche a la mañana, sus efectos serán revolucionarios sobre nuestra sociedad" (ibid., pág. 52). En la misma línea de argumentación, ver también, por ejemplo, Nora y Minc, 1978; Dizard, 1982; Pérez, 1983; Forester, 1985; Darbon y Robin, 1987; Stourdze, 1987; Dosi et al., 1988a; Bishop y Waldholz, 1990; Salomon, 1992; Petrella, 1993; Ministerio de Correos y Telecomunicaciones (Japón), 1995; Negroponte, 1995.

3 Sobre la definición de tecnología como "cultura material", que considero la perspectiva sociológica apropiada, ver su exposición en Fischer, 1992, págs. 1-32: "La tecnología es similar a la idea de cultura material".

4 Brooks, 1971, pág. 13, de un texto sin publicar, citado por Bell, que añade las cursivas (1976, pág. 29).

5 Saxby, 1990; Mulgan, 1991.

6 Hall, 1987; Marx, 1989.

7 Para un relato estimulante e informado, aunque deliberadamente polémico, sobre la convergencia entre la revolución biológica y la revolución de la tecnología de la información, más amplia, ver Kelly, 1995.

8 Forester, 1988; Edquist y Jacobsson, 1989; Herman, 1990; Drexler y Peterson, 1991; Lincoln y Essin, 1993; Dondero, 1995; Lovins y Lovins, 1995; Lyon y Gomer, 1995.

9 Negroponte, 1995.

10 Kranzberg y Pursell, 1967.

11 La comprensión plena de la revolución tecnológica actual requeriría examinar la especificidad de las nuevas tecnologías de la información frente a sus antepasadas históricas de igual carácter revolucionario, como el descubrimiento de la imprenta en China probablemente a finales del siglo vii y en Europa en el siglo XV, tema clásico de la literatura sobre las comunicaciones. Ya que no puedo tratar el tema dentro de los límites de este libro, centrado en la dimensión sociológica del cambio tecnológico, permítaseme sugerir a la atención del lector unos cuantos puntos. Las tecnologías de la información basadas en la electrónica (incluida la impresión electrónica) presentan una capacidad incomparable de memoria y velocidad de combinación y transmisión de bits. El texto electrónico permite una flexibilidad de retroalimentación, interacción y configuración mucho mayor, como todo escritor que utilice un procesador de textos reconocerá, alterando de este modo el mismo proceso de comunicación. La comunicación en línea, combinada con la flexibilidad del texto, permite una programación de espacio/tiempo ubicua y asíncrona. En cuanto a los efectos sociales de las tecnologías de la información, propongo la hipótesis de que la profundidad de su impacto es una función de la capacidad de penetración de la información en la estructura social. Así, aunque la imprenta afectó de forma considerable a las sociedades europeas en la Edad Moderna, ya la China medieval en menor medida, sus efectos quedaron hasta cierto punto limitados por el analfabetismo general de la población y por la baja intensidad de la información en la estructura productiva. La sociedad industrial, al educar a los ciudadanos y organizar gradualmente la economía en tomo al conocimiento y la información, preparó el terreno para que la mente humana contara con las facultades necesarias cuando se dispuso de las nuevas tecnologías de la información. Para un comentario histórico sobre esta primera revolución de la tecnología de la información, ver Boureau et al., 1989. Para algunos elementos del debate sobre la especificidad tecnológica de la comunicación electrónica, incluida la perspectiva de McLuhan, ver el capítulo 5.

12 M. Kranzberg, "Prerequisites for industrialization", en Kranzberg y Pursell, 1967, vol. I, cap. 13; Mokyr, 1990.

13 Ashton, 1948; Clow y Clow, 1952; Landes, 1969; Mokyr, 1990, pág.112.

14 Dizard, 1982; Forester, 1985; Hall y Preston, 1988; Saxby, 1990 15 Bar, 1990.

16 Rosenberg, 1982; Bar, 1992.

17 Mazlish, 1993.

18 Mokyr, 1990, págs. 293, 209 ss.

19 Ver, por ejemplo, Thomas, 1993.

20 Mokyr, 1990, pág. 83.

21 Pool, 1990; Mulgan, 1991.

22 Singer et al., 1958; Mokyr, 1985. Sin embargo, como el mismo Mokyr señala, en la primera revolución industrial inglesa también hubo interacción de la ciencia y la tecnología. Así, la mejora decisiva de Watt de la máquina de vapor diseñada por Newcomen tuvo lugar en interacción con su amigo y protector Joseph Black, profesor de química de la Universidad de Glasgow, donde Watts fue nombrado en 1957 "Diseñador del Instrumento Matemático de la Universidad" y donde dirigió sus propios experimentos con un modelo de la máquina de Newcomen (ver Dickinson, 1958). En efecto, Ubbelohde (1958, pág. 673) informa que "el desarrollo de Watt de un condensador para el vapor, separado del cilindro en el que se movía el pistón, estaba estrechamente ligado e inspirado por las investigaciones científicas de Joseph Black (1728-1799), profesor de química de la Universidad de Glasgow".

23 Mokyr, 1990, pág. 82.

24 David, 1975; David y Bunn, 1988; Arthur, 1989.

25 Rosenberg y Birdzell, 1986.

26 Singer et al., 1957.

27 Rostow, 1975; ver Jewkes et al., 1969 para el argumento y Singer et al., 1958 para las pruebas históricas.

28 Mokyr, 1990.

29 Hall y Preston, 1988, pág. 123.

30 El origen del concepto de "medio de innovación" se puede atribuir a Aydalot, 1985. También estaba presente de forma implícita en la obra de Anderson, 1985, y en el análisis de Arthur, 1985. En tomo a las mismas fechas, Peter Hall y yo en Berkeley, Roberto Carnagni en Milán y Denis Maillaren Lausanne, junto con Philippe Aydalot brevemente, poco antes de que falleciera, comenzamos a desarrollar análisis empíricos de los medios de innovación, un tema que, con toda razón, se ha convertido en un campo de investigación en la década de los noventa.

31 Dentro de los límites de este capítulo no puede hacerse una exposición específica de las condiciones históricas precisas para un agrupamiento de innovaciones tecnológicas. Pueden encontrarse interesantes reflexiones sobre el tema en Gille, 1978, y Mokyr, 1990. Ver también Mokyr, 1990, pág. 298.

32 Rosenberg, 1976, 1982; Dosi, 1988.

33 Mokyr, 1990, pág. 83.

34 Fontana, 1988; Nadal y Carreras, 1990.

35 Forbes, 1958, pág. 150.

36 Mokyr, 1990, pág. 84.

37 Jarvis, 1958; Canby, 1962; Hall y Preston, 1988. Una de las primeras especificaciones detalladas de un telégrafo eléctrico se encuentra en una carta firmada C. M. y publicada en Scots Magazine en 1753. Uno de los primeros experimentos prácticos con un sistema eléctrico fue propuesto por el catalán Francisco de Salva en 1795. Hay informes sin confirmar de que en 1798 se llegó a construir entre Madrid y Aranjuez (42 km) un telégrafo de un solo alambre según el esquema de Salva. Sin embargo, el telégrafo eléctrico no se estableció hasta la década de 1830 (William Cooke en Inglaterra y Samuel Morse en Estados Unidos); en 1851 se tendió el primer cable submarino entre Dover y Calais (Garratt, 1958); ver también Sharlin, 1967; Mokyr, 1990.

38 Forbes, 1958, pág. 148.

39 Una buena historia de los orígenes de la revolución de la tecnología de la información, superada, naturalmente, por los acontecimientos que han ocurrido desde los años ochenta, es la de Braun y Macdonald, 1982. El esfuerzo más sistemático por resumir los desarrollos de la fase temprana de la revolución en la tecnología de la información es la serie de libros de Tom Forester, 1980, 1985, 1987, 1989, 1993. Buenas exposiciones de los orígenes de la ingeniería genética son las de Russell, 1988, y Elkington, 1985. Una autorizada historia de la informática es la de Ceruzzi, 1998. Para la historia de Internet, ver Abbate, 1999, y Naughton, 1999.

40 Una "ley" aceptada en la industria electrónica, cuyo origen es debido a Gordon Moore, presidente de Intel, la legendaria compañía que empezó en Silicon Valley y hoy es la mayor del mundo y una de las más rentables de la microelectrónica.

41 La información presentada en este capítulo generalmente es accesible en periódicos y revistas. Extraje gran parte de ella de Business Week, The Economist, Wired, Scientific American, New York Times, El País y San Francisco Chronicle, que constituyen mis fuentes de información básica diaria o semanal. También proviene de charlas ocasionales sobre temas tecnológicos con colegas y amigos del entorno de Berkeley y Stanford, expertos en electrónica y biología, y al corriente de las tendencias en el mundo empresarial. No considero necesario proporcionar referencias detalladas sobre datos tan generales, excepto cuando una estadística o cita determinadas sean difíciles de encontrar.

42 Ver Hall y Preston, 1988; Mazlish, 1993.

43 Creo que, como en el caso de la revolución industrial, habrá varias revoluciones de la tecnología de la información, de las cuales la que se constituyó en los años setenta es sólo la primera. Es probable que la segunda, a comienzos del siglo XXI, otorgue un papel más importante a la revolución biológica, en estrecha interacción con las nuevas tecnologías informáticas.

44 Braun y Macdonald, 1982.

45 Mokyr, 1990, pág. 111.

46 Hall y Preston, 1988.

47 Ver la descripción de Forester, 1987.

48 Egan, 1995.

49 Pueden consultarse excelentes historias de Internet en Abbate, 1990, y Naughton, 1999. Ver también Hart et al., 1992. Sobre la contribución de la cultura de los hackers al desarrollo de Internet, ver Hafner y Markoff, 1991; Naughton, 1999; Himannen, 2000.

50 Conseil d=État, 1998.

51 Rohozinski, 1998.

52 Rheingold, 1993.

53 Reid, 1997, pág.6.

54 Lewis, 1999.

55 Cerf, 1999.

56 Citado por The Economist, 1997, pág. 33.

57 Hall, 1999a; Markoff, 1999a, 1999b.

58 Sobre el desarrollo de la biotecnología y la ingeniería genética, ver, por ejemplo, Hall, 1987; Teitelman, 1989; Bishop y Waldholz, 1990; Congreso de los Estados Unidos, Oficina de Evaluación Tecnológica, 1991.

59 Ver Business Week, 1995e.

60 Business Week, 1994a, págs. 94-104.

61 Capra, 1999a.

62 Lyon y Gomer, 1995, pág. 567.

63 Forester, 1993.

64 Sobre la historia de la formación de Silicon Valley, dos libros provechosos y fáciles de leer son los de Rogers y Larsen, 1984, y Malone, 1985.

65 Saxenian, 1994.

66 Castells, 1989b, capítulo 2.

67 Zook, 2000c.

68 Kay, 1990, pág.173.

69 Levy, 1984; Egan, 1995. Para un interesante estudio de la compleja interacción entre creatividad tecnológica y estrategia empresarial, ver Hiltzik, 1999; sobre la experiencia de uno de los más importantes centros de innovación de Silicon Valley, Xerox-PARC.

70 Blakely et al., 1988; Hall et al., 1988.

71 Saxenian, 1999.

72 Reid, 1997; Bronson, 1999; Kaplan, 1999; Lewis, 1999; Zook, 2000.

73 Rosen et al., 1999.

74 Castells y Hall, 1994.

75 Borrus, 1988.

76 Hall et al., 1987.

77 Freeman et al., 1991; Castells et al., 1991.

80 Borrus, 1988; Gibson y Rogers, 1994.

81 Roberts, 1991.

82 Kenney, 1986.

83 Ver los análisis reunidos en Castells, 1988b.

84 Banegas, 1993.

85 C. Freeman, prólogo a la parte II, en Dosi et al., 1988a, pág. 10.

86 Kuhn, 1962; Pérez, 1983; Dosi et al., 1988a.

87 Kelly, 1995, págs. 25-27, amplía las propiedades de la lógica de la interconexión en unos certeros párrafos:

El átomo es el pasado. El símbolo de la ciencia para el siglo próximo es la red dinámica. [...] Mientras que el átomo representa la simplicidad limpia, la red canaliza el poder desordenado de la complejidad. [...] La única organización capaz de un crecimiento sin prejuicios o un aprendizaje sin guía es la red. Todas las demás topologías limitan lo que pueda pasar. Un enjambre de redes es todo bordes y, por ello, abierta, sin que importe por dónde se entre. En efecto, la red es la organización menos estructurada de la que pueda decirse que tiene una estructura. [...] De hecho, una pluralidad de componentes verdaderamente divergentes sólo pueden guardar coherencia en una red. Ninguna otra disposición Bcadena, pirámide, árbol, círculo, cuboB puede contener a la diversidad auténtica funcionando como un todo.

Aunque es posible que los matemáticos y los físicos rechacen algunas de estas afirmaciones, el mensaje básico de Kelly es interesante: la convergencia entre la topología evolutiva de la materia viva, la naturaleza abierta de una sociedad cada vez más compleja y la lógica interactiva de las nuevas tecnologías de la información.

88 Tuomi, 1999.

89 Mulgan, 1991, pág. 21.

90 Williams, 1991.

91 Bishop y Waldholz, 1990; Business Week, 1995e, 1999b, págs., 90-92.

92 Hall, 1999b.

93 Allen, 1995.

94 Para un análisis de las tendencias, ver Kelly, 1995; para una perspectiva histórica de la convergencia entre mente y máquinas, ver Mazlish, 1994; para una reflexión teórica, ver Levy, 1994.

95 Markoff, 1999b.

96 Millán et al., 2000.

97 Ver el excelente análisis de futuro de Gelemter, 1991.

98 Mazlish, 1993, pág. 233.

99 La difusión de la teoría del caos a una audiencia amplia se debió en buena medida al best-seller de Gleick, 1987; ver también Hall, 1991. Para una historia interesante y de escritura clara sobre la escuela de la "complejidad", ver Waldrop, 1992. También me he basado en conversaciones personales con investigadores del Santa Fe Institute durante mi visita al Instituto en noviembre de 1998. Estoy especialmente agradecido a Brian Arthur por compartir conmigo sus ideas.

100 Watts, 1999.

101 Capra, 1995.

102 Capra, 1999b.

103 Arthur, 1998.

104 Kranzberg, 1985, pág. 50.

105 Para una exposición informativa de los avances ocurridos en las encrucijadas de la ciencia y la mente humana, ver Baumgartner y Payr, 1995. Para una interpretación más contundente, aunque polémica, de uno de los fundadores de la revolución genética, ver Crick, 1994.

Manuel Castells: La era de la información (Tomo I: Extracto)
Manuel Castells: La revolución de la tecnología de la información (1997)

La era de la información (1999)

Tomo I. Economía, Sociedad y Cultura

La revolución de la tecnología de la información

Manuel Castells


Fuente: Castells, Manuel. La era de la información. Tomo I. Economía, Sociedad y Cultura. Alianza, España, 2000 [1997].

Comentarios

  1. La inversión en Bitcoin ha cambiado mi vida porque invertí mi bitcoin con el Sr. Anderson Carl. Es un comerciante profesional y me ayudó a intercambiar mi bitcoin y también puede ayudarlo a usted. Mi primera inversión con Anderson Carl, gané hasta $ 2600 con mi inversión de $ 200 en 7 días. Mirando también esta semana, ¿qué ha planeado lograr? ¿Por qué no dar ese paso ahora y ponerse en contacto con Anderson Carl en whatsapp: +1 (252) 285-2093 Correo electrónico: (andersoncarlassettrade@gmail.com) Le aconsejo que no dude. Es genial.

    ResponderEliminar

Publicar un comentario

Entradas populares de este blog

Berger y Luckmann: Resumen de La sociedad como realidad subjetiva (Cap. 3 de La construcción social de la realidad, 1966)

Ely Chinoy: Cultura y sociedad (La sociedad, 1966)

Zygmunt Bauman: Sociología y sentido común (Pensando sociológicamente, 1990)

La laicidad según Reina Reyes

Berger y Luckmann: La reificación (Extracto del Cap. 2 de La construcción social de la realidad, 1966)

Bronislaw Malinowski: Una teoría científica de la cultura (1944)

Macionis y Plummer: Desigualdad y estratificación social (Cap. 8)

Peter Berger: La sociología como un pasatiempo individual (Introducción a la sociología, 1963)

Robert Merton: La teoría de los grupos de referencia (2012)

Teoría de la privación relativa de Robert Merton (Teoría y Estructura Social, 1949)