Professional Documents
Culture Documents
1. El concepto de redes
Estos tres procesos son, según Castells (Castells, 2002) las bases del actual sistema de
la globalización (una nueva forma de sociedad y una nueva economía).
Microelectrónica
El transistor fue inventado en 1947 en los laboratorios Bell de Nueva Jersey por tres
físicos ganadores del premio Nobel. Éste hizo posible procesar los impulsos eléctricos
rápidamente en un modelo binario de interrupción y amplificación, permitiendo la
codificación de la lógica y de la comunicación con y entre máquinas (estos elementos
de procesamiento son los semiconductores y la gente se refiere a ellos como “chips”).
El uso de los transistores fue difundiéndose y simplificándose: cada vez eran más
pequeños y con mayor poder de procesamiento (miniaturización, uso de silicona).
El paso decisivo tuvo lugar en 1957: el circuito integrado fue inventado por un
ingeniero de Texas Instruments y uno de los fundadores de Fairchild Semiconductors,
desatando una explosión tecnológica: en sólo tres años, entre 1959 y 1962 los precios
de los semiconductores disminuyeron un 85% y la producción se incrementó en un
20%. El movimiento se aceleró durante los ’60 gracias al uso de mejores tecnologías de
manufactura, mejor diseño de chips, el empleo de computadoras con dispositivos
electrónicos más veloces y potentes, entre otros.
Así, el primer procesador de 1971 contaba con 6.5 micrones y para 1999 se esperaba
que llegara a 0.25. Mientras que en 1971 cabían en un chip del tamaño de un pulgar
unos 2.300 transistores, en 1993 lo hacían 35 millones. La capacidad de memoria
(indicada por DRAM – dynamic random access memory) en 1971 era de 1.024 b y para
1999 se calculaban 256.000.000. En cuanto a velocidad, los actuales (1995)
microprocesadores de 64b son 550 veces más rápidos que el primer chip de Intel de
1972. Los sostenidos avances en miniaturización, especialización y la caída de precios,
hacen posible colocar los chips en las máquinas de todos los días a un valor accesible
para el consumidor promedio.
Computadoras
Las computadoras también nacieron de la II Guerra Mundial, pero recién cobraron vida
en 1946 en Filadelfia. Los mayores esfuerzos aliados se concentraron en el equipo de
I&D del MIT, y los experimentos con poder de cálculo estuvieron en el programa de la
Universidad de Pennsylvania (sponsoreado por el Ejército). De aquí surgió en 1946 la
primer computadora multipropósito que se denominó ENIAC: electronic, numerical
integrator and calculador. Pesó 30 toneladas, estaba construida en módulos de metal
de 9 pies de altura, tenía 70.000 resistencias y 18.000 tubos de vacío y consumía tanta
energía que cuando la prendían, todas las luces de Filadelfia titilaban.
La primera versión comercial, la UNIVAC1, fue producida en 1951. Ésta resultó útil en el
procesamiento del Censo de Población de USA de 1950. IBM, también apoyada por las
FFAA entró en el juego en 1953 con una máquina con 701 tubos de vacío. En 1958
apareció una segunda generación de computadoras mainframe (es el aparato
gigantesco –que ocupaba salas- que antecede a las PC). IBM comenzó a competir hasta
dominar el mercado de mainframes. Sus principales competidores habían desaparecido
para la década del ’90 demostrando lo rápida que es la destrucción creativa
Schumpeteriana en esta industria. En los 70 la propia industria se organizó en una
jerarquía de productores de mainframes, minicomputadoras y terminales, con alguna
informática.
En las dos últimas décadas, el creciente poder de los chips dio lugar a un dramático
incremento del poder de las PC’s, disminuyendo las funciones y el mercado para las
computadoras grandes. A comienzos de los ’90 PC’s con un solo chip tenían el mismo
poder de procesamiento que un mainframe IBM de 5 años antes. Los sistemas
integrados de microprocesadores, compuestos por pequeñas computadoras de
escritorio (desktop) denominadas “clientes” unidas a una computadora de mayor
tamaño y más poderosa denominada “servidor” han reemplazado a los tradicionales
mainframes. Desde mediados de los ’80 a la fecha, las computadoras no se conciben
solas sino integradas en redes y portátiles. Los ’90 marcaron un giro fundamental: del
almacenamiento centralizado de datos al trabajo compartido en red. Este cambio
afectó al sistema tecnológico, pero también a las interacciones sociales y
organizacionales.
Telecomunicaciones
La capacidad de las líneas de transmisión fue ampliada por los avances en fibra óptica,
transmisión por láser y el empaquetamiento digital de la información. En los ’70 fue
revolucionario el lanzamiento de las ISDN (integrated services digital networks),
mientras que su equivalente en los ’90 son las IBN (integrated broadband networks).
Las primeras funcionaban basadas en cables de cobre con una capacidad de
transmisión de 144.000 b, mientras que las segundas funcionan sobre fibra óptica y
alcanzan el cuadrillón de b.En 1950 el primer cable telefónico transatlántico llevaba 50
circuitos de voz comprimidos; en 1995 los cables de fibra óptica pueden llevar 85.000
circuitos. El empleo de fibra óptica y láser, sumado a avanzadas arquitecturas de
switching y routing (ATM y TCP/IP –transmission control protocol / interconnection
protocol) son la base de la “Autopista de la Información” de los ’90.
Las diferentes formas de utilización del espectro de radio (transmisión tradicional, a
través de satélite, microondas, telefonía celular digital), el cable coaxil y la fibra óptica
ofrecen una variedad y versatilidad de tecnologías de transmisión que van
adaptándose a gran cantidad de usos y permiten la comunicación ubicua entre
usuarios en movimiento. En particular, la telefonía celular, difundida a nivel global
durante los ’90, aspira a convertirse en el medio de comunicación personal en
cualquier parte del planeta para el s. XXI.
Los orígenes de Internet datan de 1969, año en que el gobierno de los EE UU decidió
dar impulso a la creación de una red de computadoras en el seno de la Agencia de
Investigación de Proyectos Avanzados (ARPA según sus siglas en inglés). ARPA había
sido creada en 1958 por el Departamento de Defensa con el objetivo de motorizar
proyectos de investigación. Trabajaría en estrecha cooperación con el ámbito
universitario y su fin primordial sería lograr superioridad tecnológica militar frente a la
superpotencia soviética. No es un hecho menor que en 1957 la URSS hubiera logrado,
por primera vez en la historia humana, colocar un satélite artificial (Sputnik) en órbita.
Así, ARPA NET fue el nombre inicial que recibió esta red de computadoras. Sus
primeros nodos se encontraron en diversas sedes de la Universidad de California y en
la Universidad de UTAH. Para 1971 ya había 15 nodos, la mayor parte de ellos
localizados en centros de investigación. El paso siguiente sería lograr que ARPANET
pudiera conectarse con otras redes de computadoras. En 1973 científicos de la
Universidad de Stanford, sobre la base de las investigaciones que venía realizando el
Network Working Group (entre quienes se encontraba Jon Postel), elaboraron un
proyecto que delinearía la arquitectura básica de esta red de redes. A fin de que las
computadoras pudieran comunicarse sería necesario desarrollar un protocolo. Entre
1973 y 1978 se diseñó y perfeccionó el TCP (transmission control protocol) /IP (Inter-
network protocol), que es el estándar sobre el cual opera INTERNET hoy en día.
Para 1990, la red de redes, ARPA-INTERNET, fue transferida al ámbito civil, quedando a
su cargo la National Science Foundation. Pero el control de esta entidad sobre la red
duró poco tiempo y sobrevino la denominada “privatización” de Internet. Hay que tener
en cuenta que, previamente, el Departamento de Defensa había empezado a
comercializar la tecnología de conexión a Internet y para esa fecha la misma estaba
dentro del dominio público (la mayor parte de las computadoras en 1990 tenían
incorporada la tecnología de interconexión). Por otra parte, a principios de la década
varios proveedores de Internet habían generado sus propias redes y establecido
routers en vistas de brindar el servicio de acceso a Internet sobre una base comercial.
En adelante, INTERNET creció rápidamente y se convirtió en una red global de redes de
computadoras.
“This was made posible by the original desing of ARPANET, based on a multilayered,
decentralized architecture, and open communication protocols” (Castells 2003:12).
Durante la mayor parte de su historia Internet fue administrada por los mismos
ingenieros y académicos que habían ido desarrollando las herramientas técnicas que le
permitieron adquirir su formato actual y funcionar. De hecho, hasta no hace mucho
tiempo era una sola persona la que estaba a cargo de garantizar su funcionamiento
(Jon Postel). Finalmente en 1998, y tras una serie de negociaciones entre la comunidad
de negocios, gobiernos de diversos Estados y ONG que abogaban por mayor
participación en el control de Internet, la administración Clinton decidió la creación de
ICANN (Internet Corporation for Asigned Names and Numbers), que es la entidad que
hoy en día desempeña esta función.
“The global phone system, for example, is administered by the world's oldest
international treaty organization, the International Telecommunication Union, founded
in 1865 and now a part of the UN family. The Internet is different. It is coordinated by a
private-sector nonprofit organization called the Internet Corporation for Assigned
Names and Numbers (ICANN), which was set up by the United States in 1998 to take
over the activities performed for 30 years, amazingly, by a single ponytailed professor
in California” (Cukier: 1)
4. Relaciones causales y consecuencias
Lo anterior nos estaría indicando que no debemos caer en una posición determinista.
La tecnología no genera cambios por el mero hecho de existir. El avance tecnológico no
puede verse como algo desligado de los contextos sociales e institucionales donde se
gesta. Las tecnologías son adoptadas y readaptadas por individuos, grupos y
organizaciones que hacen uso de ellas. También se encuentra en estrecha relación con
los marcos político, social y económico donde estos actores se desenvuelven.
“In fact, technology in, and of, itself does not cause particular kinds of change. It is,
essentially, and enabling and facilitating agent. It makes possible new structures, new
organizational and geographical arrangements” (DICKEN, 2003:85).
Como guía para la reflexión, veamos lo que nos dicen los expertos:
“As new technologies of energy generation and distribution made possible the factory
and the large corporation as the organizational foundations of industrial society, the
Internet is the technological basis for the organizational form of the Information Age:
the network (...) Networks have traditionally had to reckon with a mayor problem, in
contrast to centralized hierarchies. They have had considerable difficulty in
coordinating functions, in focusing resources on specific goals (...) The introduction of
computer based information and communication technologies, and particularly the
Internet, enables networks to deploy their flexibility and adaptability (...) These
technologies allow the coordination of tasks and management of complexity. This
results in an unprecedented combination of flexibility and task performance, of
coordinated decision-making and decentralized execution, of individualized expression
and global, horizontal communication, which provide a superior organizational form for
human action (…) The Internet became the lever for the transition to a new form of
society” (CASTELLS, 2002:-2).
“For the first time in history, information generation, processing and transmission have
become the main commodities and sources of productivity and power and not only
means of achieving better ways of doing things in the production process”
(RENNSTICH, 2002:174).
Tecnología y política
La utilización de las nuevas tecnologías por los políticos crece en épocas de elección,
pero con una lógica tradicional: se multiplican las webs con sus propuestas y
bombardean las casillas de los votantes con e-mails. No se hace un uso selectivo ni
direccionado de la tecnología para transmitir la información a diferentes públicos.
Por un lado surgen nuevas amenazas cibernéticas, como los ataques de hackers a
instalaciones y sistemas militares. Más amplio que esto es la vulnerabilidad de
cualquier sistema informático de un Estado, de un conjunto de Estados que colaboran o
de emprendimientos tripartitos (Estados, empresas y sociedad civil). Cuanto más
amplia y diversificada es la participación, mayor posibilidad existe de encontrar un
eslabón débil a través del cual penetrar y quebrar el sistema. Por este motivo, no basta
con proteger los sistemas del Departamento de Defensa o de la Agencia de
Inteligencia... la vulnerabilidad está en todas partes.
Los medios y fines del poder estatal en el mundo actual dependen de la comunicación
y el armado de redes, ya sea debido a la tecnología basada en la información, las
tácticas militares de swarming o la construcción de hegemonía de las ideas.
De acuerdo con un estudio realizado en Julio de 2000 por Matthew Zook, los registros
de dominios se distribuían del siguiente modo
USA 50%
Alemania 8.6%
Reino Unido 8.5%
Canadá 3.6%
Corea del Sur 2.5%
Francia 2.1%
Resto de los países -2%
Fuente: elaboración propia con datos de CASTELLS, 2002:214
Para concluir este breve disparador de ideas e interrogantes es vital tener presente
que:
CASTELLS, Manuel (2002) The Internet Galaxy: Reflections on the Internet Business
and Society. Oxford University Press. New York.
CUKIER, Kenneth, Neil (2005) “Who Will control the Internet” en Foreign Affairs,
November/December 2005.
DICKEN, P. (2003) Global Shift. Transforming the World Economy. The Guilford Press.
New York.
INTERNET GOVERNANCE PROJECT Oversight of ICANN: A Briefing for the WSIS Summit
(2005) 1 November 2005. Disponible en http://www.internetgovernance.org
RENNSTICH, J. (2002) “The new economy, the leadership long cycle in the nineteenth K-
wave” en Review of International Political Economy, 9:150:182