Introducción: la situación previa la
burbuja
Si uno analiza el mercado informático
cerca del cambio de siglo, la situación no podía ser más floreciente. Las mayores corporaciones del mundo realizaban
fuertes inversiones en tecnología, todas las nuevas técnicas de gestión se
apoyaban en los avances tecnológicos.
Por primera vez, la dirección de las organizaciones tenía una mejor
cultura informática y apoyaba los avances sin reservas, la TI influía en las estrategias
de negocios, como nunca antes.
Por otro lado, las empresas del sector
parecían fuertes, innovadoras, en un mercado altamente competitivo. Había
desaparecido la concentración del mercado en los grandes fabricantes. Los indicadores financieros y bursátiles eran
excelentes, había abundancia de técnicos calificados lo cual facilitaba el
crecimiento y se beneficiaban de la corriente de inversiones que la grandes
compañías invertían en su modernización.
Desde el punto de vista técnico
continuaban los avances en la capacidad de procesamiento, en la miniaturización
de componentes, en la mejora de las infraestructuras de comunicaciones y su
convergencia con la TI,
en la integración de contenidos multimedia.
Todo parecía estar listo para una nueva gran transformación.
¿Qué pasó entonces? ¿Por qué durante muchos años seguimos viendo unas
arquitecturas muy similares?
La explicación que muchas veces se da
se origina en lo que se llamó la “burbuja tecnológica” o la “burbuja de
Internet”, este fue un período convulso, vertiginoso, muy difícil de analizar
en perspectiva. En las próximas páginas
trataremos de analizar el efecto de este fenómeno en la evolución de la
tecnología aplicada a las organizaciones.
La burbuja de Internet
Se conoce como la “burbuja” el período
que va entre la salida a Bolsa de la compañía Netscape, creadora del primer navegador
de Internet, el 8 de agosto de 1995 hasta el día que el índice Nasdaq de
empresas tecnológicas alcanzara su máximo techo el 10 de marzo de 2000 (5046
puntos). De ahí en adelante el período
que siguió se podría describir como la fase de “estallido” de la burbuja hasta
los primeros meses de 2001, donde el índice se estabilizó y volvió a subir a un
techo de 2700 puntos.
El escándalo
ENRON, la recesión económica y el atentado del 11-S hicieron el resto y el
índice ya nunca se recuperó muy por encima de los 2000 puntos.
Pero ¿ Qué fenómeno se produjo durante
este período ? Básicamente, el
crecimiento exponencial, dramáticamente por encima de lo normal, de la
cotización de las acciones de las empresas del “sector de Internet”, y su
posterior desmoronamiento masivo. Dicho así no parece un problema grave como
para disparar un estancamiento de 5 años en la evolución de la TI en las empresas. A lo sumo
parece una cuestión colateral. Para analizar este fenómeno y sus efectos
debemos antes debemos definir bien antes algunas variables y revisar algunos
aspectos económicos.
El mercado Nasdaq se creó en EE.UU.
como marco para intermediar la compra-venta de acciones de las empresas de
nueva creación. Estas compañías, por su
carácter novedoso y su escaso tamaño, no cumplían con los requisitos
obligatorios para cotizar en la
Bolsa de Nueva York: una cantidad mínima de años de
existencia, el cumplimiento de altos requerimientos legales y de auditoría
externa, indicadores de ingresos y rentabilidad, entre otros.
No obstante, estas compañías
necesitaban capital para financiarse y crecer, muchas veces tampoco cumplían
los requisitos de las entidades bancarias para obtener préstamos a largo
plazo. La mayor cantidad de empresas de
nueva creación pertenecían al sector de servicios, y carecían de un patrimonio
suficiente (por ejemplo, inmuebles), para garantizar los pagos. La única vía a la que podían recurrir estos
nuevos emprendedores era al propio capital de los fundadores, amigos o
conocidos, y los fondos de capital de riesgo.
Estas entidades eran sociedades,
gestionadas por bancos o entidades intermedias (mutuas de pensionistas), que
recaudaban fondos de ahorristas privados o con alguna afinidad (por ejemplo,
los trabajadores de una empresa o sector) y los invertían en común en
diferentes negocios. Luego, pagaban un
interés en función de los beneficios que otorgaban esas inversiones. El atractivo de los fondos de capital de
riesgo, por encima de los depósitos bancarios, los bonos del Gobierno o de las
acciones de las empresas tradicionales, era que prometían un mayor interés
real, con el riesgo de que si el resultado de las inversiones era negativo, el
ahorrista podía perder dinero.
Así, los fondos de capital de riesgo
compraban participaciones ampliando el capital de las nuevas empresas, lo que
les daba la financiación que necesitaban para operar y crecer. Si la compañía crecía y daba beneficios estos
se repartían entre los ahorristas que ostentaban participaciones en el fondo. Por supuesto, había empresas que quebraban o
no llegaban a los resultados esperados.
Este efecto se esperaba mitigar cuando un fondo utilizaba sólo una
pequeña parte de su dinero para participar en una empresa, el resto se
distribuía entre muchas (o a veces en inversiones tradicionales). De allí que, del mix de resultados (y de la
prudencia y sapiencia con que se elegía en qué empresas participar), se esperaba balancear los efectos negativos de las empresas fallidas.
La creación del mercado Nasdaq aceleró
este proceso. Este mercado facilitó el
acceso a un mercado bursátil de las compañías que no podían cumplir los
exigentes requisitos de la Bolsa
de Nueva York. Su objetivo era brindar
un marco de mayor transparencia y agilidad a la compra/venta de acciones de las
nuevas empresas. Al cotizar en bolsa se
facilitaba el acceso a los títulos de pequeños inversores particulares, fondos
más pequeños y daba una gran transparencia al valor de las participaciones,
además de establecer algunas reglas de control, para mayor tranquilidad de los
inversores.
Por supuesto, las empresas que
solicitaron entrar en el Nasdaq fueron las empresas de nueva creación que había
en ese momento y básicamente la mayor parte de nuevas empresas se estaba
creando en dos sectores: biotecnología y tecnología informática. Pero dentro de este último sector, podemos
dividirlo en dos. Primero, las empresas
tecnológicas más maduras (surgidas en los ´70 u ´80), tradicionales proveedores
de hardware, software y servicios de TI a las que se le se denominaría “blue
chips” (Microsoft, INTEL pertenecen a este grupo). Segundo, un nuevo subsector de “empresas de
Internet”.
Este nuevo subsector se originó con el
auge de la red Internet. Esta había
surgido como una red privada en la década del ´60 para el Departamento de
Defensa de los EE.UU. Se basaba en el
principio de la “conmutación de paquetes” entre diferentes “centros de
conmutación” o servidores que transportaban conjuntos de datos máquina a
máquina.
Esta configuración se demostró muy
robusta, porque permitía utilizar diferentes caminos para rutear un mensaje de
origen a destino, e incluso ante la falla o caída de un equipo podía encontrar
otra vía de entregar el mensaje. Este
era el objetivo buscado por los militares en una situación de guerra, que ante
la pérdida de equipo destruidos por el enemigo se pudiera seguir operando.
Con este fin el Gobierno de los EE.UU.
hizo grandes inversiones para extender esta red entre sus instalaciones de
radar y control aéreo. Con el tiempo,
se vio que la misma infraestructura se podía utilizar para unir otras
dependencias de la USAF
y otros departamentos militares. El paso
siguiente fue interconectar a los equipos técnicos y científicos que
colaboraban con los militares en diferentes centros de investigación y
universidades.
Cuando Internet llegó a las
universidades, su objetivo cambió.
Pronto los científicos vieron la utilidad de la nueva herramienta para
intercambiar datos entre los ordenadores de diferentes centro, dentro y fuera
de los EE.UU., y la red se internacionalizó como una herramienta de
colaboración entre la comunidad científica. Las primeras aplicaciones de la
misma no pasaban del intercambio de archivos (file transfer), el correo
electrónico y, algunas veces, el procesamiento distribuido (enviar datos a
procesar a otro equipo). Pero sólo para
unos pocos elegidos.
Paralelamente, en Europa se comenzaron a desarrollar redes de conmutación de paquetes públicas y privadas siguiendo la misma estructura de Internet. En 1989, la OSI (Organización de Standards Internacionales) (http://www.iso.org/) estableció un protocolo común que permitió integrar o interconectar redes dispares. Vale decir, que ya desde un ordenador perteneciente a una red, se podía acceder a uno de otra. En 1990, el CERN (Conseil Européen pour la Recherche Nucléaire), el principal centro de investigación europeo desarrolló el lenguaje HTML y en 1992, se puso en marcha el primer servidor web.
En 1992, obtuve mi primer cuenta de
correo electrónico en Internet en la Universidad de Buenos Aires, compartida con una
colega. Y la obtuve solamente porque
participaba en un proyecto de investigación de inteligencia artificial, donde a
veces era necesario mantener contacto con científicos del exterior. El uso de esta cuenta implicaba desplazarse
hasta una sala de ordenadores de la Universidad y loguearse a un servidor Unix que
estaba integrado a la RAN
(Red Académica Nacional), brazo en Argentina de la red Internet. En un viaje por Corea del Sur y EEUU en ese
año había podido apreciar cuan extendido estaba el uso de Internet entre la
comunidad científica de aquella época.
Pero en 1993, Internet dio un gran paso
adelante, mediante la convergencia de los esfuerzos desarrollados en Europa y los EE.UU. En ese año, el Gobierno de los EE.UU. levantó la prohibición al uso comercial del Internet
y aprobó una "hoja de ruta" pasar a un modelo de administración no-gubernamental de la red, facilitando la integración de redes y
proveedores de acceso privados, con lo cual renunció, de facto, al control de la red. El 30 de abril de 1993 la tecnología Web entró al dominio público ya que el CERN, cedió las tecnologías de forma gratuita para que cualquiera pudiera utilizarlas.
A partir de ese momento, la interactividad
dio un salto hacia Internet. En los años
siguientes, explotó el uso de Internet a nivel masivo, generando una gran
cantidad de negocios derivados. Para esa fecha, una gran cantidad de personas
tenía ordenadores en su propia casa, sobre todo en EE.UU y Europa Occidental, y
zonas urbanas relativamente desarrolladas, dentro de países en vías de
desarrollo (como en Brasil o Argentina).
También se había ido generando un cultura popular alrededor de los
ordenadores populares. La gente los
utilizaba para jugar, aprender temas, trabajar en casa y, espontáneamente, se
creaban clubes o comunidades que compartían contenidos, programas entretenimiento.
La implantación del estándar WWW dio a
estas personas un acceso fácil a una enorme cantidad de contenidos digitales
desde su propio hogar. Hasta el momento
la distribución de contenidos se había generado por dos vías: soportes físicos
(diskettes, cintas, CDs) o conexiones por módem a redes privadas (BBS). En aquella época algunos entusiastas y
emprendedores publicaban contenidos de pago o libre en servidores propios
(noticias, software, contenidos eróticos), a veces situados en sus propias casas
o en pequeñas oficinas. Sus suscriptores se conectaban directamente a ellos
marcando un número telefónico. Los
servidores podían atender una cantidad mínima de líneas telefónicas simultáneas
en función de su capacidad.
Internet users per 100 inhabitants
Source: International Telecommunications Union. Jeff Ogden ( |
Además, otro de los motivos que generó
la expansión rápida de Internet fue la facilidad para ampliar y unirse a la
red. Cualquier pequeño empresario (los
propietarios de BBS, por ejemplo) podía, con una mínima inversión, adquirir o
alquilar los equipos (desde servidores de microcomputación en adelante), una
conexión al “mayorista” de Internet nacional (la operadora de
telecomunicaciones de la zona, normalmente) y vender conexiones telefónicas
desde el hogar al público, que llamaba a un número telefónico propio. Este fue el negocio del “acceso” o ISPs,
donde miles de pequeños minoristas acercaron Internet a la comunidad de
usuarios de ordenadores personales.
Por otro lado, desde el lanzamiento de
estándar WWW, el Gobierno de EE.UU. y algunos sectores empresariales, avisados
por algunos gurúes tecnológicos, advirtieron que la nueva tecnología podía
aportar grandes beneficios la economía.
Era la época en que se hablaba de la “superautopista informática”. Tanto el Gobierno como los medios de prensa
invirtieron mucho tiempo y dinero en la promoción de la nueva tecnología. Sectores como el bancario o la prensa
advirtieron que esta tecnología podía revolucionar su actividad.
En conclusión, la expansión de
Internet, a nivel masivo, se debió básicamente tres razones: uno, la facilidad
que daba su tecnología para ampliar y unirse a la red, y, dos, a que había ya
creada una comunidad, un segmento de la sociedad preparado para recibir una
tecnología antigua como esta en sus hogares, y tres, tuvo un gran apoyo
publicitario y mediático desde el primer momento.
No hay comentarios:
Publicar un comentario