lunes, 25 de mayo de 2015

Una perspectiva histórica de la TI (III):: la explosión microinformática


Un gran avance tecnológico que posibilitó un nuevo cambio en las arquitecturas empresariales, fue el concepto de base de datos o, más conceptualmente, el repositorio central de datos.  Este nuevo concepto surgió de la demanda de las empresas de tratar cada vez volúmenes de datos más grandes en menos tiempo y evitar los tiempos de “latencia” que existían al traspasar datos de un sistema a otro dentro de la organización.

En ese momento, las aplicaciones basadas en lenguajes de tercera generación como el COBOL o BASIC no eran capaces de tratar eficientemente grandes volúmenes de datos.  Toda la mejora en el tiempo de procesamiento había estado concentrada en el hardware, que había evolucionado de los equipos monoprocesador hacia los equipos con múltiples procesadores, e incluso arquitecturas cliente/servidor, donde el procesamiento podía distribuirse entre numerosos equipos conectados entre si.
La nueva generación de software permitía que los programadores de aplicaciones se olvidaran de la gestión de archivos y almacenamientos de datos, y algoritmos para optimizar el proceso de datos.  Una nueva capa de software: el administrador de base de datos, se ocupaba de ello.  Este software era capaz de, al precio, de cierta redundancia y/o duplicación, acelerar sustancialmente el acceso a los datos, y adicionalmente, reducir mucho los tiempos de programación.

Adicionalmente, otra gran barrera cayó y permitió el acceso a la TI a prácticamente cualquier organización de  cualquier tamaño: la microcomputación.   La introducción de los primeros ordenadores personales a fines de los `70 y principios de los ´80 (Apple, IBM), a un coste muy accesible multiplicó exponencialmente el número de empresas, profesionales y personas en general con acceso a la TI.  

El primer PC de IBM-Modelo 5150 (1980)
Curiosamente cuando lanzaron este equipo, los fabricantes sólo pretendían optimizar el rendimiento individual de las personas, en casa o en la oficina, como complemento pero no como competencia de sus grandes sistemas.  Al fin y al cabo, era una manera de llegar al segmento de empresas e individuos que no tenían acceso a la informática, por sus altos costes.  Pero, por el contrario, se produjo una explosión que amenazaría a los fabricantes con su propia destrucción.

La industria se revolucionó.  La nueva tecnología estaba al alcance de miles de pequeñas empresas en el mundo, capaces de copiar los diseños y obtener los mismos componentes que los grandes fabricantes.  Los microcomputadores se empezaron a difundir masivamente a precios, cada vez más bajos, canibalizando a sus propios creadores.
Además, la decisión de IBM de pagar por la “licencia de uso” de un sistema operativo de un tercero, Microsoft, en lugar de liberar uno propio con el equipo, cambió la forma de hacer negocios en la industria informática.  Los programadores expertos vieron la posibilidad de obtener su tajada del negocio, cobrando por el uso de programas estándar de uso muy diverso (juegos, procesadores de texto, planillas de cálculo, etc).


  
The Pirates of Silicon Valley (Youtube)
Escena: IBM acepta pagar a Microsoft por cada PC vendido que utilice su SO MS-DOS

Pronto, surgieron miles de pequeñas empresas que, al no haber grandes barreras de entrada, empezaron a desarrollar software para los nuevos ordenadores.  Ya no se podían vender unos pocos programas a cientos de miles de dólares, pero se podía vender miles a unos pocos cientos de dólares.  La multiplicidad de usos que tenía el microcomputador para la oficina, la casa o la universidad, hacía también mucho más amplia la gama de programas que podían desarrollarse sobre él.

Al mismo tiempo, explotó la cantidad de profesionales que podía dedicarse a la informática.  Hasta ese momento, el estudio de la informática era caro y estaba limitado a las posibilidades de acceso de unos pocos elegidos a centros que dispusieran de los caros equipos mainframe o minicomputadores.  De hecho, estos centros, fuesen privados o públicos, eran fuertemente dependientes de los fabricantes, que los controlaban y podían regular la oferta y demanda de plazas.

A partir del microcomputador, miles de nuevos profesionales de la informática se autoformaron o pudieron formarse en las nuevas tecnologías en una múltiple gama de nuevos centros privados y públicos.  Asimismo, millones de personas que hasta ese momento trabajaban en las empresas sin contacto con los ordenadores, empezaron a utilizar el ordenador como una herramienta de trabajo más, como la propia máquina de escribir.
Tanto éxito comercial, hizo que se dispararan las inversiones para mejorar y optimizar el producto, y así los microprocesadores, sin crecer en tamaño ni en coste, empezaron a aumentar su capacidad de procesamiento hasta acercarse y superar las capacidades de los minicomputadores, hasta virtualmente reemplazarlos.  Por otro lado, aumentaron su capacidad de procesamiento, por medio de la computación en red.

La constitución de redes locales, basadas en PCs, empezó a multiplicarse fue otra manera de aumentar el poder de procesamiento de los ordenadores.  Para principios de los ´90 se empezó a dar una convergencia explícita con las nuevas tendencias en el software empresarial: los repositorios centrales de datos y la arquitectura cliente/servidor.

Entre 1990 y 1995,  la industria y la tecnología ya estaban listas para impulsar un nuevo paradigma en el diseño de las arquitecturas de sistemas: el sistema integrado de gestión.   

No hay comentarios:

Publicar un comentario