miércoles, 27 de mayo de 2015

Una perspectiva histórica de la TI (V): los sistemas integrados de gestión



Hacemos aquí una pausa para describir la arquitectura típica de sistemas en una gran organización de fines de los ´90.

Esta arquitectura normalmente giraba en torno de un ERP, que cubría, como mínimo todas las funciones de la administración contable y financiera de la Organización.  Este ERP se montaba sobre una plataforma cliente/servidor basada en tres componentes variables (por eso se la llamó arquitectura de 3 "capas" o "layers"): 

·         Software de Gestión de Base de Datos
·         Sistema Operativo de la línea Unix, Windows o propietario de IBM (OS/400)
·         Uno o más servidores para procesar acceso a aplicaciones o bases de datos

Estos tres componentes se podían combinar de diferentes maneras: podía concentrarse el procesamiento en un único servidor o distribuir en varias máquinas.  Dependiendo de cuál fuese el ERP elegido se podían seleccionar diferentes software comerciales de gestión de base de datos, pero cada ERP normalmente era compatible con varios de ellos.  Asimismo, como sistema operativo de servidor se podía visualizar diferentes opciones: las derivadas del Unix en sus diferentes variantes, la línea de Windows desarrollada por Microsoft o distintos sistemas propietarios si uno optaba por IBM, ligados a su hardware.

Arquitectura de 3 capas
 
Esta arquitectura se podía considerar casi totalmente abierta, en teoría uno podía cambiar un componente sin alterar los otros, y la cantidad de opciones a la hora de diseñar la implantación de un nuevo sistema era muy variada, lo que generaba una intensa competencia entre los proveedores de cualquiera de los componentes de la arquitectura.   La propia IBM para defender sus ingresos por servicios informático, terminó actuando como integrador de tecnologías no propietarias (aunque ofreciera, por supuesto, como primera opción sus soluciones propietarias).

En una segunda mirada observábamos que las redes de ordenadores personales habían reemplazado casi totalmente a las terminales “bobas”.  Un microcomputador ofrecía la versatilidad de ser, por un lado, terminal para el equipo central, pero además agregaba la capacidad de ocuparse de todos los otros servicios de oficina que el computador central (y sus terminales) no podían solucionar (redactar e imprimir documentos, presentaciones, planillas de cálculo, enviar mensajes, ejecutar pequeñas aplicaciones para el puesto de trabajo o el departamento).  Todas cosas que las antiguas terminales no podían hacer.

Pero también al estar conectadas en red, agregaban otras ventajas: la posibilidad de compartir archivos situados en diferentes equipos, y hacerlos accesibles desde otras posiciones, la compartición de recursos comunes (faxes, impresoras), la autonomía de la que gozaban para trabajar en su disco rígido propio o de un servidor, por privacidad, contingencia o simple comodidad.  Para el fin de la década del ´90 los costes, la fiabilidad y la velocidad de los enlaces de redes locales entre ordenadores había mejorado mucho y era muy fácil y económico tener una red al menos en cada sede de la empresa.

En una tercera mirada, los equipos mainframe o grandes minicomputadores no habían dejado de exitir, pero su utilización se había especializado hacia aplicaciones donde, por su complejidad o volumen de datos, se requerían un enorme poder de procesamiento para obtener resultados.  Grandes bancos o utilities, por ejemplo, no podían prescindir de estos grandes equipos que seguían pudiendo procesar millones de transacciones en un tiempo bastante menor que las otras líneas de productos.

Los avances en herramientas para enlazar y desarrollar interfases o emulaciones entre equipos de distinta línea también garantizaban la conectividad entre equipos de distinta tecnología y tamaño, con lo cual el hecho de tener obligadamente que hacer coexistir varias tecnologías no era necesariamente ineficiente desde ese punto de vista. 

Entre 1993 y 1998/99, la difusión de esta arquitectura creció exponencialmente en todo el mundo, ayudada también por otros factores externos que colaboraron en acelerar el proceso de cambio y abandono de las antiguas.

Uno de los factores que más influyó fue lo que llamamos la globalización.  Podemos definir es este fenómeno como el brutal proceso de internacionalización de la economía que se dio en la década del ´90 basado en dos fenómenos principales: la caída de barreras comerciales y el abaratamiento de las comunicaciones.

La caída del Muro de Berlín, el proceso de integración europea y otros procesos similares a menor escala en otras regiones (MERCOSUR) trajo como resultado que los mercados potenciales para el crecimiento de una compañía se multiplicaran.  Ahora una empresa tenía posibilidad de exportar o de instalarse en muchos más lugares con perspectivas de éxito.  Muchos países que venían de economías cerradas o dirigidas estaban ávidos de recibir nuevas inversiones, tecnologías y acceder a bienes de consumo y servicios desconocidos.

Por otro lado, las operadoras de comunicaciones, por una mejor infraestructura, la tecnología digital introducida en los ´80, las redes de satélite y cable estaban en condiciones de dar un mejor servicio para mantener “conectadas” a las filiales con su Casa Matriz.  Esto traía varias ventajas: menores costes de implantación (no se duplicaba toda la infraestructura), menores costes de supervisión e información en tiempo real de lo que sucedía en las filiales.

La consecuencia de la globalización fue la adquisición desenfrenada por parte de compañías multinacionales de más filiales en el extranjero.  Luego, la ola de fusiones y adquisiciones que siguió cuando las Compañías tuvieron que ganar economía de escala para poder competir.  La mitad de la década del ´90 nos dejó una economía mundial con menos empresas y más grandes. Esto, sobre todo, se concentró en las llamadas "economías emergentes" (a pesar de recurrentes crisis financieras).

Incremento de la inversión extranjera en países emergentes en los últimos 15 años
Este cambio operó sobre el mercado informático favoreciendo la estandarización de procesos y la homogeneidad de las arquitecturas.   La posibilidad de un liderazgo corporativo más fuerte desde las casas matrices, por las mejores comunicaciones, hizo que el management local perdiera poder e influencia para incluir soluciones locales o no homogéneas en las filiales.  Estas masivamente, sobre todo si eran empresas adquiridas, se vieron obligadas a adoptar diseños de arquitectura de sistema compatibles con sus casas matrices.

En la mayoría de los casos, sobre todo en países atrasados, este fue benéfico y favoreció la competitividad cuando las nuevas arquitecturas reemplazaron a sistemas obsoletos o ineficientes.  En otros casos, impuso soluciones que no se adaptaban totalmente a la realidad de la Compañía y les hizo perder agilidad.  Por otro lado, las operadoras de comunicaciones, por una mejor infraestructura, la tecnología digital introducida en los ´80, las redes de satélite y cable estaban en condiciones de dar un mejor servicio para mantener “conectadas” a las filiales con su Casa Matriz.  Esto traía varias ventajas: menores costes de implantación (no se duplicaba toda la estructura), menores costes de supervisión e información en tiempo real de lo que sucedía en las filiales.

En los procesos de fusión la adopción de una de las dos arquitecturas de sistemas normalmente obligaba a una racionalización de los recursos, y dada la complejidad de este proceso en grandes compañías, era más fácil de abordar en un entorno de paquetes de software.  Además, este proceso de consolidación tuvo por efecto reducir el número de clientes de la industria y aumentar su capacidad de negociación con los proveedores de software y equipos, aunque más no sea por la enorme escala que empezaron a tomar las Compañías.

Pero, al mismo tiempo, que se iban sucediendo estos cambios en las tecnologías de procesamiento central de datos, se iban produciendo avances tecnológicos y nuevas técnicas que gestión que cambiaban un poco la visión de las arquitecturas empresariales.  Estas tecnologías que se desarrollaron o alcanzaron su punto de madurez durante la década del ´90 fueron:

·         La integración de telefonía y ordenadores (Computer-Telephone Integration)
·         La tecnología de extracción de datos y patrones (Datawarehousing y Datamining)
·         La computación móvil (Mobile Computing)
·         La red Internet, concebida como herramienta masiva, y su corolario, la WWW

Estas tecnologías posibilitaron nuevas aplicaciones de negocios, inconcebibles hasta el momento, y su desarrollo tendría una enorme influencia en los años siguientes. A fines de la década del ´90 su uso era ya habitual, aunque más bien orientado a aprovechar ventajas coyunturales en la explotación de la tecnología.  En los años siguientes, estas tecnologías fueron modelando el futuro.

No hay comentarios:

Publicar un comentario