viernes, 29 de mayo de 2015

Una perspectiva histórica de la TI (VI): la empresa ampliada




Ya en 1997, Don Tapscott en su obra “La economía digital” había sabido interpretar la ola de cambios que se avecinaba y desarrolló el concepto de la “empresa ampliada” o "empresa extendida".  Según Tapscott las nuevas tecnologías permitirían a una organización diseñar sus procesos de negocios integrando los procesos que sucedían fuera de la organización, en sus proveedores, clientes y otras terceras partes.

Esto quería decir que el diseño del proceso de compras, por ejemplo, y los sistemas que lo soportaban, no se haría teniendo en cuenta las pautas de la propia organización sino también involucrando a sus proveedores.  Esto buscaba evitar la enorme cantidad de procesos de “transcripción de datos” que se deba entre los sistemas de las diferentes empresas. A saber, una orden de compra recibida por fax, debía volver a ser digitada en los sistemas.  Para qué hacer esto si era posible enviar un registro electrónico que directamente se introdujera en los sistemas.

Desde el punto de vista de las relaciones con los proveedores se habían desarrollado nuevas técnicas de gestión que hacían necesaria una relación más fluida con los mismos.   Las nuevas técnicas de abastecimiento contínuo, just-in-time, que contra el beneficio de reducir sustancialmente el inmovilizado, demandaban un esfuerzo de integración con el proveedor, una relación de “socio” con el mismo, más que como un “enemigo” al cual había que derrotar en una negociación.

El concepto se basaba en las ideas descritas y teorizadas  por Michel Porter (http://www.hbs.edu/faculty/Pages/profile.aspx?facId=6532) en su libro de 1985, Competitive Advantage: Creating and Sustaining Superior Performance, a partir de la experiencia de numerosas empresas que habían logrado mejorar sustancialmente su performance a partir de la gestión de la "cadena de valor" compuesta por 5 actividades primarias: logística de abastecimiento, operaciones, logística de distribución, marketing&ventas y servicio posventa.  En este esquema la integración de la "logística de abastecimiento" con los proveedores externos y la "logística de distribución-ventas-servicio" con el cliente final eran fundamentales (ERP como SAP habían tomado prestada hasta la misma terminología para describir las funcionalidades de su software de gestión)

Value Chain (Photo credit: Jinho.Jung)
https://www.flickr.com/photos/81559972@N00/3015363598

Las grandes empresas empezaron a ver a sus proveedores estratégicos de otra manera y a coordinar con ellos sus procesos, a realizar esfuerzos conjuntos para optimizar la cadena de producción, y por su supuesto a compatibilizar sus sistemas.   Al desarrollarse relaciones a más largo plazo, fue posible plantear negociaciones de productos y precios por más tiempo, negociando valores por períodos muy largos, reduciendo sustancialmente la cantidad de transacciones.

De esta forma, muchas empresas pusieron a disposición de sus proveedores pequeños, herramientas para que informaran el estado de su producción, colaboraran en la planificación de la línea de fábrica, compartieran datos de ingeniería o se formaran en el uso de determinadas aplicaciones.  En muchos casos, ciertos proveedores tenían en su oficina un ordenador conectado al servidor de su cliente, que le informaba del estado de la producción, las existencias y las necesidades de producto del mismo.

El otro extremo de la integración se daba hacia los clientes.  Como describe Alvin Toffler (http://www.alvintoffler.net/), en “El Cambio del Poder” (Powershift), la relación de las grandes corporaciones con los clientes había sufrido una profunda transformación.  Mientras que en el pasado el gran fabricante tenía un control absoluto de sus canales e imponía un determinado producto a los clientes finales por medio de la cadena de distribución, los consumidores comenzaban a rebelarse.  

Por diferentes mecanismos el consumidor ahora era mucho más exigente, tenía mucha más información de los productos, muchas más alternativas para elegir y la propia cadena de distribución más consolidada en grandes tiendas que almacenes pequeños, muchas veces no seguían las directivas de los grandes fabricantes.  Se hizo mucho más difícil a las grandes corporaciones industriales y de servicios a los clientes.  

Por otro lado, la desregulación y privatización había introducido la competencia en sectores antes monopólicos (telecomunicaciones, energía, etc), todo lo cual hizo que se revalorizara la idea del valor del cliente. Muchas organizaciones empezaron a demandar soluciones para dar un mejor servicio al cliente en la venta y posventa, con la idea de aumentar la tasa de fidelidad de los clientes.

En paralelo con este fenómeno, la convergencia del sistema telefónico hacia las tecnologías digitales trajo como consecuencia nuevas posibilidades de contacto con los clientes.  Era mucho más sencillo sistematizar campañas publicitarias, abrir canales de venta telefónica, dar servicio técnico al cliente en forma pasiva (recibiendo llamados) o activas (llamando proactivamente).  Se generalizó el uso de Call-Centers (centro de llamadas), lugares donde se agrupaban cientos de operadores. También el sistema telefónico comenzó a utilizarse como elemento de autoservicio, donde el cliente por teclado o claves de voz daba indicaciones a un computador para obtener un resultado.  

Pero estas soluciones no podían crecer aisladas y muchas veces el servicio al cliente requería de información existente en los sistemas de gestión, por eso los sistemas de call-center debieron incluirse como una nueva capa de la arquitectura central de sistemas de la Organización.  La atención telefónica, y la administración y gestión de las redes privadas de comunicaciones de voz, en general no había sido tema de los ejecutivos de sistemas, y ahora pasaba a ser un tema clave.

También a partir de la segunda mitad de la década, la difusión masiva de Internet generó un nuevo canal de contacto con los clientes.  Los consumidores finales tenían acceso a un nuevo medio de comunicación que les permitía solicitar información, hacer reclamaciones y hasta hacer pedidos de venta durante las 24 horas, con un coste muy bajo para las empresas.  Así aparecieron los primeros “web sites” corporativos, que al principio sólo ofrecían información institucional, y a veces, una dirección de correo electrónico para pedidos, reclamaciones, etc.  El éxito de este canal sorprendió a las empresas, y a no pocos ejecutivos de sistemas.

En la misma línea, la tecnología dio una solución para la integración en los procesos informáticos de las personas desplazadas fuera de las oficinas de la organización, básicamente fuerzas de ventas o de promotores: la tecnología de computación móvil.   En los últimos años, los avances en la miniaturización de componentes habían permitido comprimir ordenadores en tamaños imposibles años antes, del tamaño de una agenda (notebook) o más pequeña aún (Personal Data Assistenats o PDAs).
 
Lanzamiento del primer hand held de Apple (1993)
Esto hizo posible informatizar ciertos procesos que se efectuaban fuera de las paredes de los edificios de las empresas: captura de datos de pedidos o reclamaciones, consultas de los clientes y otros.  Además le agregaba a vendedores y promotores de nuevas herramientas para la acción comercial: catálogos electrónicos, demostraciones virtuales, medios audiovisuales y otros.

Todo este conjunto de tecnologías (de call center, Internet, Mobile Computing), habilitó una nueva forma de vender que acertadamente el Gartner Group tituló, “Technology-Enabled Selling”-Venta posibilitada por la tecnología, es decir, funciones comerciales que no se hubiesen podido desarrollar si no existiera la tecnología que la soportaba.   De paso, pronosticaba que el 80% de las empresas líderes implementarían TES para el 2002, y que el 80% de ellas utilizaría WWW para lograrlo.

La empresa ampliada entonces se basaba en el concepto de diseñar procesos que se extendieran fuera de las fronteras de la organización e incursionaran en los procesos internos de clientes y proveedores, llegando a acuerdos (explícitos o no), con estos para eliminar pasos superfluos, automatizar tareas manuales, logrando una mayor eficiencia del proceso en su conjunto.  Por supuesto, para lograr esto era necesario que las empresas hablaran el mismo idioma, particularmente en cuanto a la documentación que utilizaban para  formalizar las transacciones comerciales.

Un primer intento de definir estándares que todas las empresas compartieran fue el de EDI (Electronic Data Interchange).   Este estándar pretendía lograr reemplazar los documentos comerciales tradicionales de papel (facturas, recibos, pedidos, órdenes de compra) por archivos electrónicos con un formato normalizado, de tal manera que un archivo representativo emitido por una empresa fuese enviado a otra, por medio de una red de datos compartida, e interpretado correctamente.(http://www.edibasics.co.uk/)

Con estos avances tecnológicos y nuevas técnicas de gestión las arquitecturas informáticas se transformaron una vez más.  Los planes de sistemas debían estar mucho más que antes ligados a las estrategias de negocios y alianzas comerciales, porque del grado de preparación de una compañía para ir esa dirección, dependía la ventaja competitiva que pudiera alcanzar.   Las empresas no preparadas para TES, perdían ventas que no se recuperarían, los que no alcanzaran una integración con sus proveedores, perderían competitividad. Por primera vez, la tecnología se transformó en un factor estratégico de negocios.

Y entonces llegó el e-Business....

miércoles, 27 de mayo de 2015

Una perspectiva histórica de la TI (V): los sistemas integrados de gestión



Hacemos aquí una pausa para describir la arquitectura típica de sistemas en una gran organización de fines de los ´90.

Esta arquitectura normalmente giraba en torno de un ERP, que cubría, como mínimo todas las funciones de la administración contable y financiera de la Organización.  Este ERP se montaba sobre una plataforma cliente/servidor basada en tres componentes variables (por eso se la llamó arquitectura de 3 "capas" o "layers"): 

·         Software de Gestión de Base de Datos
·         Sistema Operativo de la línea Unix, Windows o propietario de IBM (OS/400)
·         Uno o más servidores para procesar acceso a aplicaciones o bases de datos

Estos tres componentes se podían combinar de diferentes maneras: podía concentrarse el procesamiento en un único servidor o distribuir en varias máquinas.  Dependiendo de cuál fuese el ERP elegido se podían seleccionar diferentes software comerciales de gestión de base de datos, pero cada ERP normalmente era compatible con varios de ellos.  Asimismo, como sistema operativo de servidor se podía visualizar diferentes opciones: las derivadas del Unix en sus diferentes variantes, la línea de Windows desarrollada por Microsoft o distintos sistemas propietarios si uno optaba por IBM, ligados a su hardware.

Arquitectura de 3 capas
 
Esta arquitectura se podía considerar casi totalmente abierta, en teoría uno podía cambiar un componente sin alterar los otros, y la cantidad de opciones a la hora de diseñar la implantación de un nuevo sistema era muy variada, lo que generaba una intensa competencia entre los proveedores de cualquiera de los componentes de la arquitectura.   La propia IBM para defender sus ingresos por servicios informático, terminó actuando como integrador de tecnologías no propietarias (aunque ofreciera, por supuesto, como primera opción sus soluciones propietarias).

En una segunda mirada observábamos que las redes de ordenadores personales habían reemplazado casi totalmente a las terminales “bobas”.  Un microcomputador ofrecía la versatilidad de ser, por un lado, terminal para el equipo central, pero además agregaba la capacidad de ocuparse de todos los otros servicios de oficina que el computador central (y sus terminales) no podían solucionar (redactar e imprimir documentos, presentaciones, planillas de cálculo, enviar mensajes, ejecutar pequeñas aplicaciones para el puesto de trabajo o el departamento).  Todas cosas que las antiguas terminales no podían hacer.

Pero también al estar conectadas en red, agregaban otras ventajas: la posibilidad de compartir archivos situados en diferentes equipos, y hacerlos accesibles desde otras posiciones, la compartición de recursos comunes (faxes, impresoras), la autonomía de la que gozaban para trabajar en su disco rígido propio o de un servidor, por privacidad, contingencia o simple comodidad.  Para el fin de la década del ´90 los costes, la fiabilidad y la velocidad de los enlaces de redes locales entre ordenadores había mejorado mucho y era muy fácil y económico tener una red al menos en cada sede de la empresa.

En una tercera mirada, los equipos mainframe o grandes minicomputadores no habían dejado de exitir, pero su utilización se había especializado hacia aplicaciones donde, por su complejidad o volumen de datos, se requerían un enorme poder de procesamiento para obtener resultados.  Grandes bancos o utilities, por ejemplo, no podían prescindir de estos grandes equipos que seguían pudiendo procesar millones de transacciones en un tiempo bastante menor que las otras líneas de productos.

Los avances en herramientas para enlazar y desarrollar interfases o emulaciones entre equipos de distinta línea también garantizaban la conectividad entre equipos de distinta tecnología y tamaño, con lo cual el hecho de tener obligadamente que hacer coexistir varias tecnologías no era necesariamente ineficiente desde ese punto de vista. 

Entre 1993 y 1998/99, la difusión de esta arquitectura creció exponencialmente en todo el mundo, ayudada también por otros factores externos que colaboraron en acelerar el proceso de cambio y abandono de las antiguas.

Uno de los factores que más influyó fue lo que llamamos la globalización.  Podemos definir es este fenómeno como el brutal proceso de internacionalización de la economía que se dio en la década del ´90 basado en dos fenómenos principales: la caída de barreras comerciales y el abaratamiento de las comunicaciones.

La caída del Muro de Berlín, el proceso de integración europea y otros procesos similares a menor escala en otras regiones (MERCOSUR) trajo como resultado que los mercados potenciales para el crecimiento de una compañía se multiplicaran.  Ahora una empresa tenía posibilidad de exportar o de instalarse en muchos más lugares con perspectivas de éxito.  Muchos países que venían de economías cerradas o dirigidas estaban ávidos de recibir nuevas inversiones, tecnologías y acceder a bienes de consumo y servicios desconocidos.

Por otro lado, las operadoras de comunicaciones, por una mejor infraestructura, la tecnología digital introducida en los ´80, las redes de satélite y cable estaban en condiciones de dar un mejor servicio para mantener “conectadas” a las filiales con su Casa Matriz.  Esto traía varias ventajas: menores costes de implantación (no se duplicaba toda la infraestructura), menores costes de supervisión e información en tiempo real de lo que sucedía en las filiales.

La consecuencia de la globalización fue la adquisición desenfrenada por parte de compañías multinacionales de más filiales en el extranjero.  Luego, la ola de fusiones y adquisiciones que siguió cuando las Compañías tuvieron que ganar economía de escala para poder competir.  La mitad de la década del ´90 nos dejó una economía mundial con menos empresas y más grandes. Esto, sobre todo, se concentró en las llamadas "economías emergentes" (a pesar de recurrentes crisis financieras).

Incremento de la inversión extranjera en países emergentes en los últimos 15 años
Este cambio operó sobre el mercado informático favoreciendo la estandarización de procesos y la homogeneidad de las arquitecturas.   La posibilidad de un liderazgo corporativo más fuerte desde las casas matrices, por las mejores comunicaciones, hizo que el management local perdiera poder e influencia para incluir soluciones locales o no homogéneas en las filiales.  Estas masivamente, sobre todo si eran empresas adquiridas, se vieron obligadas a adoptar diseños de arquitectura de sistema compatibles con sus casas matrices.

En la mayoría de los casos, sobre todo en países atrasados, este fue benéfico y favoreció la competitividad cuando las nuevas arquitecturas reemplazaron a sistemas obsoletos o ineficientes.  En otros casos, impuso soluciones que no se adaptaban totalmente a la realidad de la Compañía y les hizo perder agilidad.  Por otro lado, las operadoras de comunicaciones, por una mejor infraestructura, la tecnología digital introducida en los ´80, las redes de satélite y cable estaban en condiciones de dar un mejor servicio para mantener “conectadas” a las filiales con su Casa Matriz.  Esto traía varias ventajas: menores costes de implantación (no se duplicaba toda la estructura), menores costes de supervisión e información en tiempo real de lo que sucedía en las filiales.

En los procesos de fusión la adopción de una de las dos arquitecturas de sistemas normalmente obligaba a una racionalización de los recursos, y dada la complejidad de este proceso en grandes compañías, era más fácil de abordar en un entorno de paquetes de software.  Además, este proceso de consolidación tuvo por efecto reducir el número de clientes de la industria y aumentar su capacidad de negociación con los proveedores de software y equipos, aunque más no sea por la enorme escala que empezaron a tomar las Compañías.

Pero, al mismo tiempo, que se iban sucediendo estos cambios en las tecnologías de procesamiento central de datos, se iban produciendo avances tecnológicos y nuevas técnicas que gestión que cambiaban un poco la visión de las arquitecturas empresariales.  Estas tecnologías que se desarrollaron o alcanzaron su punto de madurez durante la década del ´90 fueron:

·         La integración de telefonía y ordenadores (Computer-Telephone Integration)
·         La tecnología de extracción de datos y patrones (Datawarehousing y Datamining)
·         La computación móvil (Mobile Computing)
·         La red Internet, concebida como herramienta masiva, y su corolario, la WWW

Estas tecnologías posibilitaron nuevas aplicaciones de negocios, inconcebibles hasta el momento, y su desarrollo tendría una enorme influencia en los años siguientes. A fines de la década del ´90 su uso era ya habitual, aunque más bien orientado a aprovechar ventajas coyunturales en la explotación de la tecnología.  En los años siguientes, estas tecnologías fueron modelando el futuro.

lunes, 25 de mayo de 2015

Una perspectiva histórica de la TI (IV):la empresa integrada


En la década de 1980, el término de moda en el Management era “calidad”.  Las regulaciones, el crecimiento de la industria del juicio en Occidente y la competencia japonesa había llevado a las organizaciones a la conclusión de que el diferencial competitivo estaba puesto en la calidad del producto o servicio.  Las empresas buscaban la excelencia como meta, procurando llegar al 0 defecto, implantando mecanismos de control de calidad y aseguramiento de calidad.

Basados en los conceptos de Deming (https://www.deming.org/theman/overview), aplicados por los japoneses durante años, las mejoras de procesos estaban limitadas a cambios incrementales, muchas veces surgidos de sistemas de sugerencias, la mayoría de las empresas había quedado estancada en el uso de la tecnología como una herramienta de productividad o de decisión, sin darle otra preponderancia.

Pero cuando la industria de Occidente se vio superada e invadida por la competencia de Japón y los “tigres” del sudeste asiático, las empresas se vieron en la necesidad de encarar una drástica mejora competitiva para evitar un colapso cierto.  Por otro lado, vieron acertadamente que la calidad había dejado de ser un diferencial.  La calidad se había “comoditizado”, ya había dejado de ser un factor diferencial, cuando el consumidor era incapaz de diferenciar la calidad de un producto “Made in USA” de otro “Made in Japan”.

Así comenzó la era de la "reingeniería", un concepto acuñado por el profesor Michael Hammer (http://eecs-newsletter.mit.edu/articles/2009-fall/remembering-michael-hammer-1948-2008/), del MIT.  Este concepto fue impulsado por un pocos directivos y gerentes creativos que actuaban a su criterio en un contexto inédito, a veces con éxito y a veces no, la experiencia luego era analizada por los “gurúes” del management, plasmada en libros y cursos de posgrado y finalmente, adoptada por consultores y asesores, que la difundieron a todas las organizaciones.  

Hammer volcó estas ideas en un artículo escrito en la Harward Business Review en 1990: "Reengineering Work: Don't Automate, Obliterate" (https://hbr.org/1990/07/reengineering-work-dont-automate-obliterate). Los conceptos básicos luego fueron sistematizados y ejemplificados en uno de los libros más vendidos y de mayor influencia en el mundo de la empresa "Re-engineering the Corporation", escrito por Hammer en colaboración con James Champy en 1993 (http://www.fastcompany.com/1751352/why-companies-will-change-or-fail).
 
El concepto de reingeniería, tal como lo habían definido Hammer y Champy, partía de la base de la “página en blanco”, como símbolo de que en el diseño de los procesos de negocios, había que olvidarse del pasado e imaginar un esquema completamente nuevo de hacer las cosas, que permitira obtener una “mejora dramática”  en los indicadores de gestión de las organizaciones.  En la teoría una idea fascinante, pero que se topó con enormes problemas operativos.

Pinta aquella etapa un chiste tonto que circulaba por el ambiente de la consultoría.  Una cigarra iba a visitar a un consultor de estrategia y le planteaba su problema: “En el invierno, paso hambre, paso frío,y además veo que la hormiga se lo pasa fenomenal, en su casa con comida y calor ¿ Qué tengo que hacer ? El consultor tras pensarlo mucho (y cobrarle unos buenos cientos de miles de dólares a la cigarra) le indica: “Ya lo sé. Lo que tienes que hacer es transformarte en hormiga”. La cigarra no puede ocultar su alegría: “Gracias, gracias. Ya sabía que Usted me iba a ayudar. ¡ Qué buena idea !”. Cuando la cigarra, después de efusivos abrazos al consultor, se da vuelta para irse, de repente, le viene un pensamiento a la cabeza y pregunta: “Pero, ¿ Cómo hago para convertirme en hormiga ?”. El consultor, mientras cuenta los billetes, dice: “Ah, ese es un problema operativo.”

La mayoría de las organizaciones fueron incapaces de reinventar completamente sus procesos de negocios, simplemente era demasiado complejo y caro, aunque uno pudiera imaginar un diseño diferente.  La adaptación de los sistemas de información, las relaciones externas con proveedores y clientes, la resistencia al cambio de las personas, todo era demasiado peso para soportar.  Cuando la reingeniería pasó a ser un concepto usual, se descubrió que una alto porcentaje de empresas que había aplicado la técnica, estaba insatisfecho con los resultados.(http://www.brint.com/papers/bpr.htm).


Pero la necesidad de transformación seguía existiendo realmente y en ese momento la reingeniería se “reinventó” con el auxilio de la industria del software.  Fue entonces cuando explotaron los ERP (Enterprise Resource Planning), nombre asignado por Gartner Group en los ´90 para describir una nueva categoría de software (http://www.gartner.com/it-glossary/enterprise-resource-planning-erp.).

La industria del software hacía años venía avanzando hacia el concepto de “reutilización” del software.  Simplemente, construir cada vez software a medida para cada empresa empezaba a resultar demasiado caro.  Las empresas pedían resultados en menos tiempo, para mejorar su propia competitividad, y a contratar a los proveedores que podían cumplir las entregas más rápido y más barato.  El mercado de software “horizontal”, ya no controlado por los fabricantes, empezaba a hacer más competitivo.

Para muchas empresas de software era imposible esperar a que surgieran, del ámbito académico, herramientas de programación, lenguajes o metodologías de trabajo más eficientes.  Además, estos hallazgos, en caso de éxito, se difundían en cascada a toda la industria anulando cualquier ventaja competitiva.  Algunos innovadores consiguieron desarrollar sus propias herramientas, soportando altas inversiones, pero la mayoría no podía permitírselo.  Otros se dieron cuenta que la mejora de productividad de la industria no era suficiente por ese camino.

La clave para mejorar la competitividad en la industria del software y responder a la creciente demanda de menores costes y plazos de entrega de los clientes era la “reutilización”.  Este era un concepto accesible a la mayoría de las compañías, implicaba que los componentes de software desarrollados por una software-house para un tercero, debían ser reutilizados por este para el desarrollo de los sistemas de otro cliente.

Así se invertía también la tradicional relación de propiedad intelectual.  Normalmente, hasta el momento, se había interpretado que la propiedad del software pertenecía al cliente, y que la software-house era un mero “facilitador”, que traducía funciones manuales en automáticas, mediante su conocimiento de la tecnología.  A partir de entonces, la propiedad del software pasó a ser reclamada por las software-house, que se reservaban el derecho de utilizar esa tecnología en otros clientes.  La aceptación de IBM de las condiciones de Microsoft para pagar una “licencia” por cada PC que se vendiera y que llevara su sistema operativo instalado, fue una muestra de este proceso.

Aunque a los clientes pudiera molestarles que parte de sus sistemas pudiese emplearse en otras compañías, hasta incluso en sus propios competidores, la idea se fue aceptando simplemente porque era imposible evitarlo.   Los clientes de la industria del software aplicativo no tenían la capacidad de controlar que sus programas fueran reutilizados, adaptados, o que el know-how del negocio que tenían que transmitir a los desarrolladores fuese aprovechado para construir sistemas para otras empresas. 

Por supuesto, tenían la alternativa de contratar su propio staff de desarrollo y construir los sistemas con total autonomía interna, y algunos lo hacían históricamente, pero con la presión a la baja de los costes esto era prácticamente inviable para algunas empresas, sobre todo las de menor tamaño.  Así pues el mercado estaba preparado para aplicar el concepto de “reutilización” a gran escala.  Este fue el nacimiento de los “paquetes de software”.

El concepto de “paquete” implicaba la construcción de un software, que incorporara una cantidad de funciones que pudiera ser utilizada en numerosas empresas.  El comportamiento del software debía poder ser modificado no ya con modificaciones al código fuente específicas para cada cliente, sino con modificaciones sutiles en ciertos parámetros o tablas del sistema.  Este concepto ya se utilizaba masivamente para los software con funciones “de oficina” (procesadores de texto, planillas), pero nunca se había explotado masivamente para funciones empresariales más complejas como Ventas, Compras, Producción y otras.

El cliente entonces pagaba una licencia, normalmente acorde con la cantidad de usuarios, para implantar el “paquete de software” y la software house lo asistía para parametrizarlo, formar a los usuarios y transferir los datos iniciales para operar.  Luego, el cliente pagaba un “mantenimiento”, un porcentaje del valor de la inversión inicial que la software house utilizaba para dar un servicio de soporte técnico (telefónico o presencial), y le permitía al cliente acceder a nuevas “versiones” del paquete, que incorporaban errores corregidos o nuevas funcionalidades.

En teoría, la software house debía hacer una inversión inicial importante para desarrollar la primera versión del producto y luego salir a venderlo.  La realidad es que la mayoría reutilizaba los softwares desarrollados “a medida” para algunos clientes, por los cuales habían pagado cada hora de desarrollo a los programadores, y con algunas modificaciones o cosmética, para hacerlos más adaptables, los “paquetizaba” para revenderlos en el mercado.

El concepto de paquete de software se arraigó bastante durante la décado del ´80 y se transformó en ERP cuando se sumaron algunas características nuevas: el concepto de “sistema integrado” y el de “mejores prácticas”. Recordemos que los primeros paquetes de software tendían a tener las mismas características funcionales de los sistemas corporativos “a medida” (eran los mismos de hecho), eran fragmentarios, cubrían sólo necesidades departamentales y no tenían una visión íntegra de la organización.

Pero ¿ En qué consistía el concepto de sistemas integrados de gestión ? Esto es un sistema informático que cubre las necesidades funcionales de todas las operaciones básicas de una organización (comprar, vender, pagar, cobrar, producir), centralizando los datos en un único repositorio corporativo, con la tecnología de base de datos.
 
Antes del ERP
Vale decir, a partir de ese momento los procesos no se analizan a nivel de departamento (el proceso de cobros eran las actividades que se desarrollaban en el área de Cobros), sino a nivel de toda la organización (el proceso de cobros son todas las actividades que se desarrollan desde la emisión de una factura hasta la contabilización del cobro, independientemente de departamento dentro del organigrama donde se desarrolle la tarea).
 
Después del ERP
La nueva posibilidad que brindaba esta tecnología fue un hallazgo salvador para los gerentes y consultores que se veían empujados a mejoras sustanciales de performance, es decir, forzados a la reingeniería.  Ahora disponían de una herramienta para pensar los procesos de una forma diferente, pero apoyados en algo concreto, existente, un sistema informático construido y no por construir.  Pero además la industria del software tomó prestado otro concepto del management, que habría de apoyar todavía más a las empresas en transformación.

En la década de 1990 se difundió el concepto de “benchmarking”.  Este se podría definir como el proceso sistemático de comparar los indicadores de gestión de los procesos de una organización contra otras, con el fin determinar su grado de competitividad.  Un ejemplo podría ser el tiempo promedio de entrega de una cadena de pizzerías contra otra.  Luego, del análisis de los “top performers” es posible determinar los métodos por los cuáles obtienen esa ventaja competitiva, a esto se llamó “best practice” (se puede ampliar el concepto de Benchmarking, leyendo el texto canónico 
de Boxwell ("Benchmarking para Competir con Ventaja", 1994).

A priori, podría parecer que esta era una información altamente confidencial y difícil de conseguir y analizar, pero no lo era tanto. Por diferentes vías, la información se podía obtener.  Organismos de Gobierno recaban datos para sus instituciones de calidad industrial o promoción de la actividad económica, otros indicadores se publican en los informes anuales de empresas que cotizan en bolsa, otras acceden a compartir la información con el requisito de la reciprocidad de la otra parte.  Incluso dentro de la misma organización, es posible hacer una comparación cuando, por ejemplo, departamentos similares, pero en diferentes geografías, ensayan distintos métodos para hacer el mismo trabajo.

La cuestión es que a principios de los 90 existía una cantidad de “mejores prácticas” recopiladas y muchas veces implementadas en los diferentes sistemas de información de sus usuarios.  Lo que los fabricantes de software hicieron inteligentemente, es destacar que sus aplicaciones permitían (ya facilitaban) a las empresas implementar las “mejores prácticas”, reconocidas globalmente.

El valor de este concepto fue esencial para su éxito.  Los enemigos de los “paquetes de software” (una parte de las empresas, como dijimos, se resistía a aceptarlos), señalaban que estos no eran capaces de adaptarse a las características de los negocios de las empresas y que el software a medida permitía si lograr ventajas competitivas.  Ahora, las software house respondían que sus “paquetes” eran integrados e incluían las “mejores prácticas”. El mensaje fue muy bien recibido por un mercado ávido de reingeniería.

Otro factor fundamental para producir este cambio, fue la notoria pérdida de poder de los Gerentes de Sistemas.   Después de 20/30 años de tecnología aplicada a las empresas y, sobre todo, a partir de la popularización de la informática con los microcomputadores en los últimos diez, el management medio de las empresas entendía mucho más de los sistemas y estos dejaban, de a poco, de ser terreno de especialistas.  Muchos miembros de la alta dirección y mandos medios se atrevían ahora de discutir temas técnicos y eran mucho más exigentes con sus gerentes informáticos.

Debido a esto los gerentes usuarios se involucraron mucho más en las decisiones de sistemas y los conceptos nuevos “sistema integrado”, “mejor práctica”, “reingeniería”, sonaban modernos e imprescindibles. Así que, ahora los gerentes y consultores, disponían del ERP como referencia para “repensar” los procesos y, además, adecuar los mismos a las “mejores prácticas” en los procesos de negocios.  Eso sí, una reingeniería exitosa dependía de un cambio de sistema informático, basado en un ERP.

Un último factor colaboró en la explosión de los ERP: el downsizing.  Los primeros ERP requerían de ingentes capacidades de procesamiento para funcionar, por eso aparecieron primero en las empresas usuarias de mainframes o minicomputadores, pero con el correr del tiempo el aumento de la capacidad de procesamiento de los microcomputadores hizo que estos fueran una plataforma viable para los ERP.

Servidor de línea INTEL (Microcomputador)

El aumento de la capacidad de procesamiento, manteniendo bajos los costes de equipamiento, hizo que el cambio hacia una estructura de sistemas basada en ERPs fuese todavía más rentable, dado que muchas veces la implementación del mismo implicaba un “downsizing” de una línea de hardware más cara como los mainframe o minicomputadores, a una red de microcomputadores, basados en la arquitectura cliente/servidor.

Así pues, llegamos al final del camino, las diferentes fuerzas diferenciales (la madurez tecnológica, la fortaleza de la industria del software aplicativo y las necesidades empresariales) nos habían llevado a la arquitectura de sistemas predominante a fines de la década de 1990, centrada en torno de los ERP o sistemas integrados de gestión. A continuación, describiremos este modelo.

Una perspectiva histórica de la TI (III):: la explosión microinformática


Un gran avance tecnológico que posibilitó un nuevo cambio en las arquitecturas empresariales, fue el concepto de base de datos o, más conceptualmente, el repositorio central de datos.  Este nuevo concepto surgió de la demanda de las empresas de tratar cada vez volúmenes de datos más grandes en menos tiempo y evitar los tiempos de “latencia” que existían al traspasar datos de un sistema a otro dentro de la organización.

En ese momento, las aplicaciones basadas en lenguajes de tercera generación como el COBOL o BASIC no eran capaces de tratar eficientemente grandes volúmenes de datos.  Toda la mejora en el tiempo de procesamiento había estado concentrada en el hardware, que había evolucionado de los equipos monoprocesador hacia los equipos con múltiples procesadores, e incluso arquitecturas cliente/servidor, donde el procesamiento podía distribuirse entre numerosos equipos conectados entre si.
La nueva generación de software permitía que los programadores de aplicaciones se olvidaran de la gestión de archivos y almacenamientos de datos, y algoritmos para optimizar el proceso de datos.  Una nueva capa de software: el administrador de base de datos, se ocupaba de ello.  Este software era capaz de, al precio, de cierta redundancia y/o duplicación, acelerar sustancialmente el acceso a los datos, y adicionalmente, reducir mucho los tiempos de programación.

Adicionalmente, otra gran barrera cayó y permitió el acceso a la TI a prácticamente cualquier organización de  cualquier tamaño: la microcomputación.   La introducción de los primeros ordenadores personales a fines de los `70 y principios de los ´80 (Apple, IBM), a un coste muy accesible multiplicó exponencialmente el número de empresas, profesionales y personas en general con acceso a la TI.  

El primer PC de IBM-Modelo 5150 (1980)
Curiosamente cuando lanzaron este equipo, los fabricantes sólo pretendían optimizar el rendimiento individual de las personas, en casa o en la oficina, como complemento pero no como competencia de sus grandes sistemas.  Al fin y al cabo, era una manera de llegar al segmento de empresas e individuos que no tenían acceso a la informática, por sus altos costes.  Pero, por el contrario, se produjo una explosión que amenazaría a los fabricantes con su propia destrucción.

La industria se revolucionó.  La nueva tecnología estaba al alcance de miles de pequeñas empresas en el mundo, capaces de copiar los diseños y obtener los mismos componentes que los grandes fabricantes.  Los microcomputadores se empezaron a difundir masivamente a precios, cada vez más bajos, canibalizando a sus propios creadores.
Además, la decisión de IBM de pagar por la “licencia de uso” de un sistema operativo de un tercero, Microsoft, en lugar de liberar uno propio con el equipo, cambió la forma de hacer negocios en la industria informática.  Los programadores expertos vieron la posibilidad de obtener su tajada del negocio, cobrando por el uso de programas estándar de uso muy diverso (juegos, procesadores de texto, planillas de cálculo, etc).


  
The Pirates of Silicon Valley (Youtube)
Escena: IBM acepta pagar a Microsoft por cada PC vendido que utilice su SO MS-DOS

Pronto, surgieron miles de pequeñas empresas que, al no haber grandes barreras de entrada, empezaron a desarrollar software para los nuevos ordenadores.  Ya no se podían vender unos pocos programas a cientos de miles de dólares, pero se podía vender miles a unos pocos cientos de dólares.  La multiplicidad de usos que tenía el microcomputador para la oficina, la casa o la universidad, hacía también mucho más amplia la gama de programas que podían desarrollarse sobre él.

Al mismo tiempo, explotó la cantidad de profesionales que podía dedicarse a la informática.  Hasta ese momento, el estudio de la informática era caro y estaba limitado a las posibilidades de acceso de unos pocos elegidos a centros que dispusieran de los caros equipos mainframe o minicomputadores.  De hecho, estos centros, fuesen privados o públicos, eran fuertemente dependientes de los fabricantes, que los controlaban y podían regular la oferta y demanda de plazas.

A partir del microcomputador, miles de nuevos profesionales de la informática se autoformaron o pudieron formarse en las nuevas tecnologías en una múltiple gama de nuevos centros privados y públicos.  Asimismo, millones de personas que hasta ese momento trabajaban en las empresas sin contacto con los ordenadores, empezaron a utilizar el ordenador como una herramienta de trabajo más, como la propia máquina de escribir.
Tanto éxito comercial, hizo que se dispararan las inversiones para mejorar y optimizar el producto, y así los microprocesadores, sin crecer en tamaño ni en coste, empezaron a aumentar su capacidad de procesamiento hasta acercarse y superar las capacidades de los minicomputadores, hasta virtualmente reemplazarlos.  Por otro lado, aumentaron su capacidad de procesamiento, por medio de la computación en red.

La constitución de redes locales, basadas en PCs, empezó a multiplicarse fue otra manera de aumentar el poder de procesamiento de los ordenadores.  Para principios de los ´90 se empezó a dar una convergencia explícita con las nuevas tendencias en el software empresarial: los repositorios centrales de datos y la arquitectura cliente/servidor.

Entre 1990 y 1995,  la industria y la tecnología ya estaban listas para impulsar un nuevo paradigma en el diseño de las arquitecturas de sistemas: el sistema integrado de gestión.