viernes, 19 de junio de 2015

Una perspectiva histórica de la TI (XIX): del Outsourcing Industrializado a la Cloud Computing

Decíamos en una entrada anterior (http://gestionyti.blogspot.com.es/2015/06/una-perspectiva-historica-de-la-ti-xv.html) que entre 1999 y 2003, muchas empresas tomaron la decisión de “sacar fuera” o externalizar la mayor cantidad posible de operaciones informáticas, para que un proveedor les diera el mismo o mejor servicio a menor precio, aprovechando la economía de escala. Aparentemente, en este tipo de decisión el factor de ahorro de costes era el único driver de la decisión y afectaba a todos los diferentes niveles de gestión: la infraestructura de hardware, el mantenimiento y gestión de las aplicaciones, y el propio proceso de negocios (BPO).

Sin embargo, circa 2005 el panorama empezó a cambiar.  Dado el "parón" en las inversiones en los sistemas de gestión y de e-"algo", los proveedores de servicios se volcaron mucho más en ganar los grandes contratos de outsourcing y se produjo una "guerra de precios" de proporciones.  Para muchas empresas ganar un contrato así era sinónimo de supervivencia y, lógicamente, no podían dejar escapar a los clientes que externalizaban sus servicios.

Evolución del Mercado de Outsourcing
Fuente: http://www.softec.sk/files/Softecon/softecon2012/prednasky/4-softecon_2012_volek.pdf
Nota: Como se ve en el gráfico de arriba el crecimiento entre el 2005 y 2008 dio un salto del 30%.  En 2009 y 2010, el crecimiento se estancó pero esto se debe más a la recesión global (todos los negocios cayeron), después de la crisis bancaria de 2008.  Hay que tener en cuenta que este evento afectó con mucha fuerza a uno de los sectores que tradicionalmente más gastaron en IT: la banca.

Con tan bajos márgenes de beneficio, los proveedores de servicios enfrentaban dos grandes problemas:
  • Los enormes riesgos de sufrir desviaciones de costes en los contratos (y tener que asumir pérdidas considerables o perder el cliente)
  • La necesidad imperiosa de lograr mayores economías de escala y eficiencia en las operaciones para hacer rentable el negocio.
Según un estudio de Gartner, en 2006 se calculaba que globalmente un 30% de los contratos de outosurcing terminaba deshaciéndose (porque era imposible sostenerlo al precio pagado o porque era imposible subir el precio).  En los grandes contratos hacer un "due diligence" completo en un tiempo razonable en fase de oferta era muy complicado, y siempre se corrían riesgos de no detectar aplicaciones a mantener, procesos a ejecutar o tecnologías que renovar.

Por otro lado, los proveedores de outsourcing se dieron cuenta de que, si se quería ganar competitividad, ya no alcanzaba con agrupar a muchos clientes bajo un mismo "techo" (un data center compartido), sino que el próximo salto correspondería a que los propios sistemas y personal técnico fueran compartidos por muchos clientes.

Adicionalmente, con el desarrollo y el consiguiente abaratamiento de las comunicaciones globales se dieron cuenta que se podían obtener grandes ganancias en competitividad si el personal técnico que operaba y mantenía los sistemas residía en los países con los salarios más bajos (aun absorviendo los costes de comunicación).  A pesar de la inflación salarial provocada por el offshoring de los años anteriores las diferencias seguían siendo muy apreciables, según muestra el cuadro de abajo.

Diferencias salariales en Ingenieros año 2005
http://www.christiansarkar.com/2005/11/wage_inflation_as_a_result_of.htm


En paralelo la industria también empezaba a ofrecer nuevas soluciones que permitían ganar rápidamente economísa de escala. Una de las principales soluciones tecnológicas que surgió fue la "virtualización".  Hasta ese momento la arquitectura INTEL predominante estaba limitada al paradigma 1 servidor físico:1 entorno de trabajo.   En 2001, VMWare lanzó su primer virtualizador de servidores GNX y a partir de allí ya fue posible que un mismo servidor albergara diferentes entornos de trabajo.

Esto permitía resolver una de las principales limitaciones del entorno INTEL: la posibilidad de compartir recursos entre diferentes aplicaciones usando el mismo hardware, sobre todo cuando estas no hacía un uso continuo, sino por ráfagas de la infraestructura (o en horarios compeltamente diferentes).  Con la virtualización se aprovechaban mucho mejor los "ciclos ociosos" de cada máquina, mejorando la productividad en general de la red.

Esta problemática se había superado muchos años atrás en los gran mainfranes (que podían "repartir" la capacidad de proceso entre diferentes "particiones lógicas"), pero era algo nuevo en el mundo INTEL.

Basado en este concepto en 2002, IBM había lanzado el primer servicio de "infrastructure utility services" y Gartner había anticipado la tendencia creando un modelo de madurez IUMM (Infrastructure Utility Maturity Model), que preveían varias etapas hasta lograr la externalización más eficiente.  Estos avances permitieron a Nicholas Carr teorizar sobre la posible evolución de la industria, al publicar en 2005 el polémico artículo "The End of Corporate Computing" en la MIT Sloan Management Review (http://sloanreview.mit.edu/article/the-end-of-corporate-computing/).

La tesis de Carr era que "después de verter millones de dólares en data centers in-house, las empresas pronto se darán cuenta que es el momento de empezar a cerrarlos. La TI está pasando de ser un activo de la compañía a un servicio que compran".  El polémico escritor hacía una analogía con los molinos de agua y con los generadores eléctricos: al principio las fábricas necesitaban tenerlos como activos para disponer de la energía pero cuando la red eléctrica llegó a sus puertas los abandonaron para comprar la energía producida por grandes generadores a mayor escala y en forma mucho más económica.

En el enfoque de Carr, la TI era otro commodity, otro servicio público, incapaz de producir una ventaja competitiva, cambiando mucho el paradigma de los ´70 e incluso el papel de enabler para la reingeniería de procesos de los ´90.  Fue muy discutido, sobre todo por los fabricantes de software, pero tuvo un impacto real en la forma en que la empresas encararon las estrategias de sistemas desde 2005.


Este cocktail de cambios (necesidad de bajar costes, commoditización, tecnología más escalable)
trajo aparejado hizo que los proveedores de outsourcing se replantearan su negocio y surgió un nuevo paradigma: el "Outsourcing Industrializado".


A diferencia del Outsourcing Tradicional, el Outsourcing Industrializado no se basaba en transferir el personal y los activos de empresa contratante a un tercero, sino en que esta adoptara los servicios informáticos ofrecidos por el outsourcer, basados en unos niveles de servicio estándar.  La mejor forma de resumirlo la establecieron los analistas de Gartner: pasar de un modelo "your mess for less" (intraducible juego de palabras) a un modelo "adapt to/adopt".

Un buen ejemplo es el correo electrónico.  En lugar de que el outsourcer se hiciera cargo de administrar el servidor de correo del cliente, el servicio de correo se migraba unos grandes servidores de correo del proveedor que daban servicio a muchos clientes (aunque manteniendo el aislamiento lógico y la privacidad de los mensajes).


   Este modelo garantizaría una gran mejora de costes, pero también tenía la ventaja de que permitía a las empresas alcanzar niveles de calidad de servicio certificados, sin tener que hacer el esfuerzo interno para llegar a estos estándares de calidad.  Para muchas empresas más pequeñas se podía llegar a los niveles de eficiencia de las grandes sin tener que hacer grandes inversiones, para las grandes era reducir costes manteniendo la calidad.

Bajo este modelo, los grandes proveedores de outsourcing tendieron a seguir ganando escala global, para abaratar todavía más los costes y establecer centros operativos en geografías con los costes laborales más bajos, bajo el concepto de offshoring.   En ese contexto proliferaron nuevos players globales que empezaron ofreciendo sus servicios a los grandes y luego fueron también empezando a ganar clientes directos, fue sobre todo el éxito de empresas indias como Wipro o Tata.  Sus operadores hablaban un perfecto inglés y podían atender clientes en EE.UU. o UK.

En América Latina, esto ocurrió aunque en menor medida. Surgió una especialización en call centers para atender necesidades en España.  La devaluación del año 2002 impulsó este modelo en Argentina que disponía de buena cantidad de personal técnico a costes muy bajos.  China, sin tanta facilidad para los idiomas, se especializó en infraesturas básicas de servidores.

Pero el mercado daría una nueva vuelta de tuerca alrededor de 2010: el surgimiento de la Cloud Computing.

Evolución del concepto de "Cloud"

Aunque el origen del término sigue siendo discutido, "Cloud Computing" parece referirse a la forma en que los ingenieros representaban a Internet (o a una red WAN) en un diagrama en los años ´90 y 2000.  La red se representaba simbólicamente como una "nube" que resumía (y evitaba representar) todas las conexiones internas entre nodos y cables que permitían que un dato llegase de un lugar a otro.

El concepto aplicado es sencillo.  Consisten en "mover", la infraestructura de sistemas (servidores y aplicaciones) del espacio de la empresa (incluyendo dentro de este a los data center de terceros alquilados) a la "nube", considerando esta como un espacio indefinido donde sólo es visible una dirección dónde se envía o procesa una información.  Para el usuario de la "nube", es indiferente (hasta cierto punto). donde residen o se almacenan sus datos o dónde se procesan: sólo espera recibir poder acceder a los mismos cuando los necesite.  La idea de Carr llevada al extremo.

Esta evolución pasó a ser posible por varias razones:

  • la brutal expansión de Internet que, con el despliegue masivo de fibra óptica, comenzó a tener unos tiempos de respuesta aceptables, a un precio cada vez más bajo
  • el enorme salto en productividad de los sistemas basados en INTEL (corazón de la Web) a partir del desarrollo de la virtualización y la evolución de los procesadores con muchas cores
  • la dramática bajada de costes de almacenamiento
  • la enorme escala que habían empezado a alcanzar algunas empresas que ofrecían servicios online (Amazon, Google) que les permitía "alquilar" una parte de su infraestructura a terceros
De esta forma, a un coste muy bajo, usuarios finales y empresa ya no necesitan invertir fuertemente en hardware, sistemas operativos y aplicaciones estándar para tener el equipo en propiedad en casa: sólo necesitaban contratar a un proveedor que ofreciera estos servicios en la nube por una cuota mensual, adecuada al uso que hicieran de estos recursos.  Sólo necesitaban una conexión rápida de Internet y de uno o varios dispositivo para conectarse (PC, tablet, smartphone).

Esta modalidad tuvo sus precursores en Amazon con el servicio Elastic Compute Cloud (2006), pero practicamente todos los grandes fabricantes de la industria se subieron a esta tendencia: Microsoft con Azure (2008), Google con Google Cloudstorage (2010), Apple con iCloud (2011), IBM con SmartCloud (2011).  En el ámbito de las aplicaciones Sales Force era un caso de éxito desde los 2000, pero se potenció.  Además, todos los service providers de TI y Comunicaciones lanzaron sus servicios, además de cientos de nuevas empresas que ofrecían el servicio con diferentes variantes (como Dropbox).

Por supuesto, este movimiento tuvo un impacto espectacular entre los usuarios finales y las PYMEs, que podían acceder a estos servicios un una forma no antes vista.  Pero también estalló en las Grandes Empresas de una forma considerable y no de la mano de los Departamentos de Sistemas.

Ocurrió un fenónemo parecido al de la década de 1980, con el adveninimiento del PC.  La disponibilidad de una tecnología barata y fácil de usar hizo que millones de usuarios finales en las empresas implantaran sus propios sistemas de información sin pasar o sin consultar con las áreas centrales de Informática. Entonces había ocurrido con el uso de pequeños paquetes ofimáticos (son legendarias la primera aplicaciones Lotus 123) o con el desarrollo de pequeñas aplicaciones y bases de datos.  En los últimos años con la contratación de grandes repositorios de datos y aplicaciones complejas en la "nube".

En una red de empresa con una salida a Internet (ya muy barata y muy poco limitada), cualquier usuario puede suscribirse a un servicio Cloud (contratar espacio en disco, un sistema de ventas o de campaña, de correo o videoconferencia) y ejecutarlo desde su ordenador.  Muchos de estos servicios son, además, gratuitos o a un coste tan bajo que a nadie le preocupa que la empresa tenga que pagarlo, simplemente mejora la gestión de una persona o puesto de trabajo en forma autónoma.

Restringir el acceso a Internet después de 2010, ya no es una opción vista la dependencia actual de cualquier persona a acceder a cualquier servicio por la misma (además de desatar un verdadera rebelión entre los usuarios y generar un pésimo clima laboral).  Tampoco es efectivo, cualquier podría utilizar su propia red personal de datos móviles a un coste muy bajo.  Por otra parte, hacer que todo nuevo servicio pase por las áreas TI tampoco es sencillo (que tendría que evaluar, comparar, negociar precios, etc), dada la enorme velocidad con que se mueve este mercado.

Pero esta explosión de "sistemas paralelos" o "sistemas islas" (ahora suelen agruparlos bajo el título de "shadow IT") no sólo tiene efectos positivos para la empresas.  También entraña una serie de riesgos si no están bajo control.  Cualquier usuario puede extraer ficheros confidenciales, generar brechas de seguridad para terceros (desde la infiltración de virus o hackers), hasta generar gastos fuera de control (algunos servicios siguen siendo de pago) o simplemente perder la ventaja de las escala de la empresa para negociar precios.

En auxilio de las áreas de Sistemas para gestionar este nueva "TI" en la "nube" la industria ha empezado a reaccionar desarrollando un serie de soluciones que tienden a mitigar los riesgos y hacer más controlable el uso de la tecnología, maximisando los beneficios.  Son los Cloud Access Service Brokers (CASBs), uno de los segmentos de software de mayor crecimiento en 2014.  Y actualmente una pieza imprescindible en cualquier arquitectura de Sistemas que se diseñe en la actualidad.

Ya tenemos algunas piezas que forman parte del puzzle de una arquitectura moderna como habíamos visto en (http://gestionyti.blogspot.com.es/2015/06/una-perspectiva-historica-de-la-ti-xvii.html) y (http://gestionyti.blogspot.com.es/2015/06/una-perspectiva-historica-de-la-ti.html)

  • Social network management
  • MDM
  • Mobile apps
  • eWork tools
  • Big data
  • CASBs
Ahora veremos otra de las nuevas piezas a gestionar por una moderna área de sistemas: el Internet of Things (IoT).








No hay comentarios:

Publicar un comentario