Los CIOs coinciden en que para maximizar el valor de los sistemas TI heredados o legacy, se requiere un enfoque verdaderamente revolucionario dentro de la organización. Ese enfoque consiste en introducir procesos y arquitecturas alternativos que puedan aportar una verdadera innovación en el ciclo de vida de las aplicaciones y regenerar por completo su valor para el negocio.
Pero, ¿cuáles son los factores más apremiantes que mueve a un CIO para modernizar sus sistemas heredados (legacy)? ¿Qué retos enfrentan cuando deciden realizar esta tarea? ¿Cómo defienden sus proyectos de modernización de sistemas ante la directiva de sus organizaciones?
“Sabemos que los negocios evolucionan, por lo que la modernización de los sistemas TI –que han estado por algún tiempo y le han dado estabilidad a la organización– no sólo consiste en adoptar la última tecnología, sino también en adaptar lo nuevo a la tecnología que ya tenemos”, aseveró Toney Javier Roa, CIO de Renault México, al participar en la mesa redonda “Modernización de aplicaciones: el nuevo desafío para TI” organizada por CIO México y Micro Focus.
En opinión de Roa, además de los aspectos tecnológicos involucrados en la modernización, también hay que “transformar los procesos para adaptarlos al negocio”.
Otro de los asistentes a la mesa, José Luis Muñoz, IT México Head de DHL Global Forwarding México, manifestó que esta empresa de servicios de mensajería a nivel mundial tiene como lema estratégico “Ser buenos para ser mejores”, por lo que el proceso de modernización de sus sistemas legados comenzó por identificar cuáles eran las aplicaciones críticas para el negocio. Esto les ha permitido migrar aplicaciones locales, algunas de ellas basadas en mainframe, hacia una plataforma global de SAP, con lo cual se busca mejorar la competitividad de la empresa.
Víctor Antonio Jiménez, Gerente Corportativo de Sistemas de Tu Casa Express, dijo que en su caso tenían una aplicación “que era el core de la compañía”, con 15 años de antigüedad. “Lo que hicimos fue mapear los procesos actuales contra lo que hacía el sistema. Esto nos permitió saber que cubría un 60% de los procesos actuales”.
“Se analizaron entonces los costos, los impactos que tendríamos, y al final de cuentas nos decidimos por un desarrollo hecho en casa. Hoy estamos ante la disyuntiva de si actualizamos lo que tenemos o hacemos algo nuevo”. Por eso, añadió Jiménez, “es importante tomar en cuenta la flexibilidad de nuestros sistemas, para que se adapten a los cambios que vengan en el futuro”.
Jano López, Gerente de Soporte Técnico del Centro de Investigación y de Estudios Avanzados (Cinvestav) del Instituto Politécnico Nacional, coincidió con Jiménez en que “no podemos tirar los sistemas legacy. Lo que se debe hacer es traducir las aplicaciones que se tienen a lenguajes de programación más actuales.
Dijo que el Cinvestav está trabajando para adoptar el eGoverment Framework, una plataforma de código abierto basada en Java y desarrollada por el gobierno coreano que, entre otros beneficios, brinda la posibilidad de reutilizar lo que se tiene. “Esto es para nosotros una ventaja, pues los paquetes ya hechos (que hay en el mercado) están pensados bajo una lógica estándar. Y en nuestro caso, por ejemplo, se desarrolló un GRP que iba cambiando de código conforme se necesitaba”.
Por su parte, José Luis Hernández, Director de Tecnologías de Información del Instituto de Acceso a la Información Pública y Protección de Datos Personales del Distrito Federal (InfoDF), compartió con la audiencia que están trabajando en un proyecto innovador para publicar información en posesión del Gobierno del Distrito Federal, enfocándose en la calidad de los datos, y que estará disponible para ser consultado por los ciudadanos. “Esta próxima aplicación promoverá la transparencia y contemplará muchos aspectos basados en gobierno abierto”, adelantó Hernández.
Otra de las alternativas por la que puede optar el CIO consiste en reescribir las aplicaciones que corren en sistemas legados (legacy).
Omar Pérez, CIO de la Oficina Corporativa de Grupo Bal, el cual integra a empresas como El Palacio de Hierro, Industrias Peñoles y Grupo Nacional Provincial (GNP Seguros), explicó que ésta última compañía tiene más de 110 años de existencia, por lo que su principal reto consiste en conectar sus sistemas heredados con los nuevos y se optó, en algunos casos, por la reescritura de tales aplicaciones.
En la mesa redonda también participó Grupo Financiero Banorte-Ixe, en el cual se lleva a cabo un proceso de integración de sistemas luego de la fusión de estos bancos mexicanos, concluida en abril de 2012. “Estamos evaluando qué vamos a cambiar y qué debe quedar en el mainframe”, señaló Angélica Arana, Especialista Funcional Senior de Desarrollo de Sistemas de esta institución.
También se evalúa cómo modificar los procesos internos de atención a requerimientos de TI. Para ello, dijo, se está creando un área de relacionamiento con otros departamentos del grupo financiero, para que primero revisen sus procesos a detalle y puedan hacer requerimientos de sistemas más precisos e innovadores.
En esto estuvo de acuerdo Gerardo Velázquez, Director de Tecnología de Información de Savi Distribuciones, al señalar que “cuando tienes procesos bien definidos y puntuales, los puedes considerar como la base de tu estrategia de TI”.
En defensa de la modernización
Al hablar de los retos que enfrentan los responsables del área de TI para promover o, incluso, defender los proyectos de modernización ante la directiva de sus organizaciones, Arana, de Banorte-Ixe, precisó que en su caso todo lo relacionado con el mainframe se considera una decisión de Consejo, ya que se trabaja de manera directa con IBM.
En cambio, en la Secretaría de Salud, los proyectos de modernización de sistemas legados se sustentan mediante la cuantificación de los riesgos y costos. “No para todas las soluciones necesitas un ejército de desarrolladores”, señaló Enrique Alberto Sánchez, Director General de Tecnologías de Información de la SSA federal.
La reducción de los riesgos es otro de los factores para tomar en cuenta en ambientes dispersos o muy complejos, “así como centralizar la administración de las aplicaciones”, como ha sido nuestro caso, señaló Sánchez.
Para finalizar, los asistentes a la mesa redonda externaron su opinión sobre el futuro del mainframe. José Luis Muñoz, de DHL, dijo que sigue siendo “una plataforma muy confiable, que aporta “robustez muy buena”, en tanto que José Luis Hernández, del InfoDF, quien anteriormente trabajó con este tipo de equipos, destacó su versatilidad y su poder de cómputo en espacios cada vez más reducido, pues ahora “son cajas pequeñas”.
Jairo López, del Cinvestav, indicó que por tratarse de una dependencia académica, este centro de investigaciones trabaja tanto con un mainframe, una supercomputadora y un modelo cómputo en la nube. “El mainframe nos garantiza disponibilidad y alto desempeño; la supercomputadora, sólo alto desempeño; y el cómputo en la nube es como si tuviéramos cachitos de mainframe disponibles por demanda”.
Por su parte, Miguel Fito, director de Consultoría y Servicios de Micro Focus para Iberia y América Latina, aseveró que el mainframe, lo mismo que el lenguaje Cobol, “seguirán vivitos y coleando”. El gran problema del Cobol, dijo, es que no es tan sexy como otros (lenguajes) como Java y no se enseña en las universidades. Por lo tanto, el reto consiste en convencer a las instituciones educativas y a las organizaciones de que sigue siendo tan útil como en 1959, cuando se inventó.
Y por lo que respecta al mainframe, Fito aseguró que seguirá vigente, “simplemente IBM –su creador– no lo dejará morir”.
– José Luis Becerra Pozas, CIO México/CW México