Contenido Exclusivo

¿Está listo para los Big Data?

 

El concepto de Big Data ha sido aclamado -o exagerado, dependiendo de su punto de vista- como un activo empresarial estratégico y clave para el futuro. Eso significa que es solo cuestión de tiempo antes de que los ejecutivos de la empresa quieran saber lo que TI piensa al respecto.
 
¿Qué decirles? De seguro, el manejo de grandes cantidades de datos no es nada nuevo para la mayoría de los departamentos de TI, pero más allá de todo el alboroto, a decir de los analistas, big data en realidad difiere del análisis de almacenamiento de datos, minería de datos e inteligencia de los negocios (BI) que se han presentado antes.
 
Los datos se generan con mayor velocidad y variabilidad que nunca, y, a diferencia de los datos en el pasado, la mayor parte carece de estructura y materias primas (a veces llamados “datos grises”).
 
Los blogs, las redes sociales, los sensores de las máquinas y los datos basados en localización están generando un nuevo universo de datos no estructurados que, cuando son capturados, manejados y analizados rápidamente, pueden ayudar a que las empresas descubran los hechos y los patrones que no fueron capaces de reconocer en el pasado.
 
“Hemos reunido datos durante mucho tiempo, pero era algo muy limitado -produjimos mucho, pero no se hacía mucho con ello”, señala Paul Gustafson, director del Leading Edge Forum de Computer Sciences Corp. “Los datos se archivaron y se modeló en torno a los procesos de negocio, no se modeló como un conjunto más amplio de conocimientos básicos para la empresa. El mantra es que cambió de recolección a conexión”.
 
Por ejemplo, la industria de la salud de Estados Unidospodría incrementar la eficiencia y la productividad mediante el aprovechamiento eficaz de los datos relacionados con la calidad de la atención, las tasas de éxito y la historia clínica del paciente. Según un informe emitido en mayo sobre grandes volúmenes de datos, hecho por McKinsey Global Institute, se estima que la industria podría generar más de 300 millones de dólares en valor cada año, con tales iniciativas de big data. El informe también sugiere que los grandes volúmenes de datos tienen el potencial de aumentar el margen de operación de un minorista promedio en más del 60%.
 
TI está de pie en la vanguardia de esta revolución informática, según dicen los observadores de la industria. “Esta es la oportunidad para entrar a la oficina del CEO y decirle: ‘Yo puedo cambiar este negocio y proporcionarle conocimiento en cuestión de segundos por un precio que no podría haber tocado hace cinco años”, indica Eric Williams, CIO de Catalina Marketing.
 
Williams debe saber -Catalina mantiene una base de datos de fidelidad de clientes de 2.5 petabytes, incluyendo datos de más de 190 millones de compradores de comestibles de Estados Unidos reunidos por las mayores cadenas minoristas. Esta información es, a su vez, utilizada para generar cupones en base al historial de compra.
 
Para dirigir las organizaciones hacia la era de la inteligencia de predicción en tiempo real, Williams y otros observadores de la industria dicen que los administradores de tecnología deben evolucionar su arquitectura y cultura de administración de información empresarial para dar soporte a análisis avanzados en los almacenes de datos que se miden en terabytes y petabytes (potencialmente a escala exabytes y zettabytes).
 
“TI siempre dice que quiere encontrar la manera de acercarse a los negocios; big data es una oportunidad fenomenal para hacer exactamente eso”, señala Williams.
 
Superando los obstáculos
Debido a que aún está empezando, las tecnologías de big data siguen evolucionando y aún no han alcanzado el nivel de madurez del producto para que los administradores de TI se acostumbren al software empresarial.
 
Muchos productos emergentes de big data se basan en tecnologías de código abierto, y si bien están disponibles versiones comerciales, la mayoría carece de la bien desarrollada consultoría de terceros, y el ecosistema de apoyo que acompaña las aplicaciones empresariales tradicionales como ERP, señala Marcus Collins, director de investigación de Gartner.
 
Es más, existe una brecha entre las habilidades de big data en la mayoría de los departamentos de TI, que tienen hasta ahora, un mayor enfoque en la construcción y mantenimiento de los almacenes de datos estructurados más tradicionales.
 
Y hay grandes cambios a realizar, tanto en términos de cultura y de las prácticas tradicionales de administración de la información, antes de que big data pueda tener éxito dentro de una organización de TI y en toda la empresa, señala Mark Beyer, vicepresidente de gestión de la información en Gartner.
 
En lugar de esperar a que las piezas caigan en su lugar, los líderes de TI inteligentes deberían empezar a prepararse a sí mismos y a sus organizaciones para salir adelante en la transformación, señalan Beyer y otros analistas.
 
Aquí presentamos las cinco cosas que los gerentes de tecnología deberían estar haciendo hoy para diseñar una base adecuada para la era del big data.
 
Haciendo un balance de sus datos
Casi todas las organizaciones tienen acceso a un flujo constante de datos no estructurados -ya sea que vengan de las redes sociales o de los sensores de vigilancia de un piso de la fábrica. Pero solo porque una organización esté produciendo toda esta información, no quiere decir que haya una necesidad de que la empresa tenga que guardar y actuar sobre cada byte.
 
“Con este aumento inicial en torno a los grandes volúmenes de datos, la gente siente una necesidad artificial por comprender toda la información que viene de weblogs o sensores”, señala Neil Raden, vicepresidente y analista principal en Constellation Research.
 
Parte de esa ansiedad puede provenir de vendedores y consultores dispuestos a promover el próximo gran paso en la informática empresarial. “Hay un empuje que viene de las personas que están comercializando la tecnología”, observa Raden.
 
Los gerentes de TI inteligentes se resisten a la tentación de tomar de un trago toda esta información, y prefieren servir como un filtro para ayudar a averiguar qué datos son y no son relevantes para la organización.
 
Un buen primer paso es hacer un balance de los datos que se crean internamente y determinar qué fuentes externas de datos, si las hubiere, llenan las lagunas de conocimiento e impulsan la perspicacia al negocio, añade Raden.
 
Una vez que el balance de datos está en marcha, TI debe proceder con proyectos muy específicos que se puedan utilizar para mostrar los resultados, en lugar de optar por un proyecto big-bang, big-data. “No tiene que gastar unos cuantos millones de dólares para empezar un proyecto y ver si vale la pena”, señala Raden.
 
Deje que las necesidades del negocio lo lleven a la unidad de datos
Suena repetitivo, pero el concepto de la alineación TI/empresa es absolutamente fundamental para una iniciativa tan grande y variada con big data, señalan los analistas.
 
Muchas de las primeras oportunidades de big-data se han sembrado en áreas fuera de TI, agregan -mercadotecnia, por ejemplo, ha aprovechado rápidamente las corrientes de los medios sociales para obtener una mejor idea de las necesidades del cliente y las tendencias de compra.
 
Mientras que el lado del negocio puede entender las oportunidades, Ti tiene la responsabilidad de hacerse cargo de los conceptos de datos federados y datos compartidos que forman parte de una estrategia de big data.
 
“Esto no es algo que Ti pueda hacer por su cuenta”, señala Dave Patton, director de industrias de gestión de la información de PricewaterhouseCoopers LLP. “Va a ser duro convertir esto en una historia de éxito, si la iniciativa no está alineada con los objetivos del negocio”.
 
A principios de su gran iniciativa de big data, Williams de Catalina Marketing trajo gerentes de negocios junto con su grupo de planificación y análisis financiero (FPA) en un esfuerzo de equipo para hacer un caso de negocio para las inversiones en arquitectura de la información.
 
El lado del negocio identificó áreas donde las nuevas ideas pueden ofrecer un valor -por ejemplo, en la determinación de las compras posteriores sobre la base de los artículos que se colocan en el carrito de compras, o a través de un análisis de la próxima compra sobre la base de ofertas de productos -y el equipo de FPA corrió los números para cuantificar los resultados que significaría en términos de mejora de la productividad o ventas.
 
Replanteando la infraestructura y arquitectura de datos
Los grandes volúmenes de datos, o big data, requieren grandes cambios en el servidor, la infraestructura de almacenamiento y la arquitectura de administración de la información en la mayoría de las empresas, señala Beyer de Gartner y otros expertos. Los administradores de TI tienen que estar preparados para ampliar la plataforma de TI para hacer frente a los almacenes crecientes de datos estructurados y no estructurados, agregan.
 
Eso requiere averiguar la mejor manera de hacer la plataforma, tanto extensible y escalable, y desarrollar una hoja de ruta para la integración de todos los sistemas dispares que serán los alimentadores para el esfuerzo de analizar los grandes volúmenes de datos.
 
“Hoy en día, la mayoría de las empresas cuentan con sistemas dispares, para la nómina, para la administración de clientes, para mercadotecnia”, señala Anjul Bhambhri, vicepresidente de productos big data de IBM. “Los CIO realmente necesitan tener una estrategia para juntar estos sistemas dispares y construir un sistema de sistemas. Usted querrá que todas las preguntas que fluyen a través de estos sistemas obtengan respuestas”.
 
Por cierto, no todos los sistemas tendrán que ser integrados; los enfoques varían dependiendo del tamaño de la empresa, el alcance del problema de negocio, y los datos requeridos. Pero Bhambhri y otros señalan que el objetivo primordial debe ser la creación de una arquitectura de gestión de la información que asegure el flujo de datos entre sistemas. Para crear esta base, las empresas deberán aprovechar las tecnologías como middleware, arquitectura orientada a servicios, y la integración de procesos de negocio, entre otros.
 
Mientras tanto, las arquitecturas tradicionales de almacenamiento de datos también están bajo presión. Beyer de Gartner señala que 85% de los almacenes de datos implementados actualmente, en cierto sentido, no tienen en cuenta las nuevas cuestiones en torno a la gestión de datos extremos para el año 2015.
 
Aun así, agrega, “no queremos dar la idea de que quitar y reemplazar sigue en la mesa”. En cambio, los depósitos existentes pueden ampliarse y adaptarse para incluir funciones integradas de procesamiento de datos.
 
“Los depósitos del pasado se han centrado en determinar qué tipo de repositorio de datos tiene usted y dónde los tiene. El nuevo modo de pensar es que los almacenes de datos serán una combinación de depósitos nuevos y existentes, además de procesamiento de datos y servicios de entrega”, explica Beyer.
 
Hay que estar al día
El mundo de los big data viene con una gran lista de siglas y tecnologías nuevas que probablemente nunca hayan aparecido en el radar del CIO.
 
La tecnología de código abierto está llamando cada vez más la atención de tecnologías como Hadoop, MapReduce y NoSQL, llevándose el crédito por ayudar a gigantes basados en web -como Google y Facebook- en la rotación de sus depósitos de big data. Muchas de estas tecnologías, a medida que empiezan a ser ofrecidas en formas más comerciales, todavía son muy inmaduras y requieren a personas con conjuntos de habilidades muy específicas.
 
Más allá de las nuevas opciones de código abierto, los grupos de TI también tendrán que asegurarse de que están al tanto de otras tecnologías importantes para el mundo de los big data, como análisis de bases de datos, aparatos de almacenamiento y columnas de bases de datos.
 
Los administradores de TI y su personal deben usar y por lo menos familiarizarse con estas nuevas herramientas, con el fin de estar debidamente situados para hacer que las decisiones sobre big data salgan adelante.
 
Prepárese para contratar o reciclar personal
Ya sea un experto en Hadoop o un científico de datos, la mayoría de las organizaciones de TI carecen del talento adecuado para poder dar los próximos pasos en big data. El conjunto de habilidades analíticas son quizá las más importantes, y representan el área donde actualmente la brecha es más grande.
 
McKinsey proyecta que para el 2018, sólo en Estados Unidos, se necesitará entre 140 mil y 190 mil nuevos expertos en métodos estadísticos y tecnologías de análisis de datos, incluyendo el ampliamente publicitado papel de “científico de datos”.
 
Además, McKinsey anticipa la necesidad de que otros 1.5 millones de directivos con conocimientos de datos, en el lado empresarial o en casa, tengan entrenamiento formal en el análisis predictivo y estadísticas.
 
Bajo la jurisdicción del departamento de TI, los almacenes de datos tradicionales y los profesionales de inteligencia empresarial requerirán una nueva capacitación.
 
Y además de las habilidades tradicionales de gestión de la información, la gobernabilidad y estructura de base de datos; los nuevos profesionales en big data necesitarán comprender la semántica y las disciplinas matemáticas -por no hablar de experiencia en las nuevas herramientas de análisis predictivo y plataformas de gestión de datos que tienen que ver con los grandes volúmenes de datos.
 
“La gente que construyó las bases de datos del pasado no son necesariamente las personas que van a construir las bases de datos del futuro”, señala Williams de Catalina. “No subestime la complejidad de tratar de producir algo como esto”.
 
Para algunas empresas, especialmente en las áreas menos pobladas, conseguir el personal adecuado probablemente complique el reto. “Big data requiere una mentalidad diferente y habilidades en una serie de áreas”, señala Rick Cowan, responsable de información de True Textiles, en Guilford, Maine, un fabricante por contrato de tejidos de interior para el mercado comercial.
 
“Como empresa de tamaño medio, ha sido un desafío conseguir personal y mantenerlos al día en un entorno que está cambiando constantemente”. Para hacer frente a la necesidad, Cowan ha comenzado formalmente a reciclar analistas y programadores de bases de datos para alcanzar la velocidad de los análisis avanzados.
 
Los jefes de los departamentos de TI tendrán que hacer algún tipo de transformación por su cuenta para que puedan sobresalir en este nuevo mundo. Mientras que los mejores líderes de tecnología del pasado han sido en parte bibliotecarios de la información e ingenieros de infraestructura, los administradores de TI del futuro serán una combinación de científicos de datos e ingenieros de procesos de negocio, señala Beyer de Gartner.
 
“Los CIO se han utilizado para gestionar la infraestructura sobre la base de un conjunto de instrucciones dadas por la empresa, en lugar de un CIO que sea capaz de identificar la oportunidad y por lo tanto, empujan hacia el uso innovador de la información”, explica. “Esa es la transformación que tiene que suceder”.

Lo Más Reciente

Realizan el segundo Foro de Talento en Data Centers

La Asociación Mexicana de Data Centers, MEXDC, realizó el...

Cinco tendencias del sector retail para 2025

El sector retail en México y América Latina ha...

Microsoft presenta innovaciones en IA durante Ignite 2024

En los últimos tres años, los ataques cibernéticos basados...

Newsletter

Recibe lo último en noticias e información exclusiva.

Chivas Rayadas del Guadalajara consigue gestionar sus activos de TI de manera más eficiente

El Club Deportivo Guadalajara es uno de los más importantes en México. Con más de 500 colaboradores, requería herramientas para auditar su parque informático,...

Realizan el segundo Foro de Talento en Data Centers

La Asociación Mexicana de Data Centers, MEXDC, realizó el Foro de Talento 2024 "Construyendo el Futuro Digital en México" por segundo año consecutivo, al...

Cinco tendencias del sector retail para 2025

El sector retail en México y América Latina ha acelerado su transformación, impulsado por la adopción de nuevas tecnologías y la necesidad de adaptarse...