Cuando se habla de Big Data, es natural que se resalte la infraestructura tecnológica que se requiere para su implementación, los beneficios que puede aportar, así como los retos que significa para las organizaciones su adopción. Sin embargo, muy pocas veces se hace referencia a dos factores decisivos para tener éxito en proyectos de este tipo: el recurso humano y la estructura organizacional dentro de Big Data.
Durante la mesa redonda “Transforme su negocio con Big Data y Analytics”, organizada por CIO México con el patrocinio de Oracle, se abordaron éstos y otros temas bajo un enfoque estratégico para los negocios.
Emprender un proyecto de Big Data pudiese parecer una tarea verdaderamente titánica, pero esto cambia si se tiene muy bien definido el papel que jugará cada área de una organización: Minería de datos, Visualización de información, Calidad de datos, Infraestructura, Desarrollo, Integración, Seguridad y Organización de recursos humanos.
Luis Carlos Molina Felix, especialista en Big Data y Analytics, e invitado por Oracle para este evento, destacó que será esencial establecer un método de trabajo encabezado por un Gobernador de datos. Señaló que organismos como el Infonavit ya tienen entre sus filas a esta figura, que no necesariamente es del área de TI, sino suele ser economista o administrador de empresas.
Desde luego, este nuevo cargo causó sorpresa entre los participantes a la mesa redonda. “Yo ni siquiera sabía que existía”, comentó uno de ellos. Molina invitó a los asistentes a convertirse en Gobernadores de datos, cuya principal tarea es precisamente hacer “Gobernanza”.
“Gobernanza es poner de acuerdo a la gente y entre todos sacar temas democráticos. Bajo este contexto, el Gobernador de datos formaliza alianzas, llega a acuerdos, promueve políticas y temas de seguridad. Sin embargo, él no los establece, sino que se concreta a llamar a la gente para que se preocupen por esos datos”, explicó.
Como parte de este organigrama, Molina Félix destacó que es común que el Gobernador de datos cuente con un Científico de datos y un Gestor de datos. El primero de ellos es un experto que sabe SQL, optimiza programas, está viendo cómo fluye la información y analiza si hay problemas de consistencia de la misma. Mientras que el segundo es una persona que no es técnica y es el enlace entre el negocio y la parte de TI.
El especialista indicó que también debe haber Comités permanentes de Limpieza de datos –que no necesariamente deben formar parte del área de Tecnologías de la Información– y de Seguridad que serán los encargados de cuidar la información.
Más adelante, Carlos Molina hizo hincapié en la parte de Infraestructura y la recuperación de información”, por lo que en el organigrama de las empresa también debería considerar la figura de un Arquitecto de datos, “encargado de integrar los sistemas, cómo se deben hablar estos sistemas y bajo qué mecanismos”.
Asimismo, dijo, en el organigrama propuesto existe un área de Desarrollo y de Minería de datos –donde es común que participen los actuarios o matemáticos–, así como el área de Visualización de información, en la cual intervienen diseñadores, artistas y hasta pintores.
¿Cuál es la realidad en México?
Ante este escenario, cuál es la realidad que enfrentan las organizaciones. ¿En los proyectos de Big Data existe por lo menos alguna figura de las aquí mencionadas? ¿Cómo se está conformando el staff en un proyecto de Big Data?
Elizabeth Mejía, TI Business Intelligent / Analyst-Dev Leader de Sherwin Williams, dijo en el evento que su empresa no tiene por ahora un Gobernador de Datos como tal, pero a nivel América Latina sí existe alguien que ya empieza a tener funciones de Inteligencia de negocio.
Explicó que esta persona de Sistemas está dejando de realizar funciones de soporte para dedicarse a la parte de Inteligencia de Negocios y labora en conjunto con la división de Planeación Financiera. “En este caso mi perfil va hacia allá. Yo no he tomado ningún diplomado en Inteligencia de negocios, pero el corporativo sí está dando esta capacitación”.
Por su parte, Luis Mauricio Regand, gerente de Inteligencia Operativa de Nacional Monte de Piedad, opinó que si bien esta nueva tendencia cobra mayor fuerza en nuestro país, en las universidades apenas está egresando personal con capacidades analíticas. “Las instituciones (educativas) tienen poco de impartir maestrías enfocadas en estos temas; probablemente empezaron con diplomados orientados a minería de datos. Incluso algunos proveedores de tecnología han apostado por apoyar este tipo de maestrías haciendo alianzas con universidades”.
Ante la carencia de estas nuevas figuras dentro del organigrama empresarial, Molina Félix dijo que buscó por todo el país temas de liderazgo analítico, “me di cuenta que lo que buscamos no es solamente la capacidad o el nivel de estudio de una persona, sino las ‘competencias’ para desarrollar determinada actividad”.
Por ello, el especialista en Big Data invitó a los asistentes a convertirse en los motores de sus organizaciones. “Ustedes deben entender cómo operan todas las áreas de su empresa y no sólo enfocarse en cosas puntuales. Si son los iniciadores de los proyectos de Big Data, créanme, tarde o temprano les servirá de plataforma y les ayudará para que vayan escalando dentro de sus compañías”, insistió.
Antes de empezar
Durante el desarrollo de esta mesa redonda se destacó que antes de arrancar un proyecto de Big Data es necesario cuestionarse ¿a quién pertenece la información de la organización? Si hay un quebranto a la Ley de Protección de Datos Personales, ¿quién es el responsable? ¿Quién debe ser el dueño de un proyecto de Big Data? y ¿cuándo se puede comenzar un proyecto de este tipo?
Con respecto a la primera pregunta, los participantes coincidieron en que los “dueños de la información” son los mismos usuarios del negocio.
Para ejemplificar su postura, Víctor Álvarez, subdirector de Informática de la Universidad Pedagógica Nacional, hizo una analogía con las instituciones bancarias. “El banco no es el dueño del dinero, el dueño es el cuentahabiente; el banco es quien lo administra. Pasa lo mismo con los datos: el usuario es el responsable y dueño del dato. Yo como TI soy el que organiza, administra, proporciona, distribuye con la calidad y seguridad que el usuario lo amerita”.
Por su parte, Rosa Irene Magaña, subdirectora de Security Administration de BBVA Bancomer, indicó que la información le pertenece tanto al área de TI como al usuario. “TI debe mantener la disponibilidad de la información en todo momento y que cuente con los avances tecnológicos al día para así poder proporcionar la información al usuario”.
En cuanto al supuesto quebranto a la Ley de Protección de Datos Personales en que pudiera incurrir una organización, Virginia Poery, Project Manager & BSA Informática de Xerox Mexicana, fue contundente al mencionar que, legalmente, la organización es la responsable de tal irregularidad, y las medidas que ésta tome hacia el interior es otra situación.
Otro de los cuestionamientos es ¿quién debe ser el dueño de un proyecto de Big Data? “Desde mi punto de vista, el dueño es el negocio”, expresó Elizabeth Mejía, de Sherwin Williams. “Pero si desde arriba no viene la orden o el hecho de saber qué es lo que quiere la empresa o a dónde quiere llegar, no habrá ningún avance; el área de TI sólo es un colaborador”.
Para Mauricio Regand, de Nacional Monte de Piedad, un usuario de negocio es quien debe impulsar este tipo de proyectos, pero obviamente el que debe apoyar todas estas iniciativas debe ser un comité de dirección.
En este punto coincidió Axel Pardemann, jefe de Desarrollo de Aplicaciones de Oficina Corporativa del Grupo Bal, al considerar que “un proyecto de Big Data debe ser un objetivo estratégico, aunque no necesariamente la organización debe darse cuenta de esto. El área de TI puede decir que ‘hay algo llamado Big Data que les puede ayudar’, pues somos un socio de negocio”.
El mejor momento para iniciar
A la pregunta ¿cuándo es conveniente comenzar un proyecto Big Data?, los participantes a esta mesa redonda externaron opiniones diversas.
Rosa Irene Magaña, de BBVA Bancomer, expresó que uno de los momentos propicios “es cuando se identifican áreas de oportunidad que están siendo un problema para el negocio, por ejemplo la parte de mitigación de riesgos”.
Axel Pardemann, de Grupo Bal, opinó que no necesariamente las organizaciones “deben tener petabytes de información para decidirse arrancar”. Por su parte, Mauricio Regand, de Nacional Monte de Piedad, señaló que el momento adecuado es “cuando ya no puedas responder a ciertas preguntas, cuando crees cosas, pero no tienes los elementos para demostrarlo por la gran cantidad de datos que ya manejas o por la diversificación de productos que ya tienes; es cuando Big Data te ayuda a entender y dar una solución”.
Primeros intentos
En los últimos años se ha hablado sobre el impacto que tendrá Big Data en los negocios así como de los beneficios que representa para los mismos. Sin embargo, durante la charla de esta mesa redonda fue evidente que en su mayoría no existen proyectos sólidos en esta materia. Más bien de manera lenta las empresas apenas realizan análisis muy puntuales.
No obstante, instituciones bancarias como BBVA Bancomer no se podían quedar atrás. Rosa Irene Magaña mencionó que este banco ya está utilizando Big Data, “específicamente en el área de Seguridad Informática –que es la encargada en verificar riesgos, disponibilidad, confiabilidad e integración de datos– existe un proyecto a nivel global sobre protección de datos cuyo objetivo es mitigar fraudes”.
Explicó que investigan qué hace cada empleado, cómo lo está haciendo, qué información tiene, qué herramientas utiliza y si realmente es lo que necesita para trabajar. Dicho proyecto empezó en enero y en la actualidad se encuentra en el proceso de análisis y monitoreo.
Asimismo, Víctor Álvarez, de la Universidad Pedagógica Nacional, señaló que esta institución participa de forma indirecta en el proyecto sobre Interoperabilidad que el Gobierno Federal lanzó hace años. “En aquel momento se nos avisó que era muy complicado obtener una estadística nacional sobre el índice de reprobación en matemáticas en alumnos del primer semestre de la universidad, ya que todo se llevaba en papel”.
Aunque todavía no se consolida este proyecto, Álvarez dijo que les están pidiendo a nivel universidad tener datos abiertos a fin de proporcionar este tipo de información y sea compartida con la Secretaría de Educación Pública. No obstante, reconoció que todavía hay mucho por avanzar.
Por su parte, Luis Mauricio Regand, de Nacional Monte de Piedad, manifestó que él forma parte del área de Inteligencia Operativa, cuyo objetivo principal es tratar de responder los porqué de ciertas situaciones que están pasando o tratar de pronosticar ciertos comportamientos de los clientes o del mercado para lo cual utilizan minería de datos. “Estamos empezando con un proyecto para predecir el comportamiento de nuestros clientes nuevos”.
Sin dudarlo, los participantes coincidieron en expresar que Big Data es para todos. Luis Mauricio Regand, de Nacional Monte de Piedad, dijo que la cuestión es “tener información relevante, identificar qué es lo importante para realizar todos estos análisis y, por supuesto, contar con todas las bases de datos”.
Virginia Poery, de Xerox Mexicana, estuvo de acuerdo con esta opinión y enfatizó que es indispensable tener la información porque en el caso particular de esta compañía se tiene mucha información, aunque muy dispersa, en diferentes sistemas, tanto de manera interna como externa. “Requiere todavía un tiempo para poder consolidarla”.
Finalmente, Axel Pardemann, de Grupo Bal, resaltó la necesidad de ser críticos con la información que realmente tiene un valor estratégico. “No tenemos que aplicar Big Data a todos los datos sino a los que realmente nos interesan. Podemos iniciar con la limpieza de datos que es esencial, y a partir de allí empezar a construir hacia arriba”, aseveró.
-Mireya Cortés