El poder de las tecnologías de análisis predictivo, el aprendizaje automático y la Inteligencia Artificial que impulsan gran parte de la innovación en nuestros días depende de cantidades masivas de datos que se distribuyen en entornos de datos muy fragmentados y altamente complejos en las instalaciones locales y en la nube.
En estos escenarios, la virtualización de datos se convierte en una tecnología clave. “Nosotros estamos encantados que esos entornos sean más complejos y más fragmentados, y lo serán más a futuro”, afirmó José Andrés García, Vicepresidente Regional para Iberia & Latinoamérica en Denodo Technologies.
En una reciente visita a nuestro país, el directivo de esta empresa de origen español expuso a CIO México sus expectativas acerca del análisis de los activos de datos distribuidos, el desarrollo de información crítica de manera oportuna y eficiente, así como los beneficios que puede aportar la virtualización para facilitar y mejorar estas tareas.
Recordó que desde las décadas de los 80 y 90, cuando se intentó consolidar los datos en un datawarehouse, la evolución pasó después al modelo data lake, “y aunque algunos auguraban que aquél sustituiría a éste, se ha demostrado que pueden convivir ambos, ya que el propósito de cada plataforma es distinto y tiene su razón de ser”, explicó García.
Luego del datawarehouse y del data lake, añadió, el tercer nivel de complejidad que vivimos ahora es la evolución hacia el mundo de la nube, sea ésta privada, pública o híbrida. De modo que tal complejidad hace que la obtención del verdadero conocimiento de sus datos sea un problema para muchas organizaciones. “Al final, sabemos que tener muchos datos no es la clave; lo importante es el valor que aportan, el conocimiento y la integración de éstos que están dispersos en distintos sitios”, aseveró García.
El reto que enfrentan hoy los CIO consiste en que, históricamente la integración de datos se ha producido de manera física: alguien que tenía necesidad adquirió un servidor con una base de datos dispuesto en un datacenter donde se copiaba los datos cada noche, mediante un proceso batch. Eso, de acuerdo con García, no tiene sentido en el mundo actual “porque no es eficiente, existen problemas de seguridad y de verificación de datos, y en tiempo real resulta complicado tratar los datos de esa manera”.
Sin embargo, en la mayoría de los equipos de TI que hay en las organizaciones subsiste esa forma de hacer el procedimiento y no la manera lógica.
“Nuestro reto consiste en difundir y enterarles que hay otra forma de hacer de hacer las cosas y no como se ha hecho durante los últimos 30 años”.
En busca de datos monetizables
La virtualización –o lo que se le ha denominado data fabric o data mesh– al final es una solución al problema de tener datos de diversos orígenes, dispares, dispuestos en múltiples formatos, repositorios y sitios. “Y el dato en sí mismo, si no somos capaces de integrarlo para encontrar su valor, no vale para nada”, sentenció por su parte Jaume Brunet, Sales Director de Iberia & LATAM de Denodo.
Dijo que se trata de monetizar y dar valor de ese dato para que dé el conocimiento de la organización. De esta manera, la integración de todos los diferentes proveedores y silos pequeños de datos que se tienen repartidos a lo largo de la compañía deben ser fácilmente integrados.
“Una de las experiencias que nos ha enseñado la pandemia es que la situación física de los empleados quizá no sea tan importante, y cuáles acciones son necesaria para que la situación física de los datos no nos condicione y que mediante data fabric o data mesh seamos capaces de acceder a los datos sin importarnos dónde y cómo están físicamente, poder integrarlos con total facilidad en tiempo real y sin necesidad de duplicarlos”, aseveró Brunet.
Dijo que estamos en el inicio de un cambio de paradigma en el consumo de información, donde la integración en tiempo real, así como la integración fácil y ágil con tecnologías como la de Denodo –“que lleva casi 20 años desarrollando”– está haciendo viable lo que a los ojos de algunos era sólo una quimera.
Simplificar y unificar procesos
“Denodo” proviene del gallego y significa denuedo, es decir, esfuerzo, perseverancia, arrojo, y el arribo de esta compañía en Latinoamérica parece tener mucho que ver con ese nombre: Denodo abrió operaciones en México en 2019, justo antes de declararse la pandemia de Covid-19 a nivel mundial, y a mediados de 2020 hizo lo propio en Brasil.
Las soluciones de esta compañía proponen simplificar los accesos y unificarlos, lo cual, según Brunet, aporta agilidad y ahorro en costos que permiten entre otras cosas elegir el repositorio de datos menos costoso y acorde al uso de los datos en cuestión.
La virtualización de datos también forma parte de las herramientas estratégicas para implementar y optimizar el gobierno de datos. “Y es ahí donde se hace verdad la frase que dice: ‘No es más limpio quien más limpia, sino el que menos ensucia’. Si yo no desordeno mis datos porque no voy a duplicarlos y mantengo una única copia de cada uno en un sitio, y la herramienta que empleo me permite trazabilidad, tendré la posibilidad de gobernar los datos y simplificar mi trabajo.
Brunet añadió que Denodo ofrece un punto único donde se puede aplicar la seguridad y la gobernanza a todos los datos disponibles. Además, “sabemos que el tiempo de implementación de una tecnología es directamente proporcional a la capacidad de éxito”.
En este sentido, José Andrés García explicó que al hacerlo de manera lógica y virtual, como propone su compañía, “estamos hablando de implementar una solución en horas, minutos y días con un impacto tremendo en los negocios por la satisfacción que aporta”. Asimismo, dijo que el área de TI adquiere la ventaja de tener una capa intermedia que aísla las plataformas que se tengan debajo, “lo cual proporciona mayor libertad de utilizar la nube de un fabricante y otro, y de forma transparente para quien está accionando los datos”.
Para finalizar, García insistió en el interés que tiene Denodo por trabajar con grandes organizaciones. “Y cuanta más complejidad tengan, así como mayores necesidades analíticas y cantidad de datos manejen, será mejor para nosotros, pues podremos aportarles más valor. De modo que ‘cuanto peor, mejor’”, concluyó.
José Luis Becerra Pozas, CIO México