El poder de las tecnologÃas de análisis predictivo, el aprendizaje automático y la Inteligencia Artificial que impulsan gran parte de la innovación en nuestros dÃas depende de cantidades masivas de datos que se distribuyen en entornos de datos muy fragmentados y altamente complejos en las instalaciones locales y en la nube.
En estos escenarios, la virtualización de datos se convierte en una tecnologÃa clave. “Nosotros estamos encantados que esos entornos sean más complejos y más fragmentados, y lo serán más a futuroâ€, afirmó José Andrés GarcÃa, Vicepresidente Regional para Iberia & Latinoamérica en Denodo Technologies.
En una reciente visita a nuestro paÃs, el directivo de esta empresa de origen español expuso a CIO México sus expectativas acerca del análisis de los activos de datos distribuidos, el desarrollo de información crÃtica de manera oportuna y eficiente, asà como los beneficios que puede aportar la virtualización para facilitar y mejorar estas tareas.
Recordó que desde las décadas de los 80 y 90, cuando se intentó consolidar los datos en un datawarehouse, la evolución pasó después al modelo data lake, “y aunque algunos auguraban que aquél sustituirÃa a éste, se ha demostrado que pueden convivir ambos, ya que el propósito de cada plataforma es distinto y tiene su razón de serâ€, explicó GarcÃa.
Luego del datawarehouse y del data lake, añadió, el tercer nivel de complejidad que vivimos ahora es la evolución hacia el mundo de la nube, sea ésta privada, pública o hÃbrida. De modo que tal complejidad hace que la obtención del verdadero conocimiento de sus datos sea un problema para muchas organizaciones. “Al final, sabemos que tener muchos datos no es la clave; lo importante es el valor que aportan, el conocimiento y la integración de éstos que están dispersos en distintos sitiosâ€, aseveró GarcÃa.
El reto que enfrentan hoy los CIO consiste en que, históricamente la integración de datos se ha producido de manera fÃsica: alguien que tenÃa necesidad adquirió un servidor con una base de datos dispuesto en un datacenter donde se copiaba los datos cada noche, mediante un proceso batch. Eso, de acuerdo con GarcÃa, no tiene sentido en el mundo actual “porque no es eficiente, existen problemas de seguridad y de verificación de datos, y en tiempo real resulta complicado tratar los datos de esa maneraâ€.
Sin embargo, en la mayorÃa de los equipos de TI que hay en las organizaciones subsiste esa forma de hacer el procedimiento y no la manera lógica.
“Nuestro reto consiste en difundir y enterarles que hay otra forma de hacer de hacer las cosas y no como se ha hecho durante los últimos 30 añosâ€.
En busca de datos monetizables
La virtualización –o lo que se le ha denominado data fabric o data mesh– al final es una solución al problema de tener datos de diversos orÃgenes, dispares, dispuestos en múltiples formatos, repositorios y sitios. “Y el dato en sà mismo, si no somos capaces de integrarlo para encontrar su valor, no vale para nadaâ€, sentenció por su parte Jaume Brunet, Sales Director de Iberia & LATAM de Denodo.
Dijo que se trata de monetizar y dar valor de ese dato para que dé el conocimiento de la organización. De esta manera, la integración de todos los diferentes proveedores y silos pequeños de datos que se tienen repartidos a lo largo de la compañÃa deben ser fácilmente integrados.

“Una de las experiencias que nos ha enseñado la pandemia es que la situación fÃsica de los empleados quizá no sea tan importante, y cuáles acciones son necesaria para que la situación fÃsica de los datos no nos condicione y que mediante data fabric o data mesh seamos capaces de acceder a los datos sin importarnos dónde y cómo están fÃsicamente, poder integrarlos con total facilidad en tiempo real y sin necesidad de duplicarlosâ€, aseveró Brunet.
Dijo que estamos en el inicio de un cambio de paradigma en el consumo de información, donde la integración en tiempo real, asà como la integración fácil y ágil con tecnologÃas como la de Denodo –“que lleva casi 20 años desarrollandoâ€â€“ está haciendo viable lo que a los ojos de algunos era sólo una quimera.
Simplificar y unificar procesos
“Denodo†proviene del gallego y significa denuedo, es decir, esfuerzo, perseverancia, arrojo, y el arribo de esta compañÃa en Latinoamérica parece tener mucho que ver con ese nombre: Denodo abrió operaciones en México en 2019, justo antes de declararse la pandemia de Covid-19 a nivel mundial, y a mediados de 2020 hizo lo propio en Brasil.
Las soluciones de esta compañÃa proponen simplificar los accesos y unificarlos, lo cual, según Brunet, aporta agilidad y ahorro en costos que permiten entre otras cosas elegir el repositorio de datos menos costoso y acorde al uso de los datos en cuestión.
La virtualización de datos también forma parte de las herramientas estratégicas para implementar y optimizar el gobierno de datos. “Y es ahà donde se hace verdad la frase que dice: ‘No es más limpio quien más limpia, sino el que menos ensucia’. Si yo no desordeno mis datos porque no voy a duplicarlos y mantengo una única copia de cada uno en un sitio, y la herramienta que empleo me permite trazabilidad, tendré la posibilidad de gobernar los datos y simplificar mi trabajo.
Brunet añadió que Denodo ofrece un punto único donde se puede aplicar la seguridad y la gobernanza a todos los datos disponibles. Además, “sabemos que el tiempo de implementación de una tecnologÃa es directamente proporcional a la capacidad de éxitoâ€.
En este sentido, José Andrés GarcÃa explicó que al hacerlo de manera lógica y virtual, como propone su compañÃa, “estamos hablando de implementar una solución en horas, minutos y dÃas con un impacto tremendo en los negocios por la satisfacción que aportaâ€. Asimismo, dijo que el área de TI adquiere la ventaja de tener una capa intermedia que aÃsla las plataformas que se tengan debajo, “lo cual proporciona mayor libertad de utilizar la nube de un fabricante y otro, y de forma transparente para quien está accionando los datosâ€.
Para finalizar, GarcÃa insistió en el interés que tiene Denodo por trabajar con grandes organizaciones. “Y cuanta más complejidad tengan, asà como mayores necesidades analÃticas y cantidad de datos manejen, será mejor para nosotros, pues podremos aportarles más valor. De modo que ‘cuanto peor, mejor’â€, concluyó.
José Luis Becerra Pozas, CIO México
