Los malos datos cuestan a las empresas, en promedio, el 12% de los ingresos, según algunas estimaciones. Razón por la que NETSCOUT SYSTEMS, hace un llamado a las organizaciones sobre el uso de los datos inteligentes que prometen ayudar a tomar decisiones más sensatas y con mayor rapidez, y aquellas empresas que lo hagan mejor serán las que salgan adelante.
Víctor González, experto en Ciberseguridad de NETSCOUT, destacó que hoy las empresas requieren datos de calidad para el crecimiento y avance de sus negocios, dado que todas las fuentes de datos no son iguales y es importante encontrar las que proporcionan los datos más actuales y relevantes. “Es necesario que cada compañía realice un análisis detallado entorno a los datos, a fin de identificar riesgos y oportunidades que les generen valor”.
Durante la última década, la cantidad de datos generados se ha disparado, de acuerdo con estimaciones de la firma Veeam Software, su crecimiento y expansión es tan desenfrenado que para el año 2025 generaremos más de 175 Zettabytes de datos cada año, casi dos tercios más que en 2018. Su reporte Administración de Datos en la Nube 2019 indica que las empresas pueden llegar a perder hasta 20 millones de dólares cada año debido a una mala gestión de los datos.
El experto de NETSCOUT reconoció que el volumen de datos basura que mantiene un gran número de organizaciones requiere de una depuración urgente. “Se necesita un enfoque coherente para desarrollar la calidad de los datos en toda la organización, algo que se incluye en el manual de gobierno corporativo de datos”, enfatizó.
Por ejemplo, hoy en día algunas herramientas de monitoreo de red utilizan datos de máquina no estructurados (archivos de registro, SNMP, etc.) que se indexan y archivan para su análisis en algún momento. Sin embargo, existen múltiples limitaciones con ese enfoque: resulta en una tonelada de datos que necesitan ser clasificados, pero además, solo recopila datos que se pueden registrar, lo que le deja con posibles puntos ciegos. Además, el proceso produce datos antiguos.
Sin duda, existe una oportunidad significativa y una ventaja competitiva para quienes administran sus datos de manera efectiva. Se requiere de monitorización y análisis siempre activos para permitir la visibilidad integral en todos los datos, voz, y el tráfico de video que fluye a través de las redes convergentes. “Nuestra sugerencia es combinar inteligencia procesable en tiempo real con visibilidad integral de todo el tráfico que fluye a través de la red de IP para la garantía de servicio proactiva”, dijo Víctor González.
El experto indicó que los esfuerzos de análisis de datos tienden a ser centralizados, pero con los datos inteligentes, el valor comienza a acumularse poco después de que los datos se evalúan por primera vez, lo que significa que hay más oportunidades de actuar, y de actuar antes, en los datos más cercanos al punto de recopilación. “Las herramientas que automatizan la recopilación y transformación de datos son vitales, y la necesidad solo crecerá a medida que intente extraer valor de los volúmenes de datos cada vez mayores que provienen de un número cada vez mayor de fuentes”, precisó.
Los enfoques basados en hardware pueden resultar demasiado costosos y difíciles de extender a entornos basados en la nube, dijo Víctor González, quien agregó que para muchas organizaciones, eso no puede ser un punto de partida, pero como parte del valor de los datos inteligentes reside en que se recopilen en la fuente, es importante encontrar una alternativa. En este caso, recomendó herramientas de software que reduzcan los costos al mismo tiempo que se extiendan a través de entornos mixtos, como la nube y los entornos virtualizados.
Por último, el experto opinó: “aunque quizás sea un desafío, el éxito final de los esfuerzos de transformación digital dependerá de la calidad de los datos y de la rapidez con la que se pueda actuar”.