Una de las grandes esperanzas para las empresas en este nuevo año es que mejoren sus compromisos con el Big Data y comiencen a poner datos útiles y procesables en manos de los negocios en el momento en que los necesitan.
Como el costo del almacenamiento continúa cayendo y la disponibilidad de soluciones de análisis SaaS (software as a service) se están multiplicando, la oportunidad de implementar estas técnicas y de formar a los empleados nunca ha sido más fácil y barata. Estas son algunas de las tendencias que el 2017 nos va a dejar en materia de Big Data, analytics y Business Intelligence (BI).
Abrazando machine learning
La consultora Ovum cree firmemente que el machine learning será el elemento disruptor “más grande” para en el análisis de datos en este nuevo año. El experto en esta materia, Tony Baer, asegura que “el aprendizaje automático seguirá creciendo, pero en la mayoría de los casos se integrará en aplicaciones y servicios en lugar de desarrollarse a medida de los usuarios, ya que pocas organizaciones fuera del Global 2000 cuentan con científicos de datos entre su personal”.
Los vendedores han comenzado a comercializar paquetes que hacen que sea más fácil que nunca que las empresas apliquen estas tecnologías en sus conjuntos de datos, por lo que es de esperar que se continúe aprovechando la analítica predictiva, los motores de recomendación la personalización del cliente y la detección de fraudes y amenazas.
Más allá de Hadoop
La solución de almacenamiento de datos de código abierto Apache Hadoop ha centrado la conversación de la industria de BI en los últimos años. Ahora, las alternativas más viables están empezando a llegar a través de Apache Spark.
El motor de procesamiento de datos in-memory ya había sido promocionado hace años, pero, tal y como señala Baer, la capacidad de implementar Spark en la nube está impulsando la adopción. “La disponibilidad de Spark basado en cloud junto con el aprendizaje automático y los servicios de IoT ofrecerán alternativas para las compañías”.
Aunque similares, Hadoop y Spark son productos diferentes. “El debate se agrava cuando se elimina la sobrecarga de un propósito general de procesamiento de datos y el motor de almacenamiento. En este caso Spark debería ser más eficiente. Sin embargo, el inconveniente reside en que los clústeres independientes de Spark carecen de la seguridad o las características de administración de datos de Hadoop”.
Expertos en visualización de datos creen que los que han adoptado Hadoop recientemente pueden aprovechar las herramientas de preparación de datos de autoservicio para 2017.
Data Lakes utilizables
En los últimos años ha vencido la tendencia a tener una única fuente de datos en la empresa en lugar de varias, lo que facilita compartir información sobre la organización. Se espera que las empresas que implementan Data Lakes vuelvan a estar gobernadas de manera adecuada.
Ramon Chen, gerente de gestión de datos de Reltio ha indicado que muchas empresas que tomaron el Data Lake desde sus inicios gastaron una cantidad significativa de dinero, no solo con la compra bajo la promesa de bajo costo de proceso y almacenamiento, sino de una gran cantidad de servicios. Con el fin de agrupar y poner a disposición agrupaciones significativas de grandes datos para ser correlacionados y descubiertos para una mejor comprensión”.
La empresa necesita aún científicos de datos
La demanda de perfiles específicos de científicos de datos podría ir satisfaciéndose poco a poco a medida que entran más graduados al mercado de trabajo. Según el informe 2016 Mind The Gap de Hired, las ofertas de salarios de científicos de datos aumentaron en un 29% en los últimos 18 meses. El informe también mostró un aumento del 234% en las solicitudes de entrevistas para ingenieros de datos en el mismo período.
Más Business Intelligence de autoservicio
Aaron Auld, CEO y especialista en analítica de EXASOL, cree que la BI de autoservicio, donde los usuarios de negocios tienen acceso directo a la analítica, seguirá siendo una tendencia en la empresa en 2017.
Las herramientas de autoservicio están ganando terreno tanto en la empresa como en las startups de reciente creación. A medida que el análisis de datos se integra más en el núcleo del negocio, habrá un cambio hacia la implementación de análisis de datos con bases de datos, herramientas de visualización como Tableau y herramientas de preparación de datos como Alteryx.
Análisis en streaming
La analítica en tiempo real es la práctica de monitorear los datos a medida que se transmiten a la organización, en lugar del análisis tradicional. Esto es particularmente clave cuando se analiza la salud de la infraestructura, por lo que el análisis en streaming debe ser una fuerza tractora en 2017.
Redacción