Contenido Exclusivo

VIDEO: Escalabilidad, seguridad y latencia: los 3 desafíos de la IA en redes de datos

Emilio Madero, Vicepresidente Ejecutivo de Marketing en Cirion Technologies,...

¿Cómo comunicar los riesgos de ciberseguridad al Consejo de Administración?

Los Consejos de Administración de las organizaciones deben comprender...

VIDEO: ¿Qué funciones desempeña un Chief Business Officer (CBO)?

¿Por qué es importante crear el puesto de CBO...

Big Data: cinco predicciones para el 2015

En pocos años, las tecnologías de Big Data han pasado de ser una novedad a ser uno de los principales disruptores de la nueva era digital. Durante el 2014 hemos visto cómo las iniciativas de Big Data dentro de las empresas se han ido incrementando, pasando de las pruebas a producción. En el 2015, Big Data tendrá un mayor impulso en la empresa, con más casos de uso -específicamente, casos de uso en tiempo real- señaló John Schroeder, CEO y cofundador de MapR, empresa especialista en la distribución de Hadoop.

“Este es el año en que las organizaciones llevarán sus desarrollos de Big Data más allá de las implementaciones iniciales de batch, e irán hacia su utilización en tiempo real”, sostuvo Schroeder. “Esto va a estar impulsado por los grandes pasos que han dado los líderes de la industria ya existentes, y otras empresas que muy pronto lo serán, quienes han incorporado nuevas plataformas de Big Data en sus análisis de datos in-flight para impactar al negocio mientras ocurren los hechos”.

Schroeder afirmó que cinco acontecimientos importantes dominarán en el 2015.
1.- La agilidad de los datos emerge como un tema central.

La agilidad de los datos ha sido uno de los grandes impulsores del desarrollo de las tecnologías de Big Data, ya que los procesos en torno a las bases de datos legacy y a los data warehouses han demostrado ser demasiado lentos e inflexibles para responder a muchas necesidades del negocio. En el 2015, Schroeder afirmó que la agilidad de los datos será aún más importante, a medida que las organizaciones cambien su enfoque de simplemente capturar y gestionar datos a utilizarlos activamente.

“Las bases de datos legacy y los data warehouses son tan costosos que se requieren administradores de bases de datos (DBA, por sus siglas en inglés) para resumir y estructurar los datos”, indicó. “Los costos directos de los DBA demoran el acceso a nuevas fuentes de datos, y la estructura rígida es muy difícil de alterar en el tiempo. El resultado final es que, hoy en día, las bases de datos legacy no son lo suficientemente ágiles como para satisfacer las necesidades de la mayoría de las organizaciones”.

“Los proyectos iniciales de Big Data se centraron en el almacenamiento de fuentes de datos específicas”, añadió. “En lugar de centrarse en la cantidad de datos que se manejan, las organizaciones moverán su enfoque hacia la medición de la agilidad de datos. ¿Cómo impacta a las operaciones la capacidad de procesar y analizar los datos? ¿Con qué rapidez pueden ajustarse los datos y responder a los cambios según las preferencias del cliente, las condiciones del mercado, las acciones de la competencia y el estado de las operaciones? Estas preguntas serán factores importantes en la inversión y el alcance de los proyectos de big data en el 2015”.

2.- Las organizaciones pasarán de los “lagos de datos” a las plataformas de procesamiento de datos.

En algunos aspectos, el 2014 fue el año de los “lagos de datos” (o hubs de datos), un repositorio de almacenamiento basado en objetos que almacena los datos en bruto, en su formato nativo -ya sea de forma estructurada, no estructurada o semi-estructurada- hasta que estén listos para su uso. Los lagos de datos tienen una fuerte propuesta de valor, ya que representan una infraestructura escalable que es económicamente atractiva (con un menor costo por terabyte) y extremadamente ágil.

Schroeder afirmó que los lagos de datos seguirán evolucionando en el 2015; tendrán la capacidad de llevar múltiples motores de cómputo y ejecución hacia el lago de datos para procesar los datos “en el lugar”. Eso no solo es más eficiente, sino que crea un único punto de gobierno corporativo y un único punto de seguridad.

“En el 2015, los lagos de datos evolucionarán conforme las organizaciones pasen del procesamiento batch al procesamiento en tiempo real, e integren Hadoop y motores de bases de datos basados en archivos en sus plataformas de procesamiento de gran escala”, mencionó Schroeder. “En otras palabras, no se trata de tener un almacenamiento a gran escala en un lago de datos para soportar búsquedas e informes más grandes, sino que la gran tendencia en el 2015 se centrará en torno al acceso continuo y al procesamiento de eventos y datos en tiempo real, para tener un constante conocimiento de las cosas y actuar de inmediato”.

3.- El autoservicio de Big Data será mainstream.

Los avances en las herramientas y los servicios de Big Data significan que el 2015 será el año en el que las TI dejarán de ser el “cuello de botella” que tienen que enfrentar los usuarios de negocios y los científicos de datos para acceder a los datos, afirmó Schroeder.

“En el 2015, las TI adoptarán el autoservicio en Big Data para que los usuarios de negocio puedan disponer de él”, señaló el especialista. “El autoservicio permite a los desarrolladores, científicos de datos y a los analistas de datos, realizar la exploración de datos directamente”.

Anteriormente, “se hubiese requerido que TI establezca estructuras de datos centralizadas”, añadió. “Se trata de un largo y costoso paso. Hadoop ha hecho a que las empresas se sientan cómodas con el structure-on-read, en algunos casos de uso. Las organizaciones más avanzadas se trasladarán hacia enlaces de datos en ejecución y lejos de las estructuras centrales para cumplir con los requisitos correspondientes. Este autoservicio acelera la capacidad de las organizaciones para aprovechar nuevas fuentes de datos y responder a las oportunidades y amenazas”.

4.- Consolidación del proveedor de Hadoop: Los nuevos modelos de negocio evolucionarán.

A principios del 2013, Intel llamó la atención con la introducción de su propia distribución de Hadoop, diciendo que eso lo haría diferenciarse gracias a la adopción de un enfoque desde cero, en el cual Hadoop estaría plasmado directamente en su silicio. Pero, solo un año más tarde, en lugar de eso, Intel abandonó su distribución y se lanzó detrás del proveedor de soluciones Hadoop, Cloudera.

En ese momento, Intel señaló que los clientes estaban sentados en el banquillo esperando a ver cómo se movería el mercado de Hadoop. El número de opciones para Hadoop enturbiaba las aguas. Schroeder cree que la consolidación de proveedores Hadoop continuará en el 2015, a medida que los perdedores descontinúen sus distribuciones y se centren en otras áreas.

“Hoy llevamos 20 años en la adopción de software de código abierto (OSS), lo cual ha proporcionado un enorme valor al mercado”, sostuvo Schroeder. “Las tecnologías maduran en fases. El ciclo de vida de la tecnología comienza con la innovación y la creación de productos altamente diferenciados, y termina cuando, finalmente, los productos son de consumo masivo. Edgar F. Codd creó el concepto de base de datos relacional en 1969, con la innovación que condujo a Oracle IPO en 1986 y a la comoditización que comenzó con la primera versión de MySQL, en 1995. Así que, históricamente, la madurez tecnología de la plataforma de base de datos tomó 26 años de innovación antes de ver cualquier comoditización”.

“Hadoop está en una etapa temprana del ciclo de madurez de una tecnología, con solo diez años transcurridos desde que los innovadores white papers de MapReduce fueron publicados por Google”, agregó. “La adopción de Hadoop a nivel global y a escala está lejos, mucho más allá de cualquier otra plataforma de datos, a solo 10 años después de lanzado el concepto inicial. Hadoop está en la fase de innovación, por lo que los proveedores que erróneamente adoptaron estrategias ‘Red Hat para Hadoop’ están saliendo del mercado, el caso más notable es el de Intel y recientemente el de EMC Pivotal”.

Schroeder cree que el 2015 será el año de la evolución de un nuevo y más matizado modelo de OSS que combine la innovación con el desarrollo comunitario.

“La comunidad de código abierto es de suma importancia para el establecimiento de normas y consenso”, afirmó. “La competencia es el acelerador de la transformación de Hadoop, que comenzó como un procesador de análisis en batch y que está pasando a ser una plataforma de datos con todas las funciones”.

5.- Los arquitectos empresariales separarán el gran hype de Big Data.

En el 2015 los arquitectos de tecnología de las empresas serán los protagonistas, a medida que su comprensión acerca de todos los conceptos de la tecnología Hadoop mejoran y los dirigen hacia el establecimiento de requisitos mejor definidos y sofisticados para las aplicaciones de big data, incluyendo elementos como la alta disponibilidad y la continuidad del negocio.

“A medida que las organizaciones se mueven rápidamente más allá de la experimentación hacia la adopción real en los centros de datos, los arquitectos empresariales se enfocarán directamente en la ruta de la adopción de big data”, indicó Schroeder.

“Los líderes de TI serán de vital importancia en la determinación de las arquitecturas subyacentes necesarias para cumplir los SLA, ofrecer alta disponibilidad, continuidad del negocio y satisfacer las necesidades de misión crítica. En el 2014 el ecosistema floreciente alrededor de Hadoop fue celebrado con la proliferación de aplicaciones, herramientas y componentes. En el 2015 el mercado se concentrará en las diferencias entre plataformas y en la arquitectura necesaria para integrar Hadoop en el centro de datos y entregar resultados de negocio.

– Thor Olavsrud, CIO EE.UU.

Lo Más Reciente

¿Qué es la componibilidad empresarial y por qué es el futuro de la banca?

Tanto en los negocios como a nivel personal, la...

VIDEO: Escalabilidad, seguridad y latencia: los 3 desafíos de la IA en redes de datos

Emilio Madero, Vicepresidente Ejecutivo de Marketing en Cirion Technologies,...

CDMX ya es el mercado de talento tecnológico más grande de América Latina

La Ciudad de México superó a Sao Paulo este año...

Preponderante estrangula inversiones telco en México

El agente económico preponderante en telecomunicaciones (AEP-T) en México,...

Newsletter

Recibe lo último en noticias e información exclusiva.

Mireya Cortés
Mireya Cortés
Editora CIO Ediworld Online. La puedes contactar en mcortes@ediworld.com.mx

¿Qué es la componibilidad empresarial y por qué es el futuro de la banca?

Tanto en los negocios como a nivel personal, la única constante es el cambio. En ambos casos, nuestra capacidad de adaptación determina el éxito....

VIDEO: Escalabilidad, seguridad y latencia: los 3 desafíos de la IA en redes de datos

Emilio Madero, Vicepresidente Ejecutivo de Marketing en Cirion Technologies, expuso de qué manera su compañía está apoyando a las organizaciones con la infraestructura digital...

CDMX ya es el mercado de talento tecnológico más grande de América Latina

La Ciudad de México superó a Sao Paulo este año como el mercado de talento tecnológico más grande de América Latina, según el informe anual...