Los departamentos de TI están tratando en la actualidad de sacar ventajas de los beneficios que el big data puede proporcionar a las empresas, pero no pueden extraer el máximo provecho a este paradigma por la falta del personal adecuadamente preparado y capacitado.
Así lo cree la analista de IDC Susan Feldman, quien afirmó en una mesa redonda que la complejidad de las tecnologías para el big data requieren unas capacidades avanzadas que no están presentes en la mayoría de los profesionales TI.
“No hay mucha gente que esté realmente bien formada en estas nuevas tecnologías. ¿Cómo van a contratar las empresas personal si éste ni tan siquiera existe?”, se preguntó Feldman.
En ese sentido, la tecnología más usada a nivel mundial por las empresas a la hora de gestionar cientos de terabytes o petabytes de información es una herramienta de código libre llamada Hadoop.
Hadoop emplea un proceso denominado programación paralela que permite que los análisis se ejecuten en cientos de servidores, con miles de discos, al mismo tiempo. Asimismo, almacena la información en un formato que ha recibido el nombre de HDFS (Hadoop distributed file system), que también está optimizado para este tipo de uso.
“Hay algunos expertos en Hadoop, pero cuentan con herramientas muy pobres para trabajar con él. No solo necesitas expertos en como gestionar un sistema de archivos Hadoop, sino también que sepan usar este sistema por medio de malas herramientas”, mencionó la analista.
Por ello, Feldman animó a proveedores como Autonomy, EMC, Teradata o IBM a mejorar sus herramientas de forma que se pueda reducir la crisis de capacitación que asola al sector.