Todos estamos observando muy de cerca las tendencias. Pero analizar a fondo las tecnologías que le dieron vida a las frases de moda más recientes es la única forma de determinar qué tendencias labrarán su propio camino en el cómputo empresarial.
En CIO, estamos entusiasmados por los grandes cambios que ha tomado la dirección de las TI empresariales, desde la consumerización hasta la convergencia. Pero ¿qué tecnologías han surgido para permitir que estas estrategias tomen forma, y lo más importante, cuáles cimentarán estos cambios en su departamento de TI en los años por venir?
Entre las tecnologías que están surgiendo pero que aún no se han adoptado ampliamente, creemos que las diez que presentamos a continuación tendrán el mayor impacto en el largo plazo. Conózcalas.
10. HTML5
Los negativistas afirman que hemos estado uniendo etiquetas para formar páginas de internet desde el inicio de la World Wide Web. HTML5 sólo ha agregado nuevas. Pero aunque HTML5 se parece al antiguo HTML, las tareas que realiza son considerablemente distintas. El almacenamiento de datos local y el video permiten hacer mucho más que poner palabras e imágenes en un rectángulo. Además, la nueva especificación HTML5 WebSockets define una nueva forma de realizar una comunicación completa para aplicaciones Web impulsadas por eventos. Y con la decisión de Adobe de poner fin al desarrollo de Flash móvil, un sector completo de la industria del desarrollo Web va a actualizarse cuando nos movamos hacia HTML5 desde Flash. Y eso representa un cambio radical para los desarrolladores Web.
9. Hipervisores en el cliente
La virtualización de escritorios no ha despegado por dos razones: requiere de una conexión continua entre el cliente y el servidor, y un servidor robusto para correr todas esas las máquinas virtuales (VM) de escritorio. Los hipervisores de clientes resuelven ambos problemas. Instale uno en una máquina ordinaria y aproveche el poder de procesamiento del cliente. Los usuarios de laptops pueden llevar con ellos una “VM de negocio” que contengan el sistema operativo, las aplicaciones y las configuraciones personales. Esa VM es segura y está separada de cualquier otra cosa que pudiera estar corriendo en esa máquina – incluyendo código malicioso descargado accidentalmente – y usted tiene todas las ventajas de la administración de la virtualización, incluyendo snapshots de las VM, la portabilidad y una recuperación sencilla. Los hipervisores de clientes apuntan a un futuro en el que llevaremos nuestras computadoras al trabajo y descargaremos y sincronizaremos nuestras VM para comenzar el día.
8. Herramientas de construcción continua
A los desarrolladores que nos rodean les gusta la forma en que las herramientas de construcción continua como Jenkins, Hudson y otros servidores de “integración continua” nos ayudan a trabajar juntos para lograr una mejoría general. Estas herramientas pasan todo el código a través de un flujo continuo de pruebas, alertando a los desarrolladores de los problemas con el código que revisaron hace 10 segundos, lo que mantiene a todos avanzando hacia la misma meta. Herramientas como Hudson o Jenkins no son nuevas porque ha habido varias herramientas de integración continua propietarias durante mucho tiempo, pero el surgimiento de soluciones de código abierto estimula el tipo de experimentación e innovación que viene cuando se da a los programadores la oportunidad de hacer mejor sus herramientas.
7. Confianza en el procesador
Garantizar la seguridad al nivel más alto de las aplicaciones requiere verificar cada capa, incluyendo la construcción física del dispositivo de cómputo. Aquí entra la confianza en un procesador. El TPM (Trusted Platform Module) del TCG (Trusted Computing Group) fue el primer procesador de hardware popularmente adoptado para asegurar un hardware y secuencias de arranque confiables. El año pasado, Intel combinó el procesador TPM y una capa de hipervisor de hardware para proteger las secuencias de arranque, la memoria y otros componentes. Cualquier proveedor de software puede aprovecharlo. Las soluciones de confianza del hardware no son perfectamente seguras, pues la memoria Princeton se congela y se presentan ataques microscópicos de electrones, pero superan a las soluciones de protección únicamente de software. Los esquemas de protección de hardware mejorarán. Pronto, cada dispositivo de cómputo que usted utilice tendrá una solución de protección de hardware/software corriendo.
6. Sustitutos de JavaScript
Tal vez JavaScript sea el código que más se ejecuta en el planeta, pero pese a todo su éxito, todos están pasando a lo que sigue. Algunos quieren crear lenguajes completamente nuevos que solucionen todos los problemas de JavaScript; otros sólo quieren traducir su código a JavaScript para que puedan fingir que no lo usan. El código traducido es el último grito. Web Toolkit de Google compila Java en JavaScript para que el desarrollador sólo escriba el código Java escrito adecuadamente. Algunas traducciones son cosméticas: los programadores que escriben en CoffeeScript no necesitan preocuparse mucho por la puntuación de JavaScript porque el compilador la inserta antes de que corra. Otras traducciones, como Dart de Google, son más ambiciosas, y apuntan a un futuro con aún más opciones.
5. Almacenamiento distribuido
Mucho más veloz que el disco y mucho más barata que DRAM, la memoria flash NAND es un recurso que será incluso más popular cuando el software de administración del almacenamiento se ponga al nivel de su potencial en el centro de datos. La combinación que hace de alta velocidad y bajo costo la hace excelente para el caché en el lado del servidor y una opción natural para el almacenamiento de capa uno. Con la reducción del costo de flash y las capacidades de los SDDs al alza, los días de las unidades de disco en los servidores y las SANs parecen estar contados. La mejor parte: el almacenamiento flash permitirá que el almacenamiento en el servidor sea administrado como una extensión de SAN, almacenando los datos a los que se accede con más frecuencia y que hacen uso intensivo de I/O más cerca de las aplicaciones
4. Apache Hadoop
Hadoop abre un nuevo camino al permitir a las empresas implementar clusters de servidores para analizar muchos terabytes de datos no estructurados – simplemente para descubrir patrones interesantes que explorar, en lugar de comenzar con objetivos de inteligencia de negocio formales. Herramientas como Apache Hive y Apache Pig han hecho para los desarrolladores que explotar Hadoop sea más fácil, y la evolución del ecosistema de Hadoop apunta a un conocimiento más profundo en los próximos años. Conforme proliferan las soluciones de Hadoop, las empresas podrán predecir mejor el comportamiento de los clientes Web, optimizar los flujos de trabajo y descubrir patrones en todo – desde los expedientes médicos hasta los términos de búsqueda más comunes. Lo mejor de la nueva ola de analítica Hadoop es que apenas estamos comenzando a descubrir hacia donde puede ir.
3. Sincronización avanzada
Apple y Microsoft coinciden en una cosa: es momento de decir adiós a los entornos de un solo usuario, donde cada dispositivo es una isla separada del resto del mundo de cómputo de los usuarios. Apple abrió brecha con iOS e iCloud, introduciendo servicio de sincronización entre dispositivos en la nube. Windows 8 de Microsoft lleva este concepto un paso más allá, manteniendo en sincronía no sólo los datos sino también el estado de las aplicaciones. Este cambio cambiará considerablemente cómo trabaja la gente en las computadoras, dando a las aplicaciones una nueva utilidad. La sincronía automática de datos junto con el contexto, como la ubicación, los métodos de entrada disponibles, la conectividad y los datos impulsados por sensores, elevarán el cómputo realmente centrado en el usuario, alterando profundamente cómo TI se aproxima a las aplicaciones, los modelos de seguridad y otras políticas y estratégicas centradas en la productividad de los usuarios.
2. Redes definidas por el software
Las redes de los centros de datos se han fortalecido con el tiempo. Mientras los servidores y el almacenamiento se han beneficiado de las abstracciones del software, las redes han permanecido atadas al hardware y se han mantenido estáticas, lo que las hace un importante obstáculo para el cómputo en la nube. Por ejemplo, SDN (redes definidas por el software), que coloca una capa de software sobre el hardware del switch y el ruteador para servir como un nivel de control administrado centralmente y una plataforma para la innovación. SDN no es virtualización de redes, es una forma de “programar la red” – esto es, permite que los proveedores de servicios cloud e ISVs construyan nuevas capacidades de red que el resto de nosotros podemos aprovechar. El ejemplo de SDN hoy es OpenFlow, la creación de investigadores universitarios que querían experimentar con nuevos protocolos de red sobre grandes redes de producción.
1. Orquestación de nubes privadas
Con una nube privada, los gerentes de TI pueden tomar prestadas tecnologías promovidas por proveedores de nubes públicas y aplicarlas a su propio centro de datos. Estas nubes tienen muchas partes móviles – administración de la virtualización, aprovisionamiento de autoservicio – de ahí la necesidad de la orquestación. El proyecto de código abierto OpenStack ha ganado una popularidad considerable al ofrecer una serie de servicios de orquestación de nube. Eucalyptus es otra alternativa, ofreciendo esencialmente una implementación de nube privada de Amazon Web Services. Es fácil ser cínico respecto a cualquier tecnología conectada al término “nube”, pero nadie cuestiona los beneficios de reunir recursos de mayores economías de escala. Los cambios de paradigma demandan nuevas formas de trabajar – y el software de orquestación de nube provee el medio.