Analizando la última década de la Tecnología de la Información, parece que, en muchos sentidos, la década del 2010 fue un período de consolidación y entrega de todas las nuevas tecnologías llamativas y emocionantes prometidas a principios de la década del 2000.
La tecnología que era exagerada o ridículamente costosa, y en muchos casos, ambas, se volvió más accesible.
Las velocidades de procesamiento más rápidas, los incrementos desproporcionados en las velocidades de red y las minicomputadoras más alcanzables produjeron cambios globales en el mundo de TI. Y, por supuesto, todos estos cambios alteraron drásticamente la vida diaria de los administradores del sistema. ¡Así que echemos un vistazo a algunos de ellos!
1.- Las velocidades de ancho de banda abren las puertas a todo lo demás
El factor que tuvo uno de los mayores impactos, si no es que el mayor de todos, fue aumentar las velocidades de ancho de banda. Casi todo lo demás en esta lista se incrementó, se hizo accesible o incluso fue posible al aumentar las velocidades de comunicación ded datos. ¡Y el aumento fue profundo!
La velocidad promedio de descarga de banda ancha fija en Estados Unidos a principios de 2010 era de sólo 7 Mbps. Ahora, a comienzos de la década, ronda los 124 Mbps.
Este aumento en la velocidad ha hecho posible tantas tecnologías en la última década. La computación en la Nube no tendría sentido si los datos no pudieran transmitirse hacia y desde servidores remotos lo suficientemente rápido. Internet de las Cosas (IoT) no podría haber cruzado a los hogares de consumidores si las conexiones a Internet fueran lentas. Si accede a servicios Web en línea, necesita que los tiempos de reacción sean tan rápidos como si estuviera ejecutando la aplicación localmente. Es seguro decir que un ancho de banda más rápido y accesible ha provocado cambios masivos en la vida cotidiana del administrador del sistema a través de la tecnología que ha habilitado.
2.- En la Nube
Si bien la adopción de la computación en la Nube realmente comenzó a mediados de la década del 2000 cuando Amazon lanzó Amazon Web Services, sólo fue en la próxima década que maduró. En 2010 había muchas expectativas en torno a la Nube, y todavía no estaba claro cómo aprovechar mejor lo que ofrecía. A medida que avanzaban los años, la imagen lentamente se hizo más clara y vimos que más y más empresas movían al menos partes de su infraestructura a la Nube.
Lo que esto significó efectivamente para los profesionales de TI fue que estaban administrando menos infraestructura física local y más servicios en la Nube. A mediados de la década del 2010, incluso los almacenes de datos se alojaban en la Nube (utilizando servicios como Redshift de AWS ). En lugar de tener que configurar hardware, instalar software y cablear, los administradores tuvieron que comprender conceptos como instancias en línea, almacenamiento elástico y otras tecnologías específicas de la Nube.
Si hubiera creído la exageración alrededor de 2013, no se le podría culpar por pensar que en unos pocos años, casi todo estaría en la Nube. Sin embargo, a medida que la computación en la Nube ha entrado en la pendiente ilustrada del Hype Cycle de Gartner en la última parte de la década, la realidad es que los profesionales de TI ahora se enfrentan cada vez más a entornos híbridos que incorporan todo, desde hardware físico, servicios en la Nube y contenedores. Integrar todos estos elementos es un desafío en sí mismo.
3.- IoT cambia la infraestructura de TI
Otra tecnología que pasó del concepto fantástico a una realidad en la última década es IoT. Si bien podría argumentar que todavía se encuentra muy firme en la fase de “gran expectativa”, ya ha demostrado su valor en todo, desde las ciudades inteligentes hasta la Industria 4.0.
La aparición de IoT en esta década se debe a la convergencia de varios factores: los protocolos de comunicación como MQTT (que se convirtió en un estándar ISO en 2016) fueron fáciles de usar y efectivos para conectar dispositivos. Mientras tanto, la tecnología de hardware permitió una mayor potencia de procesamiento en chips más pequeños y un mejor uso de la batería. Finalmente, el aumento de las microcomputadoras comenzó cuando se lanzó la primera Raspberry Pi en 2011, y esto permitió una mayor aplicación de la lógica y el control sobre los dispositivos inteligentes.
Esto ha significado para muchos administradores de sistemas tener ahora un conjunto completo de nuevos dispositivos y protocolos para cuidar además de los elementos de TI tradicionales en sus entornos. Piense en compañías que tienen sensores que monitorean la temperatura y la humedad, o sensores que monitorean la ubicación de una flota de vehículos que utilizan rastreadores de ubicación geográfica. Estos dispositivos, su implementación e integración en entornos existentes y sus protocolos han introducido una nueva dimensión para que la comprendan los administradores. Y eso ni siquiera menciona las preocupaciones de seguridad que los dispositivos IoT también traen.
4.- La seguridad se convierte en un gran problema
Hablando de seguridad, los problemas de seguridad de esta década se convirtieron en una gran parte del día laboral de cualquier administrador de sistemas. Aunque el malware y otras amenazas han existido desde los años 90, su prevalencia ha ido en aumento. En 2007, se estimó que se producían 5 millones de nuevas muestras de malware cada año. A mediados de la década del 2010, esa cifra era de 500,000 nuevas muestras de malware cada día.
Esto significaba que los administradores de sistemas dedicaban más tiempo que nunca a fortalecer los sistemas, proteger los datos, educar a los usuarios y actualizar las versiones de firmware y software para asegurarse de que se incluyeran las últimas actualizaciones de seguridad.
Esta fue también la década en la que se produjeron algunos grandes problemas de seguridad en los que los administradores pasaron días e incluso semanas arreglando sus entornos: Heartbleed, las vulnerabilidades Meltdown y Spectre, y muchos otros añadidos a las listas de tareas diarias de los administradores del sistema.
5.- La virtualización y SaaS cambian el trabajo diario del administrador
En la primera década del Siglo XXI, la virtualización avanzó a medida que cambiaba la vida de los administradores: las máquinas virtuales podían usarse como estaciones de trabajo, entornos de capacitación, entornos de prueba, cualquier cosa. Esto continuó hasta la década del 2010, pero lo que cambió fue donde se alojaron los sistemas virtuales. Antes, se ejecutaban en hardware local y ahora podrían estar alojados en la Nube. Eso significó aún menos hardware y software para que los administradores se preocupen.
Pero no fue sólo la virtualización la que cambió la forma en que los administradores del sistema trabajaron con software y hardware. El auge del Software como Servicio (SaaS) significó que muchas tareas de administración tradicionales se volvieran redundantes. Tomemos como ejemplo Office 365, que se lanzó en 2013. Antes, cada estación de trabajo debía tener instalada una versión de Microsoft Office; ahora, con Office 365, el software estaba alojado en otro lugar, y todo lo que necesitaban los usuarios era un buen navegador y una conexión a Internet. En esta década, casi todos los softwares, desde sistemas CRM hasta sistemas de gestión de activos, se alojaron de forma remota y los programas se proporcionaron como un servicio. Esto también significó un cambio del modelo de licencia tradicional para pagar el software a un modelo de suscripción.
6.- Los dispositivos móviles son la nueva norma
Después del éxito sin precedentes del primer iPhone en 2007 y el lanzamiento del iPad en 2010, los dispositivos móviles eran ubicuos en 2015. Esta revolución móvil tuvo múltiples impactos en el administrador del sistema. En primer lugar, muchos tuvieron que lidiar con estos dispositivos en sus redes corporativas a medida que la tendencia BYOD (Bring Your Own Device) explotó. Pero, como han observado muchos comentaristas, esto provocó sus propios problemas de ancho de banda y seguridad.
7.- El fin del administrador móvil
En los “viejos tiempos” de la administración de sistemas, los profesionales de TI tenían que estar por todas partes. Si una computadora era lenta, tendrían que ir a esa computadora y echar un vistazo. Si necesitaban instalar una actualización en un sitio diferente, el administrador tendría que viajar físicamente al lugar para realizar la instalación (lea sobre esto y otras peculiaridades de soporte de TI del pasado en esta publicación de blog de mi colega, Sascha). Pero hoy en día, eso ha cambiado. La mayoría del trabajo se puede hacer usando una conexión remota a la computadora (incluso si está en el mismo edificio). Y debido a que gran parte del software que los usuarios necesitan en estos días es proporcionado por la Nube o servidores externos, los administradores ya ni siquiera necesitan instalar mucho software.
El resultado es que, mientras que antes los administradores de sistemas estaban por todos lados, ahora pueden hacer la mayor parte del trabajo desde sus propias estaciones de trabajo. Las sesiones remotas esencialmente han reemplazado al administrador móvil.
8.- El monitoreo de la infraestructura ha cambiado pero sigue siendo relevante
Ha habido muchos cambios durante la última década, pero una cosa se ha mantenido constante: la necesidad de monitorear la infraestructura. De hecho, en todo caso, se ha vuelto más importante. Pero todos los otros cambios también han traído nuevos desafíos al monitoreo de TI moderno
Como se mencionó, muchos entornos ahora son híbridos y cuentan con una combinación de infraestructura local y servicios en la Nube fuera del sitio. También hay muchos hardware y protocolos dispares en el mismo entorno: ahora tiene una combinación de dispositivos de TI “tradicionales” (como routers, estaciones de trabajo, servidores, switches, etc.) y dispositivos más nuevos como dispositivos IoT o máquinas especializadas como vemos en suelos industriales o en informática de la salud, todo en la misma infraestructura. El desafío es monitorear todos estos diferentes servicios, hardware y protocolos en un solo lugar.
Por supuesto, sería negligente si no apareciera nuestra propia solución, denominada Paessler PRTG Monitor, que se ha fortalecido no sólo durante esta década, sino también la anterior.
De esta forma cambió la vida diaria del administrador en la década de 2010, y veremos mucho más en la siguiente que recién empieza.
_______________________
Por David Montoya, Director Regional de Paessler América.