Contenido Exclusivo

VIDEO: Escalabilidad, seguridad y latencia: los 3 desafíos de la IA en redes de datos

Emilio Madero, Vicepresidente Ejecutivo de Marketing en Cirion Technologies,...

¿Cómo comunicar los riesgos de ciberseguridad al Consejo de Administración?

Los Consejos de Administración de las organizaciones deben comprender...

VIDEO: ¿Qué funciones desempeña un Chief Business Officer (CBO)?

¿Por qué es importante crear el puesto de CBO...

Cinco formas de perder dinero en la virtualización

 

Más de tres cuartas partes de las empresas de los Estados Unidos virtualizan algunos de sus servidores basados en x86, pero pocos reciben el valor completo de su dinero por los esfuerzos de virtualización. Esto, de acuerdo con analistas, se debe a errores de administración.
 
Los mayores conceptos erróneos giran en torno a tres aspectos: cómo manejar de cerca las máquinas virtuales, cómo planear la capacidad y la carga de trabajo de la infraestructura virtual, y cómo ir más allá de la configuración técnica para evitar que los costos operativos no se salgan de control, según analistas.
 
He aquí algo que reflexionar sobre los cinco principales errores que consumen dinero, y que abarcan cuestiones técnicas y operacionales, de administración y planificación, así como presupuestarias.
 
1. Subutilización de los servidores físicos
La razón principal por la que las empresas no obtienen el mejor rendimiento de sus infraestructuras virtuales es porque no ejecutan suficientes máquinas virtuales en cada servidor físico, de acuerdo con Galeno Schreck, analista principal de Forrester Research, especializado en la administración e implementación de herramientas para arquitecturas virtuales.
 
“Por mucho tiempo la gente mantiene baja la proporción de máquinas virtuales por equipo para evitar la degradación del rendimiento”, señala. “No quieren que los sistemas se bloqueen, por lo que deciden que están satisfechos con los ahorros que obtienen ejecutando solo 50%, o poniendo un promedio de diez máquinas virtuales en un servidor”.
 
En 2009 o principios de 2010, ese era un enfoque razonable, porque las herramientas de administración del rendimiento daban una pobre imagen de lo bien que las máquinas virtuales se ejecutan en un servidor físico, agrega Dan Olds, director de Gabriel Consulting Group, que ha estado haciendo encuestas anuales a usuarios de los servidores de Windows y Unix durante más de cinco años.
 
El porcentaje de servidores dentro de las empresas sigue creciendo, pero el nivel de satisfacción de las que los utilizan se ha mantenido plana durante varios años, lo que indica que no están consiguiendo todo lo que esperaban de la nueva tecnología, señala.
 
Estar satisfecho con un porcentaje de utilización establecido o con el nivel de consolidación de servidores físicos o virtuales “deja dinero sobre la mesa”, indica Schreck. “Muchas empresas parecen ser cautelosas en no arriesgarse a empujar sus servidores al punto de desempeño en el que no sea compatible con un SLA durante un ataque masivo, por lo que no están aumentando su utilización lo suficiente”.
 
2. No empujar lo suficiente las herramientas de administración de las máquinas virtuales
Es bastante fácil meter más máquinas virtuales en un único servidor físico y obtener un mayor retorno de la inversión sobre el gasto de virtualización, señala Schreck. Sin embargo, eso realmente no resuelve el problema.
 
Las herramientas actuales de administración del rendimiento, como Microsoft Systems Center Virtual Machine Manager y vCenter Server de VMware, tienen capacidades que están a años luz de dos o tres herramientas con dos o tres años de edad, pero indicadores clave tales como si la nueva infraestructura es más fácil de manejar que la anterior, no han cambiado, agrega Olds.
 
“No está claro cuántas personas están realmente utilizando las herramientas”, indica Olds.
 
Casi cualquier empresa, con una infraestructura virtual de tamaño significativo, va a tener herramientas específicas de máquina virtual para su administración, señala Schreck.
 
“Lo que no está claro es si las utilizan para algo más que no sea comprobar y asegurarse de que las máquinas virtuales aún están en marcha”, añade. “Hay que ser más agresivo con las herramientas. En lugar de gestionar un entorno científico con las herramientas, que le digan lo que sus máquinas virtuales están haciendo y sobre su rendimiento, la gente está satisfecha aforrándose a una utilización específica de la capacidad. Usted termina con la enorme sobre prestación de su entorno y tiene un costo por máquina virtual que puede ser varias veces lo que tiene que ser”.
 
3. No tener la mente abierta a la planeación
El cambio global es pensar en todo el ambiente cuando se planea la capacidad, no solo mirar los requisitos de un solo conjunto de servidores o aplicaciones, según James Staten, vicepresidente y analista principal de Forrester, que se enfoca en la arquitectura de centro de datos.
 
“En la planeación tradicional de la capacidad, una aplicación obtiene el doble de los recursos que normalmente consume, el doble para cuando está ocupada y el doble -nuevamente- para capacidad límite (headroom), de tal modo que no supera los servidores”, señala Staten.
 
“En el mundo virtual, una aplicación no necesita ese nivel de headroom”. Usted ve una aplicación de acuerdo a cómo contribuye con la demanda de todo el entorno, ya que puede juntar todos sus recursos virtualizados y aplicarlos donde sea necesario. Su verdadero objetivo debe ser aumentar la utilización sostenida de todo el entorno a 60% o más, y lo más cerca posible a 100% de su pico”.
 
Arquitectónicamente es más eficiente dividir los datos, las bases de datos, los servidores y el software de front-end en capas diferentes en las que pueda asignar más recursos cuando sea necesario, de acuerdo con Patrick Kuo, un consultor del área de Washington D.C. que ha ayudado a crear infraestructuras de servidores web y virtuales en Dow Jones, la Corte Suprema de los EE.UU., la Agencia de Servicios de Información de la Defensa y, recientemente, el sitio de noticias políticas del D.C., The Daily Caller.
 
Eso es un gran cambio en la forma tradicional de pensar en las aplicaciones basadas en servidor como una sola unidad de aplicación / servidor / base de datos, y asignarle recursos de esa manera, que no escala tan eficiente como un enfoque más amplio de n-niveles, señala.
 
4. Estropear la administración del ciclo de vida
La clave para evitar que una infraestructura virtual se ahogue en su propia expansión de las máquinas virtuales es establecer y hacer cumplir las políticas del ciclo de vida de las aplicaciones individuales y de las unidades de negocio -pero es algo que no suele suceder, señala Staten.
 
“La forma típica de la manejar el ciclo de vida es la creación de un servidor y, cuando muere y nadie se da cuenta, es el final de su ciclo de vida”, agrega.
 
“En el mundo virtual, tiene que administrar los ciclos de vida y los cambios que ocurren dentro de las máquinas virtuales de manera proactiva”, señala Staten. “Eso significa el establecimiento de políticas para la provisión, y también la automatización de aprovisionamiento, administración de parches, el cambio de administración, la administración del final del ciclo de vida y todos los demás procesos que -en otro caso- tendría que hacer a mano”.
 
La diferencia fundamental entre un entorno físico de TI y uno virtualizado es el volumen y la frecuencia de cambio dentro de la infraestructura virtual, que no solo es demasiado trabajo para mantenerlo al día manualmente y con eficacia, sino que también va en contra de la visión tradicional de cómo los administradores de los centros de datos ven los sistemas que administran, de acuerdo con Rob Smoot, director de marketing para los productos vCenter de VMware.
 
“La visión tradicional es establecer algo y luego bloquearlo hacia abajo para evitar un cambio que podría romperlo”, señala. “En las infraestructuras virtualizadas hay un cambio constante en el nivel de infraestructura, a medida que las máquinas virtuales se mueven de servidor en servidor o se reasignan recursos. La tecnología tiene que entender esa infraestructura reunida y responder con eficacia a la misma.”
 
Las herramientas como vCenter y System Center de Microsoft son mucho mejores en ese nivel de administración de lo que eran uno o dos años atrás, pero aún se centran demasiado en los productos de un proveedor, y demasiado lo virtual antes que en lo físico, y se utilizan más de lo que se debería, señala Staten.
 
Sin embargo, dentro de sus espacios propios, son mucho más eficaces que las herramientas que no se han desarrollado específicamente para administrar máquinas virtuales, agrega.
 
5. Renunciar a la devolución del cargo
Una de las herramientas más eficaces para prevenir la expansión y hacer más fácil la justificación de costos es establecer sistemas de devolución de cargo -que calculan y asignan los costos de los recursos de TI que utiliza cada unidad de negocio, en lugar de dejar que todos los gastos se dividan en una olla grande, señala Smoot.
 
“En el mundo físico muchas empresas podían utilizar el proceso de contratación para mantener el control del entorno, ya que obtener las aprobaciones y conseguir el hardware y la configuración toma tiempo”, señala Smoot. “Solicitar una máquina virtual es muy fácil, así que si no confía en un nivel de madurez de los procesos que se tienen en cuenta para controlar eficazmente la capacidad y el uso de los recursos reunidos, a menudo podría terminar con este tipo de expansión”.
 
Eso es probablemente cierto, señala Olds, pero muy pocas empresas realmente siguen adelante con eso. Más de tres cuartas partes de las empresas que respondieron a su investigación, dijeron que la recuperación en la virtualización es importante; pero solo la mitad mantiene un seguimiento específico de los datos de costo / beneficio, y solo uno de cada cinco le informó eso a la alta administración.
 
“No vimos una gran cantidad de devolución de cargo”, señala Olds.

Lo Más Reciente

¿Qué es la componibilidad empresarial y por qué es el futuro de la banca?

Tanto en los negocios como a nivel personal, la...

VIDEO: Escalabilidad, seguridad y latencia: los 3 desafíos de la IA en redes de datos

Emilio Madero, Vicepresidente Ejecutivo de Marketing en Cirion Technologies,...

CDMX ya es el mercado de talento tecnológico más grande de América Latina

La Ciudad de México superó a Sao Paulo este año...

Preponderante estrangula inversiones telco en México

El agente económico preponderante en telecomunicaciones (AEP-T) en México,...

Newsletter

Recibe lo último en noticias e información exclusiva.

¿Qué es la componibilidad empresarial y por qué es el futuro de la banca?

Tanto en los negocios como a nivel personal, la única constante es el cambio. En ambos casos, nuestra capacidad de adaptación determina el éxito....

VIDEO: Escalabilidad, seguridad y latencia: los 3 desafíos de la IA en redes de datos

Emilio Madero, Vicepresidente Ejecutivo de Marketing en Cirion Technologies, expuso de qué manera su compañía está apoyando a las organizaciones con la infraestructura digital...

CDMX ya es el mercado de talento tecnológico más grande de América Latina

La Ciudad de México superó a Sao Paulo este año como el mercado de talento tecnológico más grande de América Latina, según el informe anual...