Contenido Exclusivo

Akamai Cloud Inference promete ahorrar hasta un 86% en inferencia de IA

Akamai presentó Akamai Cloud Inference con el propósito de iniciar una ola de innovación más rápida y eficiente para las organizaciones que buscan convertir los modelos lingüísticos predictivos y de gran tamaño en acciones reales.

“Conseguir que los datos de la IA estén más cerca de los usuarios y los dispositivos es difícil, y es en este aspecto donde las nubes heredadas tienen dificultades”, afirma Adam Karon, director de Operaciones y director general del Grupo de Tecnología de Nube de Akamai. “Mientras que el trabajo más duro del entrenamiento de los LLM seguirá haciéndose en centros de datos de hiperescala grandes, el trabajo práctico de inferencia tendrá lugar en el Edge, donde la plataforma que Akamai ha creado durante las últimas dos décadas se convierte en vital para el futuro de la IA y nos diferencia de cualquier otro proveedor de nube del mercado”.

La nueva solución de Akamai proporciona herramientas para que los ingenieros y los desarrolladores de plataformas puedan crear y ejecutar aplicaciones y cargas de trabajo de IA que hacen un uso intensivo de datos más cerca de los usuarios finales, lo que proporciona un rendimiento tres veces mayor al mismo tiempo que reduce la latencia hasta 2,5 veces. Con la solución de Akamai, las empresas pueden ahorrar hasta un 86% en inferencia de IA y cargas de trabajo de IA con agentes en comparación con la infraestructura hiperescalable tradicional.

Cloud Inference incluye:

  • Computación: Akamai Cloud ofrece un arsenal de recursos informáticos versátil, desde CPU clásicas para una inferencia ajustada hasta opciones de computación acelerada en GPU, y VPU ASIC personalizadas para proporcionar la potencia adecuada para un amplio espectro de desafíos de inferencia de IA. Akamai se integra con el ecosistema AI Enterprise de Nvidia y aprovecha Triton, TAO Toolkit, TensorRT y NVFlare para optimizar el rendimiento de la inferencia de IA en las GPU NVIDIA.

  • Gestión de datos: Akamai permite a los clientes aprovechar todo el potencial de la inferencia de IA con una estructura de datos diseñada específicamente para cargas de trabajo de IA modernas.

  • Contenedorización: la contenedorización de las cargas de trabajo de IA permite una ampliación automática basada en la demanda, una mayor resiliencia de las aplicaciones y una portabilidad multinube o híbrida, a la vez que optimiza tanto el rendimiento como el costo.

  • Edge computing: para simplificar la forma en que los desarrolladores crean aplicaciones basadas en IA, Akamai AI Inference incluye funciones de WebAssembly (Wasm). Al trabajar con proveedores de Wasm como Fermyon, Akamai permite a los desarrolladores ejecutar inferencias para los LLM directamente desde aplicaciones sin servidor, lo que permite a los clientes ejecutar código ligero en el Edge para habilitar aplicaciones sensibles a la latencia.

Juntas, estas herramientas crean una plataforma para aplicaciones basadas en IA de baja latencia que permite a las empresas ofrecer la experiencia que demandan sus usuarios.

 

 

Lo Más Reciente

Estas empresas están reimaginando su contenido y experiencias para clientes con IA

El reciente Google Cloud Next '25 ha sido un...

La transformación de los equipos de seguridad en la Era de la IA

A medida que las amenazas cibernéticas crecen en escala...

Salud Digna implementa sistema de pago en WhatsApp

Salud Digna implementó un sistema de pago a través...

Infoblox y Google Cloud ofrecerán soluciones de red y seguridad basadas en la nube

Infoblox anunció una alianza con Google Cloud para ofrecer...

Newsletter

Recibe lo último en noticias e información exclusiva.

Estas empresas están reimaginando su contenido y experiencias para clientes con IA

El reciente Google Cloud Next '25 ha sido un escaparate de innovaciones transformadoras, donde la inteligencia artificial generativa y la infraestructura de vanguardia de...

La transformación de los equipos de seguridad en la Era de la IA

A medida que las amenazas cibernéticas crecen en escala y sofisticación, los equipos de operaciones de seguridad (SecOps) enfrentan una presión creciente para defender...

Salud Digna implementa sistema de pago en WhatsApp

Salud Digna implementó un sistema de pago a través de WhatsApp, la cual responde a la creciente demanda de los pacientes y marca un...