Durante el segundo día de Intel Innovation 2023, Greg Lavender, director de Tecnología de Intel, ofreció una visión detallada de cómo la filosofía de Intel de contar con un ecosistema abierto y prioritario para los desarrolladores está funcionando para garantizar que las oportunidades de la inteligencia artificial (IA) sean accesibles para todos.
“La comunidad de desarrolladores será el catalizador que transformará las industrias y las ayudará a aprovechar la IA para satisfacer sus diversas necesidades, tanto hoy como en el futuro”, afirmó el directivo. “La IA puede y debe estar al alcance de todos para su implementación responsable. Si los desarrolladores se ven limitados en su elección de hardware y software, la gama de casos de uso para la adopción global de IA estará restringida y es probable que el valor social que pueden ofrecer se vea limitado”.
Greg Lavender destacó el compromiso de Intel con la seguridad integral, que incluye la Cadena de Suministro Transparente de Intel para verificar la autenticidad del hardware y la computación confidencial para ayudar a proteger los datos confidenciales en uso. En la actualidad, Intel está ampliando la seguridad de su plataforma y la protección de la integridad de los datos con varias herramientas y servicios nuevos, incluida la disponibilidad general de un nuevo servicio de certificación.
Este servicio, denominado Proyecto Amber, es el primero en un nuevo conjunto de software y servicios de seguridad llamado Intel Trust Authority. Ofrece una evaluación unificada e independiente de la integridad y la aplicación de políticas del entorno de ejecución confiable (TEE) y se puede utilizar en cualquier lugar donde se implemente la computación confidencial de Intel, ya sea en múltiples nubes, entornos híbridos, locales o en el borde.
Intel Trust Authority también se convertirá en una capacidad integral para habilitar la IA confidencial, lo que ayudará a garantizar la confiabilidad de los entornos en los que se procesan datos y propiedad intelectual (PI) confidenciales en aplicaciones y modelos de aprendizaje automático, especialmente en inferencias en las generaciones actuales y futuras de procesadores Intel Xeon.
“Nuestra estrategia de software se basa en ecosistemas abiertos y de computación acelerada abierta para ofrecer la IA en todas partes”, afirmó Lavender. “Hay infinitas oportunidades para escalar la innovación y estamos creando un camino para superar la brecha de la IA, dando igualdad de condiciones a los desarrolladores”.
Un ecosistema abierto que facilite la implementación en múltiples arquitecturas.
Intel está comprometida con el desarrollo de un ecosistema abierto que facilite la implementación en múltiples arquitecturas. Esto incluye su participación en la Fundación de Aceleración Unificada de Linux (UXL), una iniciativa intersectorial dedicada a ofrecer un modelo abierto de programación de aceleradores que simplifique el desarrollo de aplicaciones para su implementación en diversas plataformas. La UXL representa una evolución de la iniciativa OneAPI. El modelo de programación oneAPI de Intel permite escribir el código una sola vez y desplegarlo en múltiples arquitecturas informáticas, incluidas CPU, GPU, FPGA y aceleradores. Intel contribuirá a la Fundación UXL con su especificación oneAPI para impulsar el desarrollo multiplataforma en todas las arquitecturas.
La empresa también colabora con los principales proveedores de software, como Red Hat, Canonical y SUSE, para proporcionar distribuciones optimizadas de sus soluciones de software empresarial, garantizando un alto rendimiento en las arquitecturas Intel más recientes. En el evento de Innovación, Lavender estuvo acompañado por Gunnar Hellekson, vicepresidente y gerente general de Red Hat Enterprise Linux (RHEL), para anunciar una colaboración ampliada que permitirá a Intel contribuir con soporte upstream para el ecosistema RHEL utilizando CentOS Stream. Intel sigue colaborando con herramientas y marcos de IA y aprendizaje automático, como PyTorch y TensorFlow.
Para ayudar a los desarrolladores a escalar el rendimiento de manera rápida y sencilla, Intel Granulate cuenta con una función de piloto automático para el redimensionamiento de recursos de pod en Kubernetes. Esta herramienta de optimización proporcionará recomendaciones automáticas y continuas de gestión de capacidad para los usuarios de Kubernetes, lo que les permitirá reducir la inversión necesaria para alcanzar sus objetivos de coste-rendimiento en entornos contenerizados. Intel Granulate proporciona capacidades de orquestación autónoma para las cargas de trabajo de Databricks, lo que resulta en una reducción promedio del 30% en los costes y del 23% en el tiempo de procesamiento, sin cambios en el código.
I