Contenido Exclusivo

“No se sorprenda si soy una IA”, advierte el CEO de Nvidia

Jensen Huang sólo bromeaba, pero las tecnologías de simulación como servicio basadas en la nube que demostró en la conferencia GTC Fall de Nvidia significan que los CIO deberían tomarlo en serio.

Nvidia solía ser sólo un proveedor de procesadores gráficos, pero hoy, el director ejecutivo, Jensen Huang, quiere que se sepa que la empresa es un proveedor de servicios informáticos de pila completa y que puede ser un “constructor artificial”.

Con ambiciones tan elevadas, Nvidia se está mudando a la nube, entregando hardware y software como servicio. En la conferencia GTC Fall de la compañía la semana pasada, Huang mostró algunos “juguetes” nuevos para los gamers, pero dedicó la mayor parte de su discurso principal a describir las herramientas que Nvidia ofrece a los CIO para acelerar la informática en la empresa.

Había hardware para diseñadores industriales en la nueva GPU Ada Lovelace RTX; un chip para conducir vehículos autónomos mientras se entretiene a los pasajeros; y la plataforma de edge computing IGX para sistemas autónomos.

Pero no se trata sólo de hardware. El software (para el descubrimiento de nuevos fármacos, la investigación biológica, el procesamiento del lenguaje y la construcción de metaversos para la industria) y los servicios que incluyen consultoría, seguridad cibernética y software e infraestructura como servicio en la nube también estaban allí.

Huang marcó su discurso de apertura con demostraciones de un solo procesador que realiza una representación fotorrealista en tiempo real de escenas con efectos de iluminación de apariencia natural, una IA que puede completar sin problemas los cuadros que faltan para suavizar y acelerar la animación, y una opción para entrenar grandes modelos de lenguaje para IA que permita responder a indicaciones en formas dependientes del contexto. 

La calidad de esas demostraciones lo hizo al menos algo plausible cuando, en una videoconferencia con periodistas después del discurso de apertura, Huang bromeó: “No se sorprenda si soy una IA”.

Bromas aparte, los CIO querrán prestar mucha atención al nuevo juego de servicios en la nube de Nvidia, ya que podría permitirles ofrecer nuevas capacidades en sus organizaciones sin aumentar los presupuestos de equipos. En una era en la que es probable que aumenten los costos de hardware y la capacidad de la industria para empaquetar más transistores en un área determinada de silicio se está estancando, aún existen desafíos para muchos.

“La ley de Moore está muerta”, afirmó Huang, refiriéndose a la afirmación de Gordon Moore de 1965 de que la cantidad de transistores en los microchips se duplicará cada dos años. “Y la idea de que un chip va a bajar de costo con el tiempo, desafortunadamente, es una historia del pasado”.

Muchos factores están contribuyendo a los problemas de los fabricantes de chips como Nvidia, incluida la dificultad para obtener herramientas vitales y el aumento del costo de las materias primas como el gas neón (su suministro se ha visto afectado por la guerra en Ucrania) y los chips de obleas de silicio.

“Una oblea de 12 pulgadas es mucho más cara hoy que ayer”, señaló Huang. “Y no es un poco más cara, ¡es muchísimo más cara!”.

La respuesta de Nvidia a esos costos crecientes consiste en desarrollar un software optimizado para que los clientes aprovechen al máximo sus procesadores, ayudando a restablecer el equilibrio entre precio y rendimiento. “El futuro se trata de un full stack acelerado”, explicó. “La informática no es un problema de chips. La informática es un problema de software y chips, un desafío de pila completa”.

Afinando a NeMo

Para subrayar ese punto, Nvidia anunció que ya está optimizando su software de entrenamiento de modelo de lenguaje grande NeMo para su nuevo procesador H100, que acaba de entrar en plena producción. El H100 es el primer chip basado en la arquitectura Hopper que Nvidia presentó en su conferencia Spring GTC en marzo. Otros marcos de aprendizaje profundo que se están optimizando para el H100 incluyen Microsoft DeepSpeed, Google JAX, PyTorch, TensorFlow y XLA, informó la compañía.

tolva de nvidia

NeMo también tiene la distinción de ser uno de los dos primeros productos de Nvidia que se vende como un servicio basado en la nube, el otro es Omniverse.

El NeMo Large Language Model Service permite a los desarrolladores entrenar o adaptar las respuestas de modelos de lenguaje grande creados por Nvidia para procesar o predecir respuestas en lenguajes humanos y código de computadora. El servicio BioNeMo LLM relacionado hace algo similar para las estructuras de proteínas, prediciendo sus propiedades biomoleculares.

La última innovación de Nvidia en esta área consiste en permitir que las empresas tomen un modelo creado a partir de miles de millones de parámetros y lo ajusten utilizando unos pocos cientos de puntos de datos, de modo que un chatbot pueda proporcionar respuestas más apropiadas para un contexto particular. Por ejemplo, si a un chatbot se le pregunta: “¿Cuáles son las opciones de alquiler?”, podría responder: “Puede alquilar un módem por 5 dólares al mes”, si estuviera sintonizado para un ISP; o bien, “Podemos ofrecer autos económicos, compactos y de tamaño completo”, para una empresa de alquiler de autos; o, “Tenemos departamentos con hasta tres dormitorios”, para una agencia de administración de propiedades.

Según Nvidia, este ajuste se puede realizar en horas, mientras que entrenar un modelo desde cero puede llevar meses. Los modelos ajustados, una vez creados, también se pueden recuperar usando un “token rápido” combinado con el modelo original. Las empresas pueden ejecutar los modelos en las instalaciones o en la nube o, a partir de octubre, acceder a ellos en la nube de Nvidia a través de una API.

Omniverse Cloud

La plataforma Omniverse de Nvidia es la base del otro conjunto de servicios en la nube que ofrece la empresa.

Huang describió que la plataforma tiene tres características clave. Una es la capacidad de ingerir y almacenar información tridimensional: “Es una base de datos moderna en la nube”, dijo Huang. Otra es su capacidad para conectar dispositivos, personas o agentes de software a esa información y entre sí. “Y el tercero proporciona una ventana a este nuevo mundo, que es otra forma de decir un motor de simulación”, explicó el CEO.

Esas simulaciones pueden ser del mundo real, en el caso de empresas que crean gemelos digitales de instalaciones o productos de fabricación, o de mundos ficticios utilizados para entrenar redes de sensores (con Omniverse Replicator), robots (con Isaac Sim) y vehículos autónomos. (con Drive Sim) alimentándolos con datos de sensores simulados.

También está Omniverse Nucleus Cloud, que proporciona un almacén de descripción de escena universal compartido para escenas y datos 3D que se pueden usar para la colaboración en línea, y Omniverse Farm, una herramienta escalable para renderizar escenas y generar datos sintéticos usando Omniverse.

El gigante industrial Siemens ya utiliza la plataforma Omniverse para desarrollar gemelos digitales para la fabricación, y al respecto, Nvidia informó que ahora trabaja para brindar esos servicios a sus clientes utilizando Omniverse Cloud.

Omniverse Farm, Replicator e Isaac Sim ya están disponibles en contenedores para que las empresas los implementen en instancias de computación en la nube de Amazon Web Services equipadas con GPU Nvidia, pero las empresas tendrán que esperar la disponibilidad general de las otras aplicaciones de Omniverse Cloud como servicios administrados por Nvidia. Cabe señalar que la compañía está aceptando solicitudes de acceso anticipado.

Peter Sayer, CIO.com

Lo Más Reciente

Presentan guía mundial para utilizar gemelos digitales en ensayos clínicos

El ENRICHMENT Playbook es la "primera guía mundial" dirigida...

Pure Storage lanza GenAI Pod: diseños llave en mano para acelerar la innovación de IA

Pure Storage presentó una solución que proporciona diseños llave...

La digitalización ofrece mejoras en la gestión de casos en el sector público

Los factores macroeconómicos globales y locales que cambian rápidamente,...

Cómo impulsar el crecimiento de las empresas en la era de la IA

La inteligencia artificial está revolucionando los negocios. Sin embargo,...

Newsletter

Recibe lo último en noticias e información exclusiva.

Presentan guía mundial para utilizar gemelos digitales en ensayos clínicos

El ENRICHMENT Playbook es la "primera guía mundial" dirigida a la industria de dispositivos médicos, que detalla cómo utilizar gemelos virtuales para acelerar los...

Pure Storage lanza GenAI Pod: diseños llave en mano para acelerar la innovación de IA

Pure Storage presentó una solución que proporciona diseños llave en mano construidos en su plataforma de almacenamiento de datos. Se trata de Pure Storage...

La digitalización ofrece mejoras en la gestión de casos en el sector público

Los factores macroeconómicos globales y locales que cambian rápidamente, siguen ejerciendo una presión cada vez mayor sobre el sector público de México. El gobierno...