Las empresas que no cuentan con los recursos para desarrollar modelos internos de aprendizaje automático están recurriendo a los grandes proveedores de nube.
Los tres grandes proveedores cloud, Amazon Web Services (AWS), Microsoft Azure y Google Cloud Platform (GCP) quieren que los expertos y los científicos de datos desarrollen, prueben e implementen modelos de aprendizaje automático en sus nubes. Esto sería un esfuerzo muy lucrativo para ellos porque los casos de prueba a menudo necesitan una gran cantidad de infraestructura y alta disponibilidad.
Pero estos gigantes no quieren competir solo en cuestión de servicios, precios e infraestructuras, sino que se centran en ‘rampas de acceso’ versátiles para facilitar a sus clientes el uso de la inteligencia artificial (IA). Cada nube pública ofrece múltiples opciones de almacenamiento de datos, incluidas bases de datos sin servidor, almacenes, los llamados data lakes y bases NoSQl. Asimismo, ponen a su disposición marcos populares, como TensorFlow y PyTorch, de modo que sus nubes supongan una ventana única para los equipos de expertos de las compañías que quieren flexibilidad. Los tres ofrecen Modelops, MLops y un número creciente de capacidades para respaldar el ciclo de vida completo del aprendizaje automático.
Un estudio reciente muestra que el 78% de los proyectos empresariales de IA y machine learning (ML) se implementan utilizando una infraestructura de nube híbrida, por lo que las públicas tienen mucho espacio para crecer. Esto implica que deberán seguir innovando con capacidades nuevas y diferenciadoras. Esa innovación se presenta en varias categorías para ayudar a las organizaciones a ejecutar el ML a gran escala, con más servicios y plataformas más fáciles de usar.
Batalla de chips por la inteligencia artificial
La experimentación del aprendizaje automático continúa escalando modelos grandes y más complejos que requieren entrenamiento en grandes cantidades de datos. Microsoft y Nvidia anunciaron recientemente un procesador de lenguaje masivo de 530.000 millones de parámetros, mientras que Google afirma que entrenó un modelo de 1,6 billones de parámetros a principios de este año.
Los modelos de entrenamiento de este tamaño y complejidad pueden llevar mucho tiempo y resultar costosos, por lo que las nubes públicas están innovando con chips de IA y opciones de infraestructura. AWS ya tiene Inferentia y Trainium; y recientemente anunció nuevas instancias EC2 impulsadas por Habana’s Gaudi, que ofrecen un 40% más de capacidades en comparación con la última EC2 impulsada por GPU.
Pero, los chips no son la única capacidad de infraestructura que habilita la IA, y los tres gigantes tienen plataformas de computación en el extremo (edge computing, en inglés) para ayudar a implementar modelos de aprendizaje automático para el Internet de las Cosas (IoT, de sus siglas anglosajonas) y otras aplicaciones de transmisión.
La batalla de los servicios de inteligencia artificial
La mayoría de los científicos de datos no desarrollarán IA a gran escala, pero quieren crear y configurar modelos avanzados de ML. Los tres proveedores están construyendo servicios de ML que crecerán significativamente durante los próximos años.
Los servicios cognitivos de Microsoft incluyen servicios de voz, de lenguaje para análisis de sentimientos y servicios de preguntas y respuestas que se utilizan a menudo en chatbots. Sus servicios de visión incluyen reconocimiento facial y cuentan con apoyo a la toma de decisiones que se utiliza para la personalización y la detección de anomalías. La compañía lanzó recientemente OpenAI, que se conecta al modelo de lenguaje natural GPT-3, y que admite búsqueda, conversación, finalización de texto y otros.
Google Cloud tiene varios productos de IA de procesamiento de documentos, incluido DocAI para el procesamiento general de archivos y soluciones verticales para préstamos, adquisiciones y gestión de contratos.
Y, los servicios de aprendizaje automático de AWS incluyen Rekognition en visión por computadora, Textract para procesamiento de documentos, Lex para chatbots, CodeGuru para revisiones de código y Personalize para aplicaciones web.
Asimismo, la pregunta reside en si veremos más modelos de aprendizaje automático como servicio (MLaaS) de nubes públicas y demás competidores. El científico de datos de DataPrime, Kirk Borne, aseguró que sí. “Veremos más ofertas de MLaaS debido a la creciente sofisticación de estos modelos y el gasto correspondiente para capacitarlos. Menos organizaciones querrán invertir el tiempo y el talento para construir sus propias instancias de esos modelos previamente entrenados”. Además, continuó, “un gran número de PyMEs que están mejorando con ML e IA verán que estas ofertas como servicio se adaptan perfectamente a su tiempo, presupuesto y requisitos estratégicos. MLaaS también ayuda a abordar la omnipresente brecha de talento al aprovechar los modelos previamente entrenados como un servicio que utiliza algoritmos potentes y sofisticados”.
La lucha para hacer que la inteligencia artificial sea más accesible
La próxima frontera para las nubes públicas es habilitar sus capacidades de ML e IA para organizaciones que pueden no tener equipos avanzados de desarrollo de software y ciencia de datos. Lo están haciendo a través de tecnologías de low code que tienen capacidades de ML g o ayudan a los desarrolladores a interactuar son sus otros servicios de IA. Microsoft ofrece Azure Machine Learning Studio, un portal que combina experiencias sin código y con él para científicos de datos. Google está adoptando un enfoque similar con AutoML. Y, el IDE de AWS, SageMaker, simplifica el desarrollo, las pruebas y la implementación de modelos de Ml.
En cualquier caso, será interesante ver cómo las nubes públicas, las nuevas empresas, los proveedores de software, los fabricantes de chips, las plataformas de código abierto y los proveedores de infraestructura compiten en IA e innovación de ML para admitir modelos más grandes, más servicios y rampas de acceso más fáciles para la integración de aplicaciones.
-IDG.es