Contenido Exclusivo

Empresas mitigarán los ataques de engaño del Machine Learning

Intel y el Instituto Tecnológico de Georgia (Georgia Tech) fueron seleccionados para dirigir un equipo del programa Garantizando la Robustez de la Inteligencia Artificial contra el Engaño (GARD, por sus siglas en inglés) para la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA, por sus siglas en inglés).

“Intel y Georgia Tech están trabajando juntos para avanzar en la comprensión colectiva del ecosistema y en la capacidad de mitigación contra las vulnerabilidades de la Inteligencia Artificial y el Machine Learning. Mediante la investigación innovadora en técnicas de coherencia, estamos colaborando en un enfoque para mejorar la detección de objetos y mejorar la capacidad de la Inteligencia Artificial y el Machine Learning, para actuar ante los ataques adversos”, aseguró Jason Martin, ingeniero principal de Intel Labs e investigador principal para el programa DARPA GARD de Intel. 

Aun cuando son poco frecuentes, los ataques adversos intentan engañar, alterar o corromper la interpretación de datos del algoritmo de Machine Learning. Como los modelos de Inteligencia Artificial (IA) y Machine Learning son incorporados cada vez más en los sistemas semiautónomos y autónomos, es fundamental mejorar continuamente la estabilidad, seguridad y protección de interacciones inesperadas o engañosas.

Por ejemplo, las clasificaciones e interpretaciones erróneas de la Inteligencia Artificial en cuanto a píxeles podrían dar lugar a una mala interpretación de las imágenes y escenarios de identificación incorrectos, o las modificaciones sutiles a los objetos del mundo real podrían confundir a los sistemas de percepción de la IA. 

El programa GARD ayudará a que las tecnologías de Inteligencia Artificial y Machine Learning estén mejor equipadas para defenderse contra posibles ataques futuros.

Los esfuerzos de defensa actuales están diseñados para proteger contra ataques adversos específicos y predefinidos, pero siguen siendo vulnerables a los ataques cuando son puestos a prueba fuera de sus parámetros de diseño específicos. GARD pretende plantear la defensa del Machine Learning de forma diferente: desarrollando defensas amplias que aborden los numerosos ataques posibles en escenarios, tales que podrían hacer que un modelo de Machine Learning clasifique o interprete mal los datos.

La meta del programa GARD es establecer fundamentos teóricos del sistema de Machine Learning que no solo identifiquen las vulnerabilidades del sistema y caractericen las propiedades para mejorar la robustez del sistema, sino que también promuevan la creación de defensas efectivas. A través de estos elementos del programa, GARD tiene el objetivo de crear tecnologías de Machine Learning resistentes al engaño con estrictos criterios para evaluar su eficacia. 

En la primera etapa del programa GARD, Intel y Georgia Tech están mejorando las tecnologías de detección de objetos a través de la coherencia espacial, temporal y semántica, tanto para imágenes fijas como para videos. Intel está comprometida a impulsar la innovación de la IA y el Machine Learning y considera que trabajar con investigadores de seguridad calificados de todo el mundo es una parte crucial para abordar las vulnerabilidades de seguridad potenciales para la industria en general y nuestros clientes.

Lo Más Reciente

Incorporación de la IA para acelerar el proceso de análisis y toma de decisiones: Erwin Campos Ruiz, Global CISO de Grupo Bimbo

“Actualmente tenemos ojos especializados en la búsqueda de los...

¿Cómo se potencia el éxito de una campaña de marketing con AI y GenAI?

Todos conocemos el retargeting, que no es más que...

Un 63.9% de consumidores en México temen ser víctimas de fraudes mediante apps móviles

Las preocupaciones sobre la seguridad móvil han aumentado, planteando...

Predicciones de negocio y tecnología para 2025

2024 fue un año de elecciones en muchos países,...

Newsletter

Recibe lo último en noticias e información exclusiva.

Mireya Cortés
Mireya Cortés
Editora CIO Ediworld Online. La puedes contactar en mcortes@ediworld.com.mx

Incorporación de la IA para acelerar el proceso de análisis y toma de decisiones: Erwin Campos Ruiz, Global CISO de Grupo Bimbo

“Actualmente tenemos ojos especializados en la búsqueda de los ciberataques más disruptivos que vivimos hoy en día”. Ante el gran número de amenazas cibernéticas que...

¿Cómo se potencia el éxito de una campaña de marketing con AI y GenAI?

Todos conocemos el retargeting, que no es más que acumular la experiencia de búsquedas para incrementar la personalización de contenidos, nos asusta y nos...

Un 63.9% de consumidores en México temen ser víctimas de fraudes mediante apps móviles

Las preocupaciones sobre la seguridad móvil han aumentado, planteando un desafío importante para las empresas de aplicaciones móviles: los consumidores tomarán medidas si no...