Así lo considera casi un 70% de altos directivos de todo el mundo encuestados por Gartner durante el segundo trimestre de este año. Los líderes se muestran preocupados por la disponibilidad masiva de plataformas como ChatGPT o Bard y los desafíos que estas tecnologías entrañan.
La disponibilidad masiva de la tecnología de Inteligencia Artificial (IA) generativa, con las plataformas ChatGPT, creada por OpenAI, y Bard, por Google, como máximos exponentes de esta tendencia, es una de las grandes preocupaciones y un riesgo emergente empresarial en opinión del 66% de los 249 ejecutivos encuestados por la firma de análisis Gartner el pasado trimestre. En concreto, esta tendencia la perciben como el segundo gran riesgo empresarial por detrás de la viabilidad de terceros (67%) y por delante de otros como la incertidumbre de la planificación financiera (63%), la concentración de nubes (62%) y las tensiones comerciales entre China y Occidente (56%).
Curiosamente, como recalcan desde la consultora, por primera vez aparece la IA generativa entre los 10 mayores riesgos empresariales. Para Ran Xu, director de investigación en la práctica de auditoría y riesgos de Gartner, esto “refleja tanto el rápido crecimiento del uso de las herramientas de la IA generativa y de la existencia de una conciencia pública al respecto, como la envergadura de los posibles casos de uso y, por lo tanto, de los riesgos potenciales que generan estas herramientas”.
Cuidado con la propiedad intelectual, la protección de datos y la ciberseguridad
Los expertos de la firma de análisis subrayan tres aspectos claves que los ejecutivos empresariales deben tener en cuenta con la proliferación de las herramientas de IA generativa: la propiedad intelectual, la privacidad de datos y la seguridad cibernética. Respecto al primero, los analistas de Gartner advierten de la necesidad de educar a los líderes corporativos sobre la necesidad de tener precaución y abogar por la transparencia en el uso de estas herramientas. La información que se introduce en una herramienta de IA generativa, alertan, puede ser sensible o confidencial y esta podría acaban llegando a otros usuarios a través de los resultados que la herramienta les brinda a estos. “Además, el uso de los resultados de estas herramientas podría terminar infringiendo sin querer los derechos de propiedad intelectual de otras personas que la hayan empleado”, afirma Xu.
Respecto a la privacidad de datos, los expertos de Gartner afirman que es posible que las herramientas de IA generativa compartan información del usuario con terceros, como vendedores o proveedores de servicios, sin previo aviso. “Esto podría violar la ley de privacidad en muchas jurisdicciones. Por ejemplo, la regulación ya se ha implementado en China y la UE, con normativas propuestas emergentes en EE. UU., Canadá, India y el Reino Unido, entre otros”.
Finalmente, no hay que olvidar, dice Xu, que los ciberdelincuentes “siempre están probando nuevas tecnologías para subvertir el uso de estas para sus propios fines y la IA generativa no es una excepción”. Ejemplo de ello, afirma, son las ocasiones en las que la IA generativa ha sido engañada para generar código de malware y ransomware o los ataques que se ha realizado a estas plataformas para que brinden información que no deberían, lo que está provocando que se industrialicen los ataques avanzados de phishing”.