La Inteligencia Artificial como tal existe desde los años 50. Claro que no ha sido hasta estos últimos años cuando se ha visto una rapidísima progresión, beneficiada sin duda por la expansión y optimización de mejoras en Cloud y soluciones de analítica de datos masivos.
Así, en la actualidad, la Inteligencia Artificial (IA) y machine learning están alterando el panorama de los riesgos para ciudadanos, empresas y Estados. La razón es que estas herramientas pueden ser muy poderosas para hacer el mal; pueden suponer una amenaza no sólo para la seguridad digital, sino para la física (actores que utilizan con fines armamentísticos drones de consumidores) y la política (desde las campañas de desinformación hasta la vigilancia masiva).
Un extenso informe elaborado por la Universidad de Oxford investigó la forma en que pueden preverse y mitigarse los impactos del uso malicioso de la Inteligencia Artificial.
Profesionalización de los ataques, gracias a la IA
El progreso de la Inteligencia Artificial en entornos maliciosos propiciará la expansión de las amenazas existentes, introducirá nuevas y alterará el carácter típico de las amenazas. Los expertos prevén ataques “más efectivos, más dirigidos, más difíciles de atribuir y más eficaces a la hora de detectar y explotar vulnerabilidades en sistemas de inteligencia artificial”.
Uno de los ejemplos de esta nueva realidad que se plantea son los ataques de phishing. Estas técnicas utilizan mensajes personalizados para conseguir información sensible (normalmente financiera). Los más sofisticados requieren detectar y reconocer los perfiles de más valor gracias al rastreo de redes sociales y profesionales y la generación de mensajes adaptados a este contexto. Un análisis similar puede aplicarse a más tipos de ciberataques, alerta el informe.
Otro de los ejemplos citados es el uso de técnicas de imitación de voz para llevar a cabo engaños. En este sentido se ha observado un progreso significativo en el desarrollo de sistemas de voz capaces de imitar voces humanas de tal forma que resultaría prácticamente imposible detectar su falsedad.
Limitar la publicación de investigaciones, colaboración y formación
Los expertos recomiendan a los responsables políticos colaborar más estrechamente con investigadores para prevenir y mitigar potenciales ataques y pide a los investigadores y desarrolladores de soluciones de Inteligencia Artificial que identifiquen casos de doble uso de la tecnología para descubrir técnicas de prevención.
Un trabajo estrecho con la comunidad de ciberseguridad, la necesidad de rehacer las normas sobre la publicación de las investigaciones y la limitación de abrir algunos aspectos en favor de la seguridad –algo así como la categoría de información clasificada aplicada a los estudios técnicos sobre la materia– y la promoción de una cultura de la responsabilidad son algunos de los consejos que incluye el documento.
A mediados de mayo tendrá lugar la segunda cumbre mundial sobre ‘IA para el bien’, que reunirá a expertos de todo el mundo para tomar medidas para que la tecnología acelere los avances hacia los objetivos de desarrollo sostenible de la ONU.
Nerea Bilbao, IDG.es