El mundo de la ciberseguridad experimenta una transformación masiva. La IA está a la vanguardia de este cambio y tiene el potencial de capacitar a las organizaciones para derrotar los ciberataques a la velocidad de las máquinas, abordar la escasez de talento cibernético e impulsar la innovación y la eficiencia en ciberseguridad. Sin embargo, los adversarios pueden usar la IA como parte de sus actividades, y nunca ha sido más importante para nosotros proteger nuestro mundo a través de la utilización de la IA y asegurar la IA para nuestro mundo.
Microsoft publicó recientemente la sexta edición de Cyber Signals, en la que destaca cómo protege las plataformas de IA de las amenazas emergentes relacionadas con los actores de ciberamenazas de los estados-nación.
En colaboración con OpenAI, comparte información sobre los actores de amenazas afiliados al estado rastreados por Microsoft, como Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon y Salmon Typhoon, que han buscado usar grandes modelos de lenguaje (LLM, por sus siglas en inglés) para aumentar sus operaciones de ciberataques en curso. Esta importante investigación expone los primeros movimientos incrementales que observamos que estos conocidos actores de amenazas toman alrededor de la IA y señala cómo bloqueamos su actividad para proteger las plataformas y los usuarios de IA.
También anunció los principios de Microsoft que guían sus acciones para mitigar los riesgos de las amenazas persistentes avanzadas de los estados-nación, los manipuladores persistentes avanzados y los sindicatos de ciberdelincuentes que utilizan plataformas y API de inteligencia artificial. Estos principios incluyen la identificación y la acción contra el uso de amenazas maliciosas, la notificación a otros proveedores de servicios de IA, la colaboración con otras partes interesadas y la transparencia.
Esta edición de Cyber Signals comparte información sobre cómo los actores de amenazas usan la IA para refinar sus ataques y también cómo usamos la IA para proteger a Microsoft.
Los ciberdelincuentes y los actores patrocinados por el Estado recurren a la IA, incluidos los LLM, para mejorar su productividad y aprovechar las plataformas que pueden promover sus objetivos y técnicas de ataque. Aunque los motivos y la sofisticación de los actores de amenazas varían, comparten tareas comunes a la hora de desplegar ataques. Estos incluyen el reconocimiento, como la investigación de las industrias, ubicaciones y relaciones de las posibles víctimas; codificación, incluida la mejora de los scripts de software y el desarrollo de malware; y asistencia en el aprendizaje y uso de lenguajes humanos y de máquinas. Nuestra investigación con OpenAI no ha identificado ataques significativos que empleen los LLM que monitoreamos de cerca.
Microsoft utiliza varios métodos para protegerse de este tipo de ciberamenazas, incluida la detección de amenazas habilitada por IA para detectar cambios en la forma en que se usan los recursos o el tráfico en la red; análisis de comportamiento para detectar inicios de sesión de riesgo y comportamientos anómalos; modelos de aprendizaje automático para detectar inicios de sesión de riesgo y malware; Zero Trust, donde cada solicitud de acceso debe estar autenticada, autorizada y cifrada por completo; y el estado del dispositivo que se debe verificar antes de que un dispositivo pueda conectarse a la red corporativa.
Además, la IA generativa tiene un potencial increíble para ayudar a todos los defensores a proteger sus organizaciones a la velocidad de las máquinas. El papel de la IA en la ciberseguridad es multifacético e impulsa la innovación y la eficiencia en varios ámbitos. Desde la mejora de la detección de amenazas hasta la optimización de la respuesta a incidentes, las capacidades de la IA remodelan la ciberseguridad. El uso de LLM en ciberseguridad es un testimonio del potencial de la IA. Estos modelos pueden analizar grandes cantidades de datos para descubrir patrones y tendencias en las amenazas cibernéticas, lo que agrega un contexto valioso a la inteligencia de amenazas.
Ayudan en tareas técnicas como la ingeniería inversa y el análisis de malware, lo que proporciona una nueva capa de defensa contra los ciberataques. Por ejemplo, los usuarios de Microsoft Copilot for Security han mostrado un aumento del 44% en la precisión en todas las tareas y una tasa de finalización un 26% más rápida. Estas cifras ponen de manifiesto los beneficios tangibles de integrar la IA en las prácticas de ciberseguridad.