Los algoritmos de aprendizaje automático o machine learning están mejorando las soluciones ofrecidas por las compañÃas de seguridad, ayudando a mejorar el papel que habitualmente desempeña el analista humano en la labor de clasificar amenazas de una manera más efectiva. No obstante, estas tecnologÃas también están propiciando la aparición de amenazas más complejas.
Ante la explosión del uso de datos y aplicaciones no existe otra alternativa para garantizar seguridad que hacer uso de los sistemas automatizados basados en la inteligencia artificial para analizar el tráfico de la red y las interacciones del usuario.
El problema es que los ciberdelincuentes son conocedores de todo esto y previsiblemente también están trabajando en construir sus propias herramientas de IA y de aprendizaje automático para lanzar ataques más sofisticados.
- Malware más evasivo
El proceso de creación de malware suele ser manual por parte de los ciberdelincuentes. Escriben scripts para formar virus informáticos y troyanos aprovechando los rootkits y robo de credenciales como herramientas para facilitar la ejecución y propagación. ¿Qué sucederÃa si pudieran acelerar este proceso de creación de malware? Con ayuda del aprendizaje automático todo ello puede mejorarse.
El primer ejemplo conocido data del pasado año con un documento titulado “Generación de ejemplos de malware adversa para ataques Black-Box basados en GANâ€. En el informe, los autores revelan cómo construyeron una red adversaria generativa (GAN) con un algoritmo basado en generar muestras de malware capaces de eludir los sistemas de detección basados en el aprendizaje automático empleados por los sistemas de defensa.
Otro ejemplo fue mostrado durante la conferencia DEFCON de 2017 por la compañÃa Endgame, revelando la creación de malware personalizado utilizando el marco OpenAI de Elon Musk.
Otras investigaciones muestran como el aprendizaje automático podrÃa utilizarse en última instancia para modificar el código sobre la marcha en función de cómo y qué se ha detectado en el laboratorio, una extensión del malware polimórfico.
- Botnets inteligentes para ataques escalables
Desde la compañÃa Fortinet aseguran que 2018 va a ser el año del autoaprendizaje de hivenets y swarmbots, hasta el punto de que los dispositivos IoT inteligentes podrán ser dirigidos a atacar sistemas vulnerables de tipo Scada. Serán capaces de hablar entre ellos y tomar medidas basadas en la inteligencia artificial compartida. Los ataques serán de mayor envergadura ampliando sus capacidades para llevar a cabo ataques simultáneos a múltiples vÃctimas e impedir la mitigación y la respuesta.
- Correos spear phishing que se vuelven más inteligentes
Una de las aplicaciones más obvias del aprendizaje automático es el uso de algoritmos como texto a voz, reconocimiento de voz y procesamiento del lenguaje natural (NLP) para una ingenierÃa social más inteligente. Después de todo, a través de redes neuronales recurrentes, ya es posible enseñar estilos de escritura de software. El aprendizaje automático podrÃa facilitar correos avanzados de spear phishing dirigidos a figuras de alto perfil, mientras se automatiza el proceso como un todo. Dichos sistemas podrÃan ser entrenados para identificar vÃctimas potenciales y crear correos electrónicos contextualmente detallados para ataques dirigidos.
Dentro de las predicciones de McAfee Labs, la firma anticipaba que los delincuentes buscarán cada vez más el uso del aprendizaje automático para analizar cantidades inmensas de registros robados con el fin de identificar entre toda la información, registros robados e información valiosa. En base a ello, localizar vÃctimas potenciales y crear correos electrónicos personalizados.
- La inteligencia de las amenazas
En todo lo relacionado con los falsos positivos en la detección de nuevas amenazas, los sistemas de aprendizaje automático ayudarán a los analistas a identificar las amenazas reales provenientes de múltiples sistemas. El hecho de aplicar técnicas de este tipo ofrece avances significativos en el ámbito de la inteligencia de amenazas. Por un lado, el procesamiento y la estructuración de volúmenes tan grandes de datos, incluyendo el análisis de las relaciones complejas dentro de él. Por otro, la automatización que nosotros como seres humanos no podemos llevar a cabo en un perÃodo de tiempo similar, permitiendo usar la tecnologÃa para escalar a volúmenes de información muy superiores que de otra forma no podrÃamos abordar.
- Acceso no autorizado
El uso de máquinas vectoriales de soporte SVM para romper un sistema que se ejecuta en imágenes reCAPTCHA ya fue utilizado en el pasado. Todos los mecanismos de captcha se han ido mejorando con el paso del tiempo, pero los investigadores alertan de que estas metodologÃas de aprendizaje automático permitirán superar todas estas barreras que se superponen a estas medidas, con un porcentaje elevadÃsimo de precisión.
- Envenenar el motor de aprendizaje automático
Una técnica que también se baraja más simple, pero efectiva, es que el motor de aprendizaje automático utilizado para detectar malware podrÃa ser envenenado, dejándolo ineficaz, al igual que los delincuentes han hecho con los motores antivirus en el pasado. Suena bastante simple puesto que el modelo de aprendizaje automático aprende de los datos de entrada. Si ese grupo de datos está envenenado, la salida también se envenena. Investigadores de la Universidad de Nueva York demostraron cómo las redes neuronales convolucionales (CNN) podrÃan utilizarse para producir estos resultados falsos pero controlados a través de CNN como Google, Microsoft o AWS.
IDG News
