Contenido Exclusivo

¿Podría la Inteligencia Artificial conducirnos a una guerra entre máquinas?

logo-CIO-15-anosEn el futuro, los hackers no serán necesariamente seres humanos. La Inteligencia Artificial (AI) –una tecnología que también promete revolucionar la ciberseguridad– podría convertirse algún día en la herramienta de hacking.

Los organizadores del Cyber ​​Grand Challenge, un concurso patrocinado por la agencia de defensa estadounidense (DARPA) hicieron un experimento, en el cual siete supercomputadoras se enfrentaron entre sí para demostrar que las máquinas pueden “encontrar” y “corregir” vulnerabilidades de software.

Teóricamente, la tecnología se puede utilizar para perfeccionar cualquier codificación, librándola de los defectos. Pero, ¿y si ese poder fuera usado con fines maliciosos? El futuro de la ciberdefensa también podría allanar el camino para una nueva era de hackeo.

Algunos peligros posibles

Por ejemplo, los ciberdelincuentes pueden utilizar esas capacidades para analizar el software de vulnerabilidades previamente desconocidas y luego explotarlas para mal. Sin embargo, a diferencia de un ser humano, la AI puede hacer esto con la eficiencia de la máquina. Los hackers que consumían mucho tiempo para desarrollarse podrían convertirse en productos baratos en este escenario de pesadilla.

Es un riesgo que los expertos en ciberseguridad conocen bien, en un momento en el cual la industria de TI está desarrollando automóviles autodirigidos, robots avanzados y otras formas de automatización. 

La compañía de Melski fue una de las que construyó una supercomputadora para participar en el Cyber ​​Grand Challenge de agosto. La firma está considerando usar esa tecnología para ayudar a los vendedores a prevenir fallos en sus dispositivos de IoT o hacer que los navegadores de Internet sean más seguros.

“Sin embargo, el descubrimiento de vulnerabilidades es una espada de doble filo”, asegura David Melski, vicepresidente de investigación de GrammaTech. 

Por lo tanto, no es difícil para los expertos en seguridad imaginar un lado oscuro potencial –uno donde la Inteligencia Artificial puede construir o controlar poderosas ciberguerras. Melski señaló el caso de Stuxnet, un gusano de computadoras malintencionado diseñado para interrumpir el programa nuclear de Irán.

Aprovechar el potencial

Es posible que estos servicios de ‘rent-a-hacker’ eventualmente incorporen tecnologías IA que puedan diseñar estrategias de ataque completas, lanzarlas y calcular la tarifa asociada. 

Sin embargo, todavía ninguna empresa ha creado una verdadera inteligencia artificial. La industria en su lugar ha llegado a tecnologías que pueden jugar mejor que un ser humano, actuar como asistentes digitales, o incluso diagnosticar enfermedades raras.

Empresas de ciberseguridad como Cylance también han estado utilizando un subconjunto de AI llamado aprendizaje de máquinas para detener el malware. Se trata de la construcción de modelos matemáticos basados ​​en muestras de malware que pueden medir si determinada actividad en un ordenador es normal o no.

En escalada

Un inconveniente es que el uso de la máquina de aprendizaje puede ser caro. Cualquier persona que intente utilizar las tecnologías de IA con fines maliciosos se enfrentaría a esta barrera de entrada. Además, también tendrá que contar con los mejores profesionales para desarrollar la programación. Pero con el tiempo, los costos disminuirán.

Sin embargo, el día en que los piratas informáticos recurran al uso de la AI puede estar lejos. Hasta ahora no se ha hecho, simplemente porque no es necesario, hay suficientes defectos conocidos. Muchos hackeos se producen después de que un correo electrónico de phishing que contiene malware se envía al destino. En otros casos, las víctimas aseguraron sus inicios de sesión con contraseñas débiles o se olvidaron de actualizar su software con el último parche, haciéndolos más fáciles de hackear.

Las tecnologías de IA como el aprendizaje automático ha mostrado el potencial para resolver algunos de estos problemas, dijo Justin Fier, director de ciberinteligencia de la empresa de seguridad Darktrace. Pero puede ser sólo una cuestión de tiempo antes de que los hackers eventualmente mejoren su arsenal. “Parece que estamos entrando en un mundo de guerra cibernética máquina versus máquina”, concluyó Fier.

Lo Más Reciente

Tenable descubre nuevas técnicas de ataque en software de código abierto

El equipo de investigación de seguridad en la nube...

Shopperbot: robot mexicano que ayuda a tomar mejores decisiones de compra

Como parte de las soluciones para impulsar la hiperpersonalización...

Los ‘Scam-Yourself Attacks’ aumentan 614% en el tercer trimestre del año: informe

Los 'Scam-Yourself Attacks' o "ataques de estafa”, en los...

Newsletter

Recibe lo último en noticias e información exclusiva.

José Luis Becerra Pozas
José Luis Becerra Pozashttps://iworld.com.mx
Es Editor de CIO Ediworld México. Contáctalo en jbecerra@ediworld.com.mx o en el twitter @CIOMexico.

Tenable descubre nuevas técnicas de ataque en software de código abierto

El equipo de investigación de seguridad en la nube de Tenable descubrió nuevas técnicas de ataque en los Lenguajes Específicos de Dominio (DSLs, por...

“Mejorar la visibilidad en el ecosistema tecnológico, interno y de cara al cliente” : José Armando López Flores, CISO de Crediclub

“Queremos ser esa institución financiera que cubra con las expectativas de los clientes a través de garantizarles que su patrimonio estará seguro”. Con el objetivo...

Shopperbot: robot mexicano que ayuda a tomar mejores decisiones de compra

Como parte de las soluciones para impulsar la hiperpersonalización en la atención al cliente por medio de la tecnología, PepsiCo México desarrolló a Shopperbot....