Contenido Exclusivo

Posibles riesgos de un robot hackeado

Los robots pueden extraer información confidencial de las personas que confían en ellos, cuando las persuaden a tomar medidas inseguras. Por ejemplo, en ciertos escenarios, la presencia de un robot puede tener un gran impacto en la disposición de las personas a dar acceso a edificios seguros, así lo dio a conocer una investigación realizada por Kaspersky y la Universidad de Gante.

Según algunas estimaciones, el uso de sistemas robóticos serán la norma para los hogares con más recursos económicos en 2040. Actualmente, la mayoría de estos sistemas robóticos se encuentran en la etapa de investigación académica y es demasiado pronto para discutir cómo incorporar medidas de ciberseguridad.

Sin embargo, la investigación de Kaspersky y la Universidad de Gante ha encontrado una nueva e inesperada dimensión de riesgo relacionada con la robótica: el impacto social que tiene en el comportamiento de las personas, así como el peligro potencial y el vector de ataque que esto conlleva.

La investigación se enfocó en el impacto de un robot social específico, el cual fue diseñado y programado para interactuar con personas que utilizan canales similares a los humanos, como el lenguaje oral o la comunicación no verbal, y alrededor de 50 participantes. Suponiendo que los robots sociales pudieran ser hackeados y que un atacante hubiera tomado el control en este escenario, la investigación imaginó los posibles riesgos de seguridad relacionados con el robot al influir activamente en sus usuarios para hacerles actuar de cierta forma, por ejemplo:

  • Obtener acceso a lugares donde está prohibido. El robot fue colocado cerca de una entrada segura de un edificio de uso mixto en el centro de la ciudad de Gante, Bélgica, y le preguntó al personal si podía seguirles al entrar. Al área solo se puede acceder, de manera predeterminada, tocando con un pase de seguridad los lectores de acceso de las puertas. Durante el experimento, no todo el personal realizó lo solicitado por el robot, pero el 40% desbloqueó la puerta y la mantuvo abierta para permitir que el robot ingresara al área segura. Sin embargo, cuando el robot fue situado como si fuera un repartidor de pizza, sosteniendo una caja de una conocida marca internacional de comida para llevar, el personal aceptó fácilmente la función del robot y parecía menos inclinado a cuestionar su presencia o sus razones para necesitar acceso al área segura.
  • Extraer información confidencial. La segunda parte del estudio se centró en obtener información personal que normalmente se usa para restablecer contraseñas (como la fecha de nacimiento, la marca del primer automóvil, el color favorito, etc.). Una vez más, se utilizó el robot social, esta vez invitando a las personas a entablar una conversación amistosa. Con todos los participantes menos uno, los investigadores lograron obtener información personal a una velocidad de aproximadamente un asunto por minuto.


Al comentar sobre los resultados del experimento, Dmitry Galov, investigador de seguridad de Kaspersky, dijo: “Al comienzo de la investigación, examinamos el software utilizado en el desarrollo del sistema robótico. Curiosamente, encontramos que los programadores toman una decisión consciente de excluir los mecanismos de seguridad y, en cambio, se centran en el desarrollo de la comodidad y la eficiencia”.

Sin embargo, agregó, como lo han demostrado los resultados de nuestro experimento, los programadores no deben olvidarse de los estándares de seguridad una vez que se completa la etapa de investigación. Además de las consideraciones técnicas, hay aspectos clave que deben ser atendidos cuando se trata de la seguridad de la robótica.

Por su parte, Tony Belpaeme, profesor de Inteligencia Artificial y Robótica en la Universidad de Gante, agregó: “La literatura científica indica que la confianza en los robots, y específicamente en los robots sociales, es real y puede usarse para persuadir a las personas a que tomen ciertas medidas o revelen información. En general, cuanto más humano es el robot, más poder tiene de persuadir y convencer. Nuestro experimento ha demostrado que esto podría conllevar riesgos de seguridad importantes: las personas tienden a no considerarlos, suponiendo que el robot es benevolente y confiable. Esto proporciona un conducto potencial para ataques maliciosos y los tres estudios de caso discutidos en el informe son solo una fracción de los riesgos de seguridad que se relacionan con los robots sociales. Es por eso que es crucial colaborar ahora para comprender y abordar los riesgos y vulnerabilidades emergentes, lo que valdrá la pena en el futuro”.

Lo Más Reciente

Tenable descubre nuevas técnicas de ataque en software de código abierto

El equipo de investigación de seguridad en la nube...

Shopperbot: robot mexicano que ayuda a tomar mejores decisiones de compra

Como parte de las soluciones para impulsar la hiperpersonalización...

Los ‘Scam-Yourself Attacks’ aumentan 614% en el tercer trimestre del año: informe

Los 'Scam-Yourself Attacks' o "ataques de estafa”, en los...

Newsletter

Recibe lo último en noticias e información exclusiva.

Mireya Cortés
Mireya Cortés
Editora CIO Ediworld Online. La puedes contactar en mcortes@ediworld.com.mx

Tenable descubre nuevas técnicas de ataque en software de código abierto

El equipo de investigación de seguridad en la nube de Tenable descubrió nuevas técnicas de ataque en los Lenguajes Específicos de Dominio (DSLs, por...

“Mejorar la visibilidad en el ecosistema tecnológico, interno y de cara al cliente” : José Armando López Flores, CISO de Crediclub

“Queremos ser esa institución financiera que cubra con las expectativas de los clientes a través de garantizarles que su patrimonio estará seguro”. Con el objetivo...

Shopperbot: robot mexicano que ayuda a tomar mejores decisiones de compra

Como parte de las soluciones para impulsar la hiperpersonalización en la atención al cliente por medio de la tecnología, PepsiCo México desarrolló a Shopperbot....