La noticia de que la IA de Google: Gemini, tendrá de forma predeterminada el acceso a aplicaciones de terceros como WhatsApp, enciende serias alertas en torno a la privacidad. Las apps de mensajerÃa se encuentran entre los espacios digitales más sensibles para los usuarios, ya que contienen conversaciones Ãntimas, datos personales y potencialmente, información confidencial. Conceder a una herramienta de IA acceso automático a estos mensajes sin un consentimiento claro y explÃcito, debilita fundamentalmente la confianza de los usuarios.
Si bien Google afirma que esta función está diseñada para hacer que las interacciones sean más fluidas, la falta de transparencia y el enfoque de exclusión voluntaria en lugar de inclusión voluntaria podrÃan dejar a muchos usuarios sin saber que sus chats privados están siendo procesados por un sistema de IA.
Desde una perspectiva de ciberseguridad, esto resulta preocupante. Los ciberdelincuentes están aprovechando cada vez más la IA para escalar ataques de ingenierÃa social y recopilar datos personales. Si los actores maliciosos encuentran la forma de abusar de estas integraciones, podrÃa crearse un nuevo vector para el fraude, el robo de identidad y otras actividades delictivas.
“La IA deberÃa fortalecer la seguridad y la privacidad, no comprometerlas. Conceder acceso por defecto a datos altamente personales sin salvaguardas sólidas establece un precedente peligroso. Las empresas siempre deben centrarse en empoderar a los usuarios con control total y claridad sobre cómo se usa su información, y garantizar que la implementación de la IA ponga la privacidad en primer lugarâ€, comentó Marc Rivero, analista principal de ciberseguridad en el Equipo Global de Investigación y Análisis en Kaspersky.
