Contenido Exclusivo

¡Ya está aquí la Revista Digital “Los Mejores 20 CISO de México 2025”!

CIO Ediworld lo invita a sumergirse en el contenido de la...

¡Descarga la Revista Digital “Los Mejores 100 CIO de México 2025”!

Descarga la revista digital CIO Ediworld Edición Especial "Los...

IA generativa: ¿cómo prevenir riesgos potenciales y cuidar la seguridad de los datos?

En México, las empresas adoptan cada vez más un enfoque de Inteligencia Artificial, integrando tecnologías avanzadas en cada aspecto de sus operaciones, no obstante, el 64% de las organizaciones no tiene un presupuesto destinado para ciberseguridad, el 31% no cuenta con personal asignado para dicho fin y 35% sólo cuenta con una persona especializada, según los resultados del Tercer Estudio de Ciberseguridad en México 2023, de la Asociación Mexicana de Internet (AIMX).

Además, las amenazas cibernéticas en el país crecen año con año. Datos de la Universidad de Guadalajara y de la Dirección General Científica de la Guardia Nacional revelan que de septiembre de 2020 a abril de 2022 se atendieron 34,000 reportes ciudadanos en materia de ciberseguridad, principalmente relacionados con secuestro de datos bancarios, institucionales o personales.

Ante este panorama, la necesidad de medidas robustas de seguridad de datos nunca ha sido tan crítica. La rápida evolución de las tecnologías de IA, particularmente los Modelos de Lenguaje Grandes (LLMs) como ChatGPT, presenta nuevos desafíos y oportunidades en la gestión y seguridad de datos.

De acuerdo con una reciente publicación de la multinacional tecnológica EPAM Systems Inc., aliada en la transformación digital de gigantes tecnológicos como Google y Adobe, hay aspectos esenciales que las empresas deben tener en cuenta para salvaguardar su información en el tránsito hacia la optimización de sus procesos con IA.

El desafío de la predictibilidad y reproducibilidad en la IA

Los sistemas informáticos tradicionales se basan en los fundamentos de la repetibilidad y la predictibilidad. Sin embargo, los LLMs, debido a su naturaleza compleja, a menudo producen resultados que no son fácilmente reproducibles, planteando preocupaciones significativas sobre la confiabilidad y la integridad de los datos.

El uso de LLMs implica el procesamiento de vastas cantidades de datos, incluida información sensible y personalmente identificable. Esto plantea preguntas apremiantes sobre la privacidad de los datos y el riesgo de exposición. Los problemas críticos incluyen:

Eliminación de datos: Una vez que los datos se introducen en un modelo de IA, eliminarlos puede ser difícil, si no imposible, especialmente cuando se trata de conjuntos de datos a gran escala que evolucionan con el tiempo.

Confidencialidad: La visibilidad de datos potencialmente mal clasificados o no protegidos es considerablemente mayor en los sistemas de IA, lo que amplifica los riesgos relacionados con las violaciones de datos.

Obligaciones del procesador: Asegurar que los usuarios puedan optar por participar o no participar en el procesamiento de datos se está volviendo cada vez más complejo, lo que dificulta proteger efectivamente la privacidad de los usuarios finales.

Pedigrí y procedencia de los datos: En la era de la computación en la nube y los LLMs, rastrear la procedencia de los segmentos de datos para verificar su autenticidad presenta nuevas complejidades técnicas.

Un llamado a la acción para las empresas con los datos y la IA

El cambio hacia la IA requiere un cambio de paradigma en cómo percibimos la seguridad de datos y la gestión de riesgos. Es crucial para las empresas: a) tener en cuenta aceptar la naturaleza de «escala de grises» de la seguridad de IA, reconociendo que las visiones binarias de la seguridad de los datos son insuficientes; b) equilibrar la innovación con la mitigación de riesgos, asegurando que las exploraciones en IA no comprometan la seguridad de los datos; c) revisar Estrategias de Seguridad: Adoptar enfoques de ciberseguridad multifacéticos y ágiles que evolucionen con la tecnología.

Una mirada segura hacia el futuro

La integración de la IA en los procesos empresariales no es solo una oportunidad, es una necesidad para mantenerse competitivo. Sin embargo, esto debe ir acompañado de estrategias que garanticen la integridad, confidencialidad y cumplimiento de los datos con las regulaciones en constante evolución. A medida que continuamos avanzando en nuestras capacidades de IA, el enfoque en desarrollar sistemas seguros, transparentes y confiables sigue siendo primordial.

Lo Más Reciente

¿Por qué los endpoints son el nuevo epicentro del riesgo?

El panorama de la ciberseguridad en México atraviesa una...

Yucatech Festival 2026 rompe paradigmas de la IA y ciberseguridad

Yucatech Festival 2026 exploró temas estratégicos como la inteligencia...

Yucatech Festival 2026: IA ¿aliada o enemiga?

Mérida, Yucatán. En tan solo tres años los ciberataques...

Tecnología y cumplimiento normativo: el nuevo campo de batalla para las empresas en México

En México, el cumplimiento normativo se ha convertido en...

Newsletter

Recibe lo último en noticias e información exclusiva.

José Luis Becerra Pozas
José Luis Becerra Pozashttps://iworld.com.mx
Es Editor de CIO Ediworld México. Contáctalo en jbecerra@ediworld.com.mx o en el twitter @CIOMexico.

¿Por qué los endpoints son el nuevo epicentro del riesgo?

El panorama de la ciberseguridad en México atraviesa una fase crítica donde la transformación digital ha redefinido los puntos de riesgo, desplazando el foco...

Yucatech Festival 2026 rompe paradigmas de la IA y ciberseguridad

Yucatech Festival 2026 exploró temas estratégicos como la inteligencia artificial y ciberseguridad donde destacados divulgadores de YouTube y expertos reconocidos internacionales se encargaron de...

Yucatech Festival 2026: IA ¿aliada o enemiga?

Mérida, Yucatán. En tan solo tres años los ciberataques se han quintuplicado por la inteligencia artificial, mientras que el costo  global que las empresas...