Contenido Exclusivo

¡Ya está aquí la Revista Digital “Los Mejores 20 CISO de México 2025”!

CIO Ediworld lo invita a sumergirse en el contenido de la...

¡Descarga la Revista Digital “Los Mejores 100 CIO de México 2025”!

Descarga la revista digital CIO Ediworld Edición Especial "Los...

Riesgo de deflación, transformación laboral y falta de ética: principales riesgos de la IA

¿Cómo saber si se está haciendo un uso ético de la inteligencia artificial (IA)? ¿Cuáles y cómo establecer los límites en el manejo de los datos? ¿Cómo saber si la información que nos proporciona la IA es exacta o, incluso, real?

“Con la democratización del uso de la IA cualquiera puede crear una plataforma de comercio electrónico o una aplicación móvil, pero sin el conocimiento técnico hay riesgos en cuanto a la protección de datos, transparencia y seguridad”, asegura Omar Ramírez, director de tecnología de Bambú Tech Services, firma mexicana de desarrollo tecnológico a la medida que opera en nuestro país desde hace más de diez años.

En los últimos cinco años se han desarrollado modelos de inteligencia artificial que ya son tan avanzados, que incluso a los expertos les cuesta entender cómo usan esa información los modelos de IA. Con los datos que nosotros les proporcionamos, ya sean privados o públicos, empieza a generar redes neuronales, que son relaciones entre esos datos. “A los seres humanos les cuesta entender cómo se generan esas redes”, explica Omar.

Existen dos tipos de datos, los generales y los que son de tipo identificativo. Estos últimos te señalan como una persona en particular. “Como consumidores y usuarios podemos exigir a las empresas o los gobiernos, que no pidan datos identificativos. Sí tendrán datos sobre mi comportamiento en Internet o en redes, mi consumo digital, o el uso que hago de una plataforma o aplicación; pero no específicos sobre la identidad de la persona”, dice Omar, quien agrega que si se llegaran a solicitar se pueden enmascarar. Así evitamos que tanto las compañías como los gobiernos tengan datos específicos sobre la identidad de las personas.

“La parte más importante es definir qué parámetros y códigos de ética aplicas en el funcionamiento de tus agentes de IA dentro de la empresa para lograr los resultados que quieres”, explica Alejandro Dabdoub, inversionista, escritor y autor del libro titulado “Más Allá de los Algoritmos: Un Plan Ético para el Liderazgo en IA”, quien considera que la era tecnológica en la que nos encontramos es una oportunidad para abordar temas centrales como la transparencia, responsabilidad, sostenibilidad y valores centrados en el ser humano.

Impacto en el empleo y la economía

De acuerdo con el Índice de Tendencias Laborales de Microsoft 2025, 89% de los líderes empresariales en México planean incorporar agentes digitales como miembros de sus equipos este año.

“Actualmente, tenemos principalmente productos que implementan modelos de IA como ChatGPT, Gemini, etc, lo que se conoce como modelos de lenguaje de gran tamaño (LLM por sus siglas en inglés); pero ya se están implementando de lenguaje pequeños (SLM) en varias empresas del país”, asegura Omar Ramírez, quien indica que un ejemplo sería un agente de IA que se encargara de realizar la planificación de campañas digitales, publicara los contenidos e hiciera el seguimiento de la campaña con la generación de reportes.

Esto sería una automatización de un proceso en particular mediante un modelo de lenguaje pequeño. También se puede automatizar, por ejemplo, realizar una sesión de fotos para un catálogo digital. Este proceso implicaba contratar modelos, buscar y rentar una locación, un fotógrafo; en su lugar se pueden generar las fotos de catálogo de una empresa para su ecommerce con un agente de IA, lo que significa un ahorro de tiempo, ya que en lugar de invertir 24 o 48 horas, solo te lleva unos minutos. También supone una reducción de costo significativo.

Este y otros productos de IA van a suponer retos a futuro, en los próximos 5 a 10 años tanto para los gobiernos como para las empresas, indica Omar Ramírez, que lleva más de diez años trabajando con IA.

“Por un lado, será necesario capacitar y ofrecer alternativas para muchos empleados; y desde un punto económico, estos productos pueden generar una deflación en los precios de determinados productos y servicios cuyos costos de producción serán mucho menores. Aunque al principio las empresas tendrán grandes márgenes de beneficios, conforme se incremente la competencia, esto podría generar bajadas de precios significativas”, destaca el experto en tecnología.

Uso ético y tecnología centrada en el humano

“La transparencia, uso ético y seguridad que se dé a los agentes de IA reside en el tipo de instrucciones que definimos y como nosotros como seres humanos usamos la información”, explica Omar Ramírez.

En este sentido, Alejandro Dabdoub considera que toda organización, ya sea de la iniciativa privada o del sector público, que decida implementar modelos de lenguaje o agentes de IA, debe establecer lineamientos éticos y siempre mantener al ser humano encima de la IA. “La IA debe ser utilizada como herramienta y evitar que ella nos controle a nosotros”, agrega.

Entre las recomendaciones que hacen los expertos, destaca el uso exclusivo de los datos a nivel interno de la organización, la protección y privacidad de los mismos y que las instrucciones que le demos a los agentes de IA busquen el bien común.

Lo Más Reciente

El impacto de la IA avanzada en la seguridad digital

Sophos explica que el modelo tradicional de seguridad digital...

Shadow AI: Los empleados ya están filtrando información de la empresa

La adopción de inteligencia artificial en las empresas está...

Más de un millón de cuentas bancarias fueron comprometidas

Más de un millón de cuentas de banca en...

¿Basta con el control parental? Los riesgos digitales que aún acechan a los niños

La vida digital de niños y adolescentes ha dejado...

Newsletter

Recibe lo último en noticias e información exclusiva.

El impacto de la IA avanzada en la seguridad digital

Sophos explica que el modelo tradicional de seguridad digital funciona bajo una dinámica relativamente conocida: se descubre una vulnerabilidad, el proveedor libera un parche...

Shadow AI: Los empleados ya están filtrando información de la empresa

La adopción de inteligencia artificial en las empresas está creciendo más rápido que su regulación interna. Mientras las organizaciones buscan capitalizar sus beneficios, un...

Más de un millón de cuentas bancarias fueron comprometidas

Más de un millón de cuentas de banca en línea fueron comprometidas en 2025, según un informe de Kaspersky, que advierte un cambio en...