¿Cómo saber si se está haciendo un uso ético de la inteligencia artificial (IA)? ¿Cuáles y cómo establecer los lÃmites en el manejo de los datos? ¿Cómo saber si la información que nos proporciona la IA es exacta o, incluso, real?
“Con la democratización del uso de la IA cualquiera puede crear una plataforma de comercio electrónico o una aplicación móvil, pero sin el conocimiento técnico hay riesgos en cuanto a la protección de datos, transparencia y seguridadâ€, asegura Omar RamÃrez, director de tecnologÃa de Bambú Tech Services, firma mexicana de desarrollo tecnológico a la medida que opera en nuestro paÃs desde hace más de diez años.
En los últimos cinco años se han desarrollado modelos de inteligencia artificial que ya son tan avanzados, que incluso a los expertos les cuesta entender cómo usan esa información los modelos de IA. Con los datos que nosotros les proporcionamos, ya sean privados o públicos, empieza a generar redes neuronales, que son relaciones entre esos datos. “A los seres humanos les cuesta entender cómo se generan esas redesâ€, explica Omar.
Existen dos tipos de datos, los generales y los que son de tipo identificativo. Estos últimos te señalan como una persona en particular. “Como consumidores y usuarios podemos exigir a las empresas o los gobiernos, que no pidan datos identificativos. Sà tendrán datos sobre mi comportamiento en Internet o en redes, mi consumo digital, o el uso que hago de una plataforma o aplicación; pero no especÃficos sobre la identidad de la personaâ€, dice Omar, quien agrega que si se llegaran a solicitar se pueden enmascarar. Asà evitamos que tanto las compañÃas como los gobiernos tengan datos especÃficos sobre la identidad de las personas.
“La parte más importante es definir qué parámetros y códigos de ética aplicas en el funcionamiento de tus agentes de IA dentro de la empresa para lograr los resultados que quieresâ€, explica Alejandro Dabdoub, inversionista, escritor y autor del libro titulado “Más Allá de los Algoritmos: Un Plan Ético para el Liderazgo en IA”, quien considera que la era tecnológica en la que nos encontramos es una oportunidad para abordar temas centrales como la transparencia, responsabilidad, sostenibilidad y valores centrados en el ser humano.
Impacto en el empleo y la economÃa
De acuerdo con el Ãndice de Tendencias Laborales de Microsoft 2025, 89% de los lÃderes empresariales en México planean incorporar agentes digitales como miembros de sus equipos este año.
“Actualmente, tenemos principalmente productos que implementan modelos de IA como ChatGPT, Gemini, etc, lo que se conoce como modelos de lenguaje de gran tamaño (LLM por sus siglas en inglés); pero ya se están implementando de lenguaje pequeños (SLM) en varias empresas del paÃsâ€, asegura Omar RamÃrez, quien indica que un ejemplo serÃa un agente de IA que se encargara de realizar la planificación de campañas digitales, publicara los contenidos e hiciera el seguimiento de la campaña con la generación de reportes.
Esto serÃa una automatización de un proceso en particular mediante un modelo de lenguaje pequeño. También se puede automatizar, por ejemplo, realizar una sesión de fotos para un catálogo digital. Este proceso implicaba contratar modelos, buscar y rentar una locación, un fotógrafo; en su lugar se pueden generar las fotos de catálogo de una empresa para su ecommerce con un agente de IA, lo que significa un ahorro de tiempo, ya que en lugar de invertir 24 o 48 horas, solo te lleva unos minutos. También supone una reducción de costo significativo.
Este y otros productos de IA van a suponer retos a futuro, en los próximos 5 a 10 años tanto para los gobiernos como para las empresas, indica Omar RamÃrez, que lleva más de diez años trabajando con IA.
“Por un lado, será necesario capacitar y ofrecer alternativas para muchos empleados; y desde un punto económico, estos productos pueden generar una deflación en los precios de determinados productos y servicios cuyos costos de producción serán mucho menores. Aunque al principio las empresas tendrán grandes márgenes de beneficios, conforme se incremente la competencia, esto podrÃa generar bajadas de precios significativasâ€, destaca el experto en tecnologÃa.
Uso ético y tecnologÃa centrada en el humano
“La transparencia, uso ético y seguridad que se dé a los agentes de IA reside en el tipo de instrucciones que definimos y como nosotros como seres humanos usamos la informaciónâ€, explica Omar RamÃrez.
En este sentido, Alejandro Dabdoub considera que toda organización, ya sea de la iniciativa privada o del sector público, que decida implementar modelos de lenguaje o agentes de IA, debe establecer lineamientos éticos y siempre mantener al ser humano encima de la IA. “La IA debe ser utilizada como herramienta y evitar que ella nos controle a nosotrosâ€, agrega.
Entre las recomendaciones que hacen los expertos, destaca el uso exclusivo de los datos a nivel interno de la organización, la protección y privacidad de los mismos y que las instrucciones que le demos a los agentes de IA busquen el bien común.
