Imagine esta situación por un momento: usted es un asesor de un secretario de Estado al que le han pedido que diseñe una política pública para construir hospitales en zonas de extrema pobreza.
Sus conocimientos sobre Inteligencia Artificial le mueven a “hacer la prueba” y pedirle a ChatGPT que elabore la propuesta de dicha política pública. Le escribe algunos datos como: población, objetivo de la política, costo, etc, y en un minuto ya tiene el borrador escrito de la política pública.
Cuál sería su sorpresa de que el secretario la apoya y el Congreso la aprueba. De repente, ya se tiene presupuesto y los hospitales se están construyendo. Pasan los meses y entonces se da cuenta que ChatGPT usó datos del año 2022, y sólo consideró algunas variables: se le “olvidó” calcular el incremento de población, el impacto político, las consecuencias económicas y el número de pacientes con cáncer y diabetes, las enfermedades de mayor crecimiento en el país. Se da cuenta que los hospitales propuestos no fueron suficientes, ni siquiera llegaron a la población objetivo. ¿El culpable fue el ChatGPT o quien lo manejó?
¿En dónde estuvo la falla?
El primer riesgo que tenemos con los Modelos de Lenguaje Largo (LLM), con el que están construidos Gemini, Claude y ChatGPT, es que son fantásticos para construir textos, propuestas, informes, pero sólo como una combinación de palabras. Sus posibilidades de “razonar”,”entender”, o “explicar ideas” aún es limitada. Mucho menos pueden predecir un conjunto de factores como lo es la salud y cantidad de pacientes u hospitales necesarios con sólo crear un prompt que detalle el texto. Este es el riesgo de no capacitar a los funcionarios públicos y dejarlos con el libre uso de las herramientas de IA.
Un segundo riesgo es que “construyan datos” con los cuales se tomen las decisiones. Veamos el caso ficticio de Pedro, un alto funcionario amante de la tecnología, quien le ha pedido a ChatGPT un análisis de datos sobre el crecimiento inflacionario y su impacto en la industria automotriz, para tomar una decisión sobre las importaciones y exportaciones que se deben operar el día de hoy.
De nueva cuenta, redacta el prompt y recibe un conjunto de datos. Si lo hizo en Gemini, seguramente los datos fueron obtenidos del INEGI y otras fuentes oficiales, pero si lo construyó para ChatGPT o Claude, las fuentes serán periódicos, revistas, blogs e Internet.
Pedro le presenta su informe al secretario de Estado (que seguramente tiene “otros datos”) y a sus asesores, quienes lo corrigen y exponen públicamente que la información es inexacta o por lo menos desactualizada, por lo cual no se pueden tomar decisiones con ellos. Este es otro gran riesgo del uso arbitrario de la Inteligencia Artificial generativa.
Si Pedro hubiera “subido” sus propios datos y utilizado cualquiera de las plataformas de LLMs, el resultado sería otro, con mucha mayor precisión y le habrían servido como herramientas para construir la información en menor tiempo y con mayor eficacia. De nuevo, el desconocimiento, la falta de información y de capacitación conducen a estos “errores” en el uso de nuevas tecnologías. Por lo antes expuesto, espero que la IA no alcance todavía al sector público.
_____________
El autor de la columna Tecnogob”, Rodrigo Sandoval Almazán, es Profesor de Tiempo Completo SNI Nivel 2 de la Universidad Autónoma del Estado de México. Lo puede contactar en tecnogob@pm.me y en la cuenta de Threads @horus72.