Imagine por un momento que el gobierno puede medir su lealtad o su falta de compromiso con el país usando un sistema de puntos: entre más comportamientos de lealtad o patrióticos, más puntos; menos conductas “deseables”, menos puntos. Así como hacen las tarjetas de crédito o los sitios web donde calificamos el servicio de restaurantes y hoteles. ¿Cuántas estrellas le da al funcionario público que le atendió en ventanilla? ¿Cuántas al policía, alcalde o diputado?
Pero también ellos le pueden “calificar” a usted. Puede salir reprobado y terminar perdiendo privilegios. Esto es real, le comparto algunos ejemplos.
China es el que más ha avanzado con esta idea. En el 2014, un gobierno local de ese país comenzó a emplear un sistema para premiar acciones que generan confianza en la sociedad y penalizar lo contrario.
La ciudad de Rongcheng en 2013 dio a cada habitante una puntuación inicial de 1,000 que puede aumentar o disminuir según sus acciones. Es un proyecto piloto, pero que puede convertirse en ley. Actualmente los ciudadanos pueden optar por no hacerlo y el gobierno local ha eliminado algunos criterios controvertidos.
El gran problema es: ¿cómo crear un sistema que lo vea todo y lo clasifique como positivo o negativo? La respuesta sería usando Inteligencia Artificial. Actualmente, el “crédito social” (o puntuación) se aplica manualmente. Los “recopiladores de información” humanos se pasean por la ciudad y anotan el mal comportamiento de la gente, según el diario South China Morning Post. La implementación de sistemas no humanos permitiría eliminar la discrecionalidad y los errores en estos procesos. Un algoritmo para automatizar decisiones sin intervención humana podría cambiar este proyecto. Sin embargo, tiene sus desventajas.
Por ejemplo, en Amsterdam, Países Bajos, las autoridades han utilizado algoritmos para clasificar a los jóvenes de los barrios desfavorecidos según su probabilidad de convertirse en delincuentes. El objetivo es prevenir la delincuencia y ofrecer mejores apoyos.
En contraparte, los grupos de derechos humanos de ese país argumentan que ello produce discriminación. Los jóvenes en estas listas son detenidos más veces por la policía, que visita sus domicilios y tienen una supervisión estricta de trabajadores sociales.
Es claro que el uso de algoritmos para el monitoreo social, ya sea para premiar o castigar las sociedades –mediante el esquema de puntos– o bien, para predecir conductas indeseables y tratar de evitarlas –como el caso de Amsterdam– deben ser audítados y regulados por autoridades y empresas que están desarrollando este software.
El tema del control social usando Inteligencia Artificial es muy nuevo, aunque la aspiración de hacerlo por políticos y gobernantes data desde tiempos inmemoriales cuando se ha intentado controlar a las sociedades. Seguramente en el futuro veremos más casos como estos y debamos discutir las leyes que los limiten o definan con mayor precisión su actuación e impacto.
___________________
El autor de la columna “Tecnogob”, Rodrigo Sandoval Almazán, es Profesor de Tiempo Completo SNI Nivel 2 de la Universidad Autónoma del Estado de México. Lo puede contactar en tecnogob@pm.me y en la cuenta de Twitter @horus72.