La revolución de la inteligencia artificial (IA) generativa ha traído consigo un fenómeno inesperado: el aumento masivo de contenido de baja calidad, denominado AI slop o basura digital. Plataformas como TikTok, YouTube o
El fenómeno creció especialmente en mayo de 2024, cuando el modelo Gemini de Google se integró en los resultados de búsqueda en Estados Unidos y la función AI Overview empezó a generar respuestas automáticas en lugar de mostrar directamente enlaces. Según expertos de la Universitat Oberta de Catalunya (UOC), la masificación de contenido implica algunos riesgos como la saturación o el ruido por contenido vacío, la desinformación o la crisis de confianza en internet.
“El principal riesgo es que internet se llene de ‘ruido’: textos vacíos, repetitivos o engañosos que ocultan la información útil”, explica Antonio Pita Lozano, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC e investigador del grupo ICSO. Esta masificación dificulta encontrar contenido de valor y también puede debilitar la confianza en dicho contenido, porque se desconoce si detrás hay una persona informada o simplemente una máquina soltando “frases bonitas pero vacías”, añade.
¿Existen soluciones técnicas para frenar la avalancha de basura digital? “Sí, pero no son mágicas”, advierte el profesor de la UOC. Las plataformas pueden usar filtros automáticos, herramientas de detección de contenido duplicado o mecanismos para verificar la autoría y la calidad. El problema es que estas soluciones llegan con retraso: los generadores de contenido basura evolucionan muy rápidamente, y distinguirlos de los que generan contenido de calidad no es tan fácil como parece.
La necesidad de regular el AI slop
De hecho, continúa el experto, los creadores de contenido generados por IA tratan de adecuarlo a lo que piden las plataformas de contenido, de forma que desplazan rápidamente al resto. “Se está trabajando en normativas para poder establecer las reglas. Un ejemplo interesante es el de China, que ha establecido regulaciones para controlar el contenido generado por IA. Estas medidas incluyen la obligación de etiquetar claramente el contenido creado por inteligencia artificial y asegurar que los datos utilizados para entrenar estos modelos sean precisos y no infrinjan derechos de autor”, explica Pita.
La Unión Europea ya ha adoptado medidas para frenar la inundación de contenido de baja calidad generado por IA. En 2024, Bruselas aprobó la Ley de Inteligencia Artificial (AI Act), que, entre otras cosas, impone obligaciones de transparencia, como etiquetar el contenido sintético para advertir a los usuarios. En contraposición, Estados Unidos aún carece de una regulación específica contra esta “contaminación digital”, y se apoya principalmente en iniciativas voluntarias de la industria mientras se debate la introducción de leyes similares en el futuro. Entre los enfoques emergentes comunes, destaca la exploración de marcas de agua digitales y sistemas de procedencia de contenido para identificar automáticamente el material generado por IA, con el objetivo de complementar las medidas regulatorias vigentes o en desarrollo.
¿Puede la inteligencia artificial formar parte también de la solución? “Sí, y de hecho ya lo está haciendo”, responde Pita. La misma tecnología que genera textos puede entrenarse para identificar cuándo un contenido es superficial o manipulador. La IA puede ayudarnos a clasificar y resumir contenidos, comparar fuentes y detectar patrones sospechosos. “Pero necesita reglas claras, éticas y un buen criterio humano detrás: si dejamos que la IA lo decida todo sola, el remedio puede ser peor que la enfermedad”, asegura el profesor.
Silvia Martínez Martínez, profesora de los Estudios de Ciencias de la Información y de la Comunicación de la UOC e investigadora del grupo GAME, advierte que la presencia de AI slop ya está afectando negativamente a la experiencia de uso de las redes sociales. La mayoría de los internautas se han topado en algún momento con este tipo de contenido. “Si no se adoptan medidas, la incidencia de este tipo de materiales aumentará, tanto por el incremento de mensajes como por el contacto prolongado con el usuario”, señala.
La primera consecuencia de esta saturación sería la sensación de pérdida de tiempo, al no encontrar contenido de valor. Pero los efectos podrían ser aún más graves si se tienen en cuenta los usos maliciosos del AI slop, como la generación de incertidumbre, confusión o desinformación. “La experiencia en las plataformas podría no ser tan satisfactoria como el usuario desearía, y se podría generar un mayor escepticismo respecto al contenido consumido”, alerta Martínez, también directora del máster universitario de Social Media: Gestión y Estrategia.
Además, el usuario podría percibir que está siendo utilizado para generar interacción o aumentar el número de visualizaciones y seguidores, lo que podría hacerle participar de forma más comedida.
Pérdida de confianza en la red
Un análisis reciente de Harvard Business Review alerta de que la expansión de contenido generado por inteligencia artificial está agravando la crisis de confianza en internet. La proliferación del llamado AI slop —material irrelevante, impreciso o engañoso producido a gran escala por máquinas— no solo deteriora la calidad de la información disponible, sino que contribuye a una sensación de saturación y desconfianza entre los usuarios. La situación se ha visto agravada por los recortes en moderación humana en grandes plataformas como Meta, YouTube oX, que han reemplazado buena parte de sus equipos por sistemas automatizados incapaces de frenar la avalancha de basura digital.
El artículo subraya que, aunque iniciativas como el marcaje de contenido(watermarking) y las nuevas regulaciones de Estados Unidos y la Unión Europea buscan etiquetar y controlar los materiales generados por IA, la aplicación de estas medidas es desigual y deja más expuestas a las regiones que no forman parte de estos grandes mercados. Además, advierte que, dado el avance de las ultrafalsificaciones (deep
Respecto a la responsabilidad de las plataformas, la experta de la UOC subraya que son estas las que, a través de sus algoritmos, condicionan la experiencia de los usuarios y priorizan el contenido que más puede captar su atención. “Si al conectarnos solo encontramos contenido basura o que no aporta valor, eso repercutirá directamente en los objetivos de las plataformas”, explica. Por este motivo, resulta lógico que algunas empiecen a anunciar medidas para combatir el AI slop, como sistemas automáticos de detección o marcaje para intentar recuperar la confianza de los usuarios. Sin embargo, Martínez también advierte de que estas soluciones no siempre son efectivas.
Finalmente, Silvia Martínez apunta que, aunque el contenido generado por IA pueda percibirse como irreal o poco útil, en algunos casos tambiénlogra captar la atención de ciertos usuarios. Esto puede llevar a que las plataformas, aun identificando que este contenido está generado por una IA, los sigan promocionando para maximizar la interacción. “Será interesante ver cómo se logra el equilibrio entre las medidas adoptadas y los intereses cruzados”, concluye.