Miércoles 06 de Agosto de 2025, 22:22
Navegar por
internet ya no se siente como una exploración libre, sino más bien como recorrer la bandeja de spam. Lo que alguna vez fue un espacio de interacción humana se parece cada vez más a una
simulación saturada de contenido sin alma. Las redes sociales están al frente de esta transformación: en Instagram proliferan videos con una estética inquietante, en Twitter compiten humanos y bots por captar atención, LinkedIn se convirtió en una feria de listas aspiracionales, Spotify aloja músicos sin rostro, TikTok oscila entre la repetición y el absurdo, y Facebook... sigue ahí, como un eco tardío del resto.
Este fenómeno responde a una dinámica que el
escritor Cory Doctorow denominó
enshittification —traducido como “mierdificación”—, que describe el proceso mediante el cual las plataformas
optimizan el contenido únicamente para generar interacción, sacrificando autenticidad, calidad y sentido. Es contenido creado simplemente para circular. Y con la irrupción de la
inteligencia artificial generativa, la escala del problema se disparó.
Modelos como ChatGPT y herramientas de generación de imágenes o audio facilitaron la
producción masiva de contenido sintético. Si bien estas tecnologías no nacieron con el fin de inundar la web de basura, su bajo costo y rapidez para crear “algo” las convirtieron en el motor de una
ola de textos, imágenes y videos genéricos que compiten en una carrera de fuerza bruta por colarse en nuestros feeds.
Este fenómeno fue bautizado por el
periodista Jason Koebler como AI slop, o “bazofia de IA”, y lo define como un ataque sistemático a los algoritmos que rigen la web: miles de intentos automáticos para ver qué engancha, sin importar su calidad o veracidad. El resultado: un paisaje digital colonizado por criaturas absurdas, recetas imposibles, frases motivacionales apócrifas y contenido creado por y para la máquina.
La línea entre lo humano y lo artificial se vuelve cada vez más difusa. Imágenes generadas con IA —manos con seis dedos, textos ilegibles, luces que no proyectan sombras— pasan desapercibidas gracias a cómo funciona nuestra mente: procesamos rápido, no con precisión. La
psicóloga cognitiva Arryn Robbins explica que aceptamos imágenes falsas si coinciden con nuestras expectativas. Y lo más preocupante es que muchas veces ya ni siquiera importa si son reales. Lo que se busca es llenar el tiempo, desconectar un rato, sin cuestionar.
Pero esta
pasividad es peligrosa cuando el contenido sintético incide en la opinión pública o incluso en nuestros recuerdos.
Imágenes manipuladas pueden legitimar desinformación o reescribir vivencias personales. La memoria es maleable, y el
contenido digital puede explotarla para influir sin que lo notemos.
Frente a este escenario, la recomendación no es paranoia, sino
atención. Robbins propone
estrategias individuales: afinar el radar de autenticidad, buscar señales visuales de alerta, aplicar pensamiento crítico y verificar fuentes. Pero también advierte que no basta con el esfuerzo individual. La magnitud del problema exige respuestas estructurales: plataformas que prioricen contenido genuino, regulaciones que desalienten la explotación algorítmica y una cultura digital que valore la autenticidad sobre el rendimiento.
Internet no está muerto, pero algo se ha perdido. Sin embargo, la incomodidad que sentimos frente a la bazofia digital es una señal alentadora: aún sabemos distinguir cuando algo no encaja. Y en un entorno plagado de simulaciones, lo artesanal, lo imperfecto y lo humano tal vez recupere su lugar como faro de lo real. Porque seguimos necesitando conectar, y eso, al menos por ahora, no puede falsificarse.