El alcance de las falsificaciones
Las falsificaciones se han utilizado para burlarse no solo de la gente pobre, sino también de Trump. Un video en TikTok mostraba la Casa Blanca con lo que parecía ser una voz en off de Trump reprendiendo a su gabinete por la publicación de documentos relacionados con Jeffrey Epstein. Según NewsGuard, el video, que no estaba etiquetado como IA, fue visto por más de 3 millones de personas en cuestión de días.
Hasta ahora, las plataformas han confiado en gran medida en que los creadores revelen que el contenido no es real, pero no siempre lo hacen. Y aunque existen formas para que plataformas como YouTube o TikTok detecten que un video se hizo con IA, no siempre lo señalan a los espectadores de inmediato.
“Deberían haber estado preparadas”, dijo Nabiha Syed, directora ejecutiva de la Fundación Mozilla, sobre las empresas de redes sociales.
Las marcas de agua no son suficientes
Las empresas detrás de las herramientas de IA dicen que están tratando de dejar claro a los usuarios qué contenido es generado por computadora. Tanto Sora como la herramienta rival de Google, Veo, incrustan una marca de agua visible. Sora, por ejemplo, pone una etiqueta de “Sora” en cada video. Ambas empresas también incluyen metadatos invisibles que establecen el origen de cada falsificación.
Sin embargo, las etiquetas a veces aparecen después de que millones de personas ya han visto los videos. Las personas con intenciones maliciosas han descubierto que es fácil eludir las normas: algunos simplemente las ignoran, y otros manipulan los videos para eliminar las marcas de agua. The Times encontró docenas de ejemplos de videos de Sora en YouTube sin la etiqueta automatizada.
Casi dos tercios de los más de 3000 usuarios que comentaron el video de TikTok sobre los cupones de alimentos respondieron como si fuera real, según un análisis de The New York Times realizado con herramientas de IA.
Un desafío para el ecosistema
En un comunicado, OpenAI afirmó que prohíbe los usos engañosos de Sora y toma medidas contra los infractores. La empresa señaló que abordar el contenido engañoso requiere un esfuerzo de todo el ecosistema, ya que existen muchas herramientas similares que no emplean restricciones.
Un portavoz de Meta dijo que no siempre es posible etiquetar cada video, especialmente con una tecnología que evoluciona tan rápido. Por otro lado, Alon Yamin, director ejecutivo de Copyleaks, sugirió que las plataformas no tienen un incentivo financiero inmediato para restringir estos videos mientras los usuarios sigan haciendo clic en ellos.
El advenimiento de videos realistas ha sido una bendición para el fraude y las operaciones de influencia extranjera. Se han citado videos de IA en la India que denigran a los musulmanes para avivar tensiones religiosas. “La barrera para usar ‘deepfakes’ como parte de la desinformación se ha derrumbado”, afirmó Darjan Vujica, experto en el tema, “y una vez que la desinformación se propaga, es difícil corregir el registro”.
/La Nación