Difundieron imágenes explícitas de Taylor Swift creadas con IA: ¿síntoma de un problema creciente? - RED/ACCIÓN

Difundieron imágenes explícitas de Taylor Swift creadas con IA: ¿síntoma de un problema creciente?

 Una iniciativa de Dircoms + RED/ACCION

El fenómeno de los deepfakes pornográficos alcanza nuevas alturas y desata una ola de preocupación sobre la privacidad y el consentimiento. Mientras los fans actúan en defensa de la artista, se plantea un debate sobre la urgencia de regular esta tecnología.

Difundieron imágenes explícitas de Taylor Swift creadas con IA: ¿síntoma de un problema creciente?

Crédito: Taylor Swift a través de Instagram.

Taylor Swift llegó a la Argentina por primera vez con su gira mundial el pasado noviembre. Ahora, es tendencia nuevamente, pero no específicamente por su música. Estos últimos días circulan en redes sociales imágenes falsas y pornográficas (deepfakes) de la artista creadas con inteligencia artificial.

Los expertos ya venían anticipando este posible problema pero, por el momento, no había sucedido con esta magnitud. Según 404 Media, las imágenes se originaron en 4chan y en un grupo de la aplicación de mensajería Telegram, que se dedica específicamente a producir y difundir de manera no consensuada imágenes pornográficas de mujeres generadas por IA.

The Verge reportó que una de las publicaciones con el contenido falso de Swift que estuvo 17 horas en línea antes de que la removieran, por lo que llegó a acumular más de 45 millones de visualizaciones y 24 mil reenvíos. Para ese entonces, eliminar la cuenta que las difundió no fue suficiente.

De acuerdo con Quartz, el grupo de detección de deepfakes Reality Defender dijo haber rastreado una avalancha de material pornográfico no consentido en el que aparecía Swift, sobre todo en X (ex Twitter), que habían sido creados con tecnología de inteligencia artificial. Algunas imágenes también llegaron a Facebook, propiedad de Meta, y a otras plataformas.

"Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas apropiadas contra las cuentas responsables de publicarlas", escribió la compañía en un tuit. "Estamos supervisando de cerca la situación para asegurarnos de que cualquier otra infracción se aborde de inmediato y se elimine el contenido", profundizó.

Las swifties (fans de la cantante) también se ocuparon de proteger a su ídola. Con el hashtag #ProtectTaylorSwift compartieron videos e imágenes positivas y reales de la artista para que opaquen a los deepfakes y sean más difíciles de encontrar. Además, se dedicaron personalmente a reportar cuentas que estaban fomentando los contenidos falsos.

Para tomar cartas en el asunto, X bloqueó por 24 horas (comenzó ayer y terminó hoy) las búsquedas del nombre Taylor Swift. Joe Benarroch, jefe de operaciones en X, describió a esta acción como una “medida temporaria” que fue pensada para dar prioridad a la seguridad de la artista. 

“La pornografía no consensuada de varios tipos siempre ha sido una corriente subterránea oscura en internet”, dijo a The New York Times Oren Etzioni, profesor de ciencias de la computación en la Universidad de Washington, que trabaja en la detección de deepfakes. “Ahora hay una nueva cepa que es particularmente dañina”.

Según Wired, un nuevo análisis realizado por un periodista independiente de vídeos porno deepfake no consentidos demostró que en los últimos siete años se han subido al menos 244.625 vídeos a los 35 principales sitios web creados exclusiva o parcialmente para alojar vídeos de esta clase.

Como bien afirma Etzioni, esto no es nada nuevo. De hecho, la cantante Rosalía sufrió un incidente similar hace pocos meses e incluso mujeres que no están en las tapas lo sufren. En consecuencia, este nuevo fenómeno que se está esclareciendo parece despertar una mayor preocupación, ya que son las mujeres las víctimas principales de este tipo de contenido, según Euronews

De acuerdo con El País, en un reciente estudio sobre el estado de los deepfake realizado en Estados Unidos el 48 % de los hombres encuestados reconoció haber visto pornografía falsa al menos una vez. De ellos, el 74 % afirma no sentirse culpables por consumirla, lo que sugiere que el contenido deepfake se ha convertido en una práctica normalizada.

Estos nuevos problemas llegaron a discutirse en ámbitos legales. En algunos estados estadounidenses, como California, Texas y Virginia, crear deepfakes no consensuados se ha vuelto una ofensa criminal. El Reino Unido, por su lado, ha hecho de esta práctica una cuestión ilegal en diciembre de 2022. Los reclamos por regulaciones más concretas ahora están en auge.