La artista fue víctima del 'deepfake' luego de que se viralizaran imágenes con su rostro sexualmente explícitas hechas con IA.
El hashtag “PROTECT TAYLOR SWIFT” ya acumula decenas de miles de tuits luego de que la artista fuera víctima del ‘deepfake’, una técnica para editar fotos con Inteligencia Artificial (IA) que se está utilizando para crear imágenes sexualmente explícitas de mujeres.
Pero no sólo ocurre con celebridades, de hecho se han conocido casos de establecimientos educacionales donde alumnos utilizaron esta tecnología para crear imágenes de desnudos de sus compañeras, práctica que ha sido denunciada y condenada por diversas instituciones.
Según informa The Verge, las imágenes de Swift comenzaron a circular en X (Twitter) durante los últimos días, donde algunas incluso alcanzaron 45 millones de visualizaciones antes de ser denunciadas por el fandom de la cantante y finalmente retiradas de la plataforma.
El medio recoge que la publicación original estuvo unas 17 horas en línea, donde más de 24.000 usuarios la repostearon y otros miles interactuaron. Si bien fue retirada de X, ya se había expandido por todo internet y distintos usuarios volvieron a postear imágenes.
Además, un reporte del portal 404 Media, recoge que las fotos con deepfake habrían salido de un grupo de Telegram, donde usuarios comparten imágenes explícitas de mujeres, manipuladas con IA.
The Verge intentó comunicarse con Taylor Swift para recoger declaraciones y no obtuvieron respuestas. Pero quienes no se restaron del problema fueron los fans de la artista, quienes se movilizaron en redes para que las imágenes fueran bajadas de internet e hicieron el tema tendencia.
Las y los swifties aseguran que estas prácticas son derechamente acoso sexual y apelan a la falta de regulaciones en torno a la IA, pese a que X en sus políticas no aprueba este tipo de contenido.
urgen regulaciones en el uso de Inteligencia Artificial, me parece increíble como cualquier loco en internet pueda usar tu cara para sexualizarte y aparte difundirlas en internet como si nada. Es asqueroso.
PROTECT TAYLOR SWIFT
RESPECT TAYLOR SWIFT pic.twitter.com/gdG0WT7Dfz— Perls (@shots_detequila) January 25, 2024
PROTECT TAYLOR SWIFT
hoy por taylor mañana por nosotras hermanas!! pic.twitter.com/hEGRLRtHMR
— belén (@saadddsongggg) January 26, 2024
those taylor ai pics are straight up sexual harassment and it’s disgusting that man can do those things without repercussions. they see women as objects made for their sick fantasies and i’m so sick of it. it makes me want to throw up
PROTECT TAYLOR SWIFT pic.twitter.com/XV0bCFivzS
— 𝙍𝘼𝙂𝙃𝘼𝙑🔱 (@RaghavS17841404) January 25, 2024
Los hombres me dan muchísimo asco
PROTECT TAYLOR SWIFT pic.twitter.com/nFX06WSxVJ
— Lucrezia 🌹 (Chere's Version)🪩 (@Chereside) January 25, 2024
Que tan miserables tienen que ser para crear ese tipo de fotos de taylor? Encima siempre cosas echas por onvres que no la mojan ni en agua! PROTECT TAYLOR SWIFT con la niña no pic.twitter.com/FEYbEFMi6F
— Girl Coffe🤎 ✨️ 12/11 ✨️ (@MidnightRain18_) January 25, 2024
it doesn’t matter how famous someone is, "she's white billionaire, so she will be fine" doesn't give u authority to create her disgusting Taylor AI pictures. Grow up!
Taylor Swift AI is disgusting as hell
Women should be respected‼️
PROTECT TAYLOR SWIFTpic.twitter.com/l43aatbNr5
— Kaleshi Munda (@KaleshiMunda) January 25, 2024
"Los deepfakes afectan a diario a mujeres de todo el mundo, y ya es hora de ponerles fin", dijo Joseph Morelle, demócrata de NY y primer autor de la Ley de Prevención de Deepfakes de Imágenes Íntimas.
La campaña Protect Taylor Swift tiene que convertirse en Protect all of us. pic.twitter.com/RumvIoocMP
— ARTE es ÉTICA (@ArteEsEtica) January 25, 2024
una mierda que en pleno 2024 sigan haciendo estas cosas
PROTECT TAYLOR SWIFT pic.twitter.com/pbmMaQWiwS
— milii 12/11 (@newrothmantics) January 25, 2024