Con IA crean imágenes explícitas de Taylor Swift y podría demandar a X
Por 26 Enero, 2024La cantante y compositora, Taylor Swift está considerando demandar al sitio y la cuenta de X que difundió imágenes y videos falsos de ella en actos sexuales, los cuales fueron generados por Inteligencia Artificial”, por lo que se sabe que podría tomar acciones legales.
De acuerdo con una fuente cercana a la cantante y que concedió al medio Daily Mail, se sabe que, “hay una cosa que está clara: estas imágenes falsas generadas por IA son abusivas, ofensivas, explotadoras y se realizan sin el consentimiento y/o la autorización de Taylor”.
En la imagen se aprecia a Swift en posiciones sexuales con elementos en alusión a los Kansas City Chiefs, haciendo referencia a su relación con Travis Kelce, por lo que, las imágenes ya han sido retiradas de la plataforma y la cuenta @FloridaPigMan, la primera en difundirlas, ya no existe, sin embargo, el descontento se mantiene.
"Es impactante que la plataforma de redes sociales incluso les haya permitido estar al tanto para empezar. Estas imágenes deben eliminarse de todos los lugares donde existan y nadie debe promocionarlas", añadió la fuente cercana a Taylor Swift. "Es necesario cerrar la puerta a esto. Es necesario aprobar legislación para evitar esto y promulgar leyes", dijo la fuente cercana a la intérprete".
Cabe recordar que, en Estados Unidos la pornografía deepfake no consensuada es ilegal en Texas, Minnesota, Nueva York, Virginia y Georgia, mientras que en , Illinois y California, las víctimas pueden demandar a los creadores de la pornografía ante los tribunales por difamación.
Aunado a lo anterior, las imágenes de la cantante se difundieron esta semana, evidenciando el potencial dañino de la tecnología de inteligencia artificial dominante, así como su capacidad para crear imágenes convincentes reales y dañinas.
Pese a ser retiradas, las imágenes fueron vistas por decenas de millones de personas, pues en Internet nada desaparece para siempre, por lo que se seguirán compartiendo en otros canales menos regulados.
En tanto, el portavoz de la cantante no ha respondido a la solicitud de comentarios, así como la empresa, y este incidente se registra en un momento en que Estados Unidos se adentra en un año de elecciones presidenciales, aumentando la preocupación sobre cómo podrían utilizarse las imágenes y videos engañosos generados por IA par encabezar esfuerzos de desinformación e interferir con la votación.
¿Cómo protegerte de la desinformación?
El mensaje con la voz falsa de Biden que pide a los votantes que se queden en casa, es “un excelente ejemplo de cómo se está utilizando la inteligencia artificial con fines nefastos, sin que existan suficientes salvaguardas para proteger la esfera pública", resaltó a CNN Ben Decker, director de Memetica, una agencia de investigación digital.
Aunado a lo anterior, dijo que la explotación de herramientas de IA generativa para crear contenido dañino dirigido a todo tipo de figuras públicas incrementa y se está extendiendo más rápido a través de las redes.
"Las empresas de redes sociales no disponen realmente de planes eficaces para supervisar el contenido", afirma
En tanto, X ha eliminado en gran medida su equipo de moderación de contenido y confía en sistemas automatizados y en los informes de usuarios.
Asimismo, Meta ha recortado sus equipos de lucha contra la desinformación y las campañas coordinadas de trolls y acoso en sus plataformas, de acuerdo a CNN personas con conocimiento directo de la situación, suscitando preocupaciones a las cruciales elecciones de 2024 en Estados Unidos y el mundo.
Las imágenes relacionadas a Taylor no están claro de dónde proceden, sin embargo, algunas de ellas se encontraron en Instagram y Reddit, un tema generalizado en X en particular.
Por lo que, el incidente coincide con el auge de herramientas de generación de IA como ChatGPT y Dall-E, pero, Decker, indicó que también existe un mundo más amplio de modelos de IA no moderados y no seguros para el trabajo en plataformas de código abierto.
"Esto es indicativo de un tipo de fractura mayor en la moderación de contenidos y la gobernanza de las plataformas, porque si todas las partes interesadas: las empresas de IA, las empresas de redes sociales, los reguladores y la sociedad civil, no están hablando de las mismas cosas y en la misma página sobre cómo abordar estas cuestiones, este tipo de contenido simplemente va a seguir proliferando", añadió.
Te puede interesar:Elige la revista ‘Time’ a Taylor Swift como persona del año 2023
Unión Europea investiga a la red X por la moderación de contenidos y la verificación
Aunado a lo anterior, Decker destacó que el hecho de que Swift esté en el punto de mira podría llamar más la atención sobre los crecientes problemas en torno a las imágenes generadas por IA, enorme contingente de “Swifties” expresaron su indignación en las redes.
Cabe recordar que, en 2022, un colapso de Ticketmaster antes de su concierto Eras Tour desató la ira en Internet, dando lugar a esfuerzos legislativos para acabar con las políticas de venta de entradas poco favorables a los consumidores, por lo que, Decker sugiere que podría ocurrir lo mismo con las imágenes perjudiciales.
"Cuando figuras como Taylor Swift se convierten en un blanco tan importante, quizá sea esto lo que impulse a los legisladores y a las empresas tecnológicas a actuar, porque no pueden permitirse que la 'novia de Estados Unidos' haga una campaña pública en su contra", afirma. "Yo diría que necesitan hacerla sentir mejor porque probablemente tiene más influencia que casi cualquier otra persona en Internet".
Pues esta tecnología se ha utilizado desde hace tiempo para crear lo que se conoce como “porno de venganza”, al publicar imágenes explícitas de alguien en Internet sin su consentimiento, por lo que ahora, publicar imágenes explícitas de alguien en Internet sin su consentimiento, recibe una atención renovada debido a las imágenes ofensivas a Taylor.
Por último, nueve estados de EU tienen leyes contra la creación o el intercambio no consentido de imágenes “deepfake”, imágenes artificiales creadas para imitar la propia imagen.
Con información de Agencias
*ARD