InternacionalNoticias

Las mujeres son las principales víctimas de la pornografía falsa, en la era de IA

Aplicaciones fotográficas que desnudan digitalmente a las mujeres, la posibilidad de crear desde una simple frase fotos de «chicas de inteligencia artificial (IA e imágenes manipuladas que alimentan la «extorsión sexual»: el auge de la pornografía falsa está superando esfuerzos de EEUU y Europa para regular la tecnología.

Las falsificaciones de fotos y videos cada vez más realistas basadas en IA -llamadas «deepfakes»– generalmente se asocian a personalidades conocidas, como el papa Francisco con un abrigo acolchado o Donald Trump bajo arresto, pero los expertos afirman que su uso se está extendiendo para generar pornografía no consensuada que puede destruir vidas comunes y corrientes.

Vía: AFP.

Te dejamos un ejemplo de deepfakes

Las mujeres son un objetivo particular de las herramientas y aplicaciones de IA, ampliamente disponibles de forma gratuita y sin necesidad de conocimientos técnicos, que permiten a los usuarios retirar digitalmente la ropa de sus fotos o insertar sus rostros en videos sexualmente explícitos.

«El aumento de la pornografía generada por IA y de la ‘deepfake porn’ normaliza el uso de la imagen de una mujer sin su consentimiento», explica a la AFP Sophie Maddocks, investigadora de la Universidad de Pensilvania que estudia los abusos sexuales basados en imágenes.

«¿Qué mensaje enviamos como sociedad sobre el consentimiento cuando se puede desnudar virtualmente a cualquier mujer?», comentó.

Vía: AFP.

El escándalo estalló en enero durante una transmisión en vivo del también «streamer» Brandon Ewing, quien fue sorprendido mirando un sitio web que contenía imágenes sexuales falsas de varias mujeres, entre ellas QTCinderella.

«No es tan simple como ‘sólo’ ser violada. Es mucho más que eso», escribió la creadora de contenido en Twitter, ahora llamado X, añadiendo que la experiencia la había «arruinado».

Vía: AFP.