Las falsificaciones de fotos y videos cada vez más realistas basadas en IA –llamadas “deepfakes”– generalmente se asocian a personalidades conocidas, como el papa Francisco con un abrigo acolchado o Donald Trump bajo arresto, pero los expertos afirman que su uso se está extendiendo para generar pornografía no consensuada que puede destruir vidas.
Las mujeres son un objetivo particular de las herramientas y aplicaciones de IA, ampliamente disponibles de forma gratuita y sin necesidad de conocimientos técnicos, que permiten a los usuarios retirar digitalmente la ropa de sus fotos o insertar sus rostros en videos sexualmente explícitos.
“El aumento de la pornografía generada por IA y de la ‘deepfake porn’ normaliza el uso de la imagen de una mujer sin su consentimiento”, explica a la AFP Sophie Maddocks, investigadora de la Universidad de Pensilvania que estudia estos abusos.
“¿Qué mensaje enviamos como sociedad sobre el consentimiento cuando se puede desnudar virtualmente a cualquier mujer?”, comentó.
En un dramático vídeo, una “streamer” estadounidense de Twitch conocida como QTCinderella lamentó la “constante explotación y cosificación” de las mujeres cuando se convirtió en víctima del “porno deepfake”. Fue acosada, agregó, por personas que le enviaban copias de las manipulaciones.
El escándalo estalló en enero durante una transmisión en vivo del streamer Brandon Ewing, quien fue sorprendido mirando un sitio web que contenía imágenes sexuales falsas de varias mujeres, entre ellas QTCinderella.
La proliferación de “deepfakes” subraya la amenaza de la desinformación habilitada por la IA, que puede dañar la reputación y provocar intimidación o acoso.
Si bien celebridades como la cantante Taylor Swift y la actriz Emma Watson han sido víctimas de la pornografía falsa, las mujeres que no están en el ojo público también son el objetivo de estos ataques.
Los medios de comunicación estadounidenses y europeos están llenos de testimonios de mujeres, desde académicas hasta activistas, que se sorprendieron al descubrir sus rostros en videos pornográficos falsos. AFP