Las mujeres, principales víctimas de la pornografía falsa hecha con IA
Edición Impresa | 26 de Julio de 2023 | 02:04

Aplicaciones fotográficas que desnudan digitalmente a las mujeres, la posibilidad de crear desde una simple frase fotos de “chicas de inteligencia artificial (IA)” e imágenes manipuladas que alimentan la “extorsión sexual”: el auge de la pornografía ultrafalsa está superando esfuerzos de EE UU y Europa para regular la tecnología.
Las falsificaciones de fotos y videos cada vez más realistas basadas en IA -llamadas “deepfakes”- generalmente se asocian a personalidades conocidas, pero los expertos afirman que su uso se está extendiendo para generar pornografía no consensuada que puede destruir vidas comunes y corrientes.
Las mujeres son un objetivo particular de las herramientas y aplicaciones de IA, ampliamente disponibles de forma gratuita y sin necesidad de conocimientos técnicos, que permiten a los usuarios retirar digitalmente la ropa de sus fotos o insertar sus rostros en videos sexualmente explícitos.
“El aumento de la pornografía generada por IA y de la ‘deepfake porn’ normaliza el uso de la imagen de una mujer sin su consentimiento”, explica Sophie Maddocks, investigadora de la Universidad de Pensilvania que estudia los abusos sexuales basados en imágenes.
La proliferación de “deepfakes” subraya la amenaza de la desinformación habilitada por la IA, que puede dañar la reputación y provocar intimidación o acoso.
Las noticias locales nunca fueron tan importantes
SUSCRIBITE