Pedofilia con IA: por qué no mostrar a los niños en las redes
Edición Impresa | 26 de Octubre de 2023 | 05:48
Una práctica tan habitual e inocente como subir fotos de hijos, nietos o sobrinos en una red social para compartir la emoción de verlos crecer puede llevar hoy a que esas imágenes terminen convertidas en pornografía infantil. A partir de la popularización de herramientas de inteligencia artificial, las redes de pedófilos cada vez se nutren más de imágenes de niños y niñas intervenidas artificialmente para conferirles una carga sexual.
Como alertó ayer un informe de la de organización Internet Watch Foundation (IWF, por sus siglas en inglés), la Inteligencia Artificial (IA) está permitiendo a grupos de pedófilos crear y compartir en internet imágenes de menores generadas tanto de víctimas reales como a partir de fotografías familiares obtenidas en alguna red social.
El documento advierte concretamente que en algunos foros del llamado “internet profundo” se distribuyen cada vez más imágenes de víctimas reales de abuso contra menores creadas a partir de generadores personalizados con tecnología de Inteligencia Artificial.
“CASI INDISTINGUIBLES”
Tras un mes de trabajo analizando un único sitio del internet profundo, los investigadores de IWF llegaron a detectar casi 3.000 imágenes artificiales consideradas ilegales. Entre ellas había tanto fotos de niños actores, como de niños sin una vida pública, retocadas en todos los casos para sexualizarlos.
“La mayoría de esas imágenes intervenidas son extremadamente realistas, por lo que resultan casi indistinguibles de las que podrían ser auténticas”, señalaron desde la organización que vigila el funcionamiento de internet.
“Nuestros peores augurios se han hecho realidad”, declaró ayer la consejera ejecutiva de la fundación, Susie Hargreaves, quien ya aludió el pasado junio a la proliferación del uso de la IA por parte de pedófilos en internet.
“A principios de este año advertimos que las imágenes de IA pronto podrían volverse indistinguibles de imágenes reales de niños que sufren abuso sexual, y que podríamos comenzar a ver estas imágenes proliferando en cantidades mucho mayores. Ya hemos superado ese punto”, afirmó.
La activista alertó también que “si este aluvión de “deepfakes” de abuso sexual infantil no es frenado podría abrumar a las agencias policiales que tratan de rescatar a niños convertidos en personajes digitales ficticios. Pero además los abusadores también podrían usar las imágenes para seducir o coaccionar a nuevas víctimas”.
EN ARGENTINA
En los últimos meses el fenómeno ha comenzado a registrarse también en nuestro país. Este año la Justicia sanjuanina condenó a un estudiante universitario de esa provincia por distribuir material de explotación sexual de chicos también y fotos de desnudos que había creado con IA a partir de imágenes obtenidas en redes sociales.
Se trata de un accionar nuevo que tiene en alerta a los especialistas, quienes ponen el foco en una cuestión central: hoy, en la Argentina resulta clave actualizar la legislación para dar respuesta al fenómeno.
Así lo sostiene entre otros la titular de la Unidad Fiscal Especializada en Delitos y Contravenciones Informáticas, Daniela Dupuy. “A nosotros nos ingresan casos que son producciones ficticias, hechas con inteligencia artificial, tan realistas que aparentan ser de niñas, niños o adolescentes desnudos o en una situación de abuso sexual”, reconoce la fiscal al señalar que si bien “en muchísimas legislaciones penales, tanto a nivel regional como internacional, esto ya es considerado un delito”, la falta de un marco legal para castigarlo sigue siendo “una deuda que aún tenemos en nuestro país”.
Las noticias locales nunca fueron tan importantes
SUSCRIBITE