Escándalo por Grok: el desnudador digital que pasó un límite

La herramienta de inteligencia artificial de la red social X permitió generar imágenes falsas de desnudos a partir de fotos reales de mujeres y niños, lo que motivó denuncias en todo el mundo por falta de regulación

Edición Impresa

Durante algunos días, un recurso hasta hace pocos años impensado se volvió accesible para cualquier usuario de la red social X. Bastaba subir una fotografía y pedirle a Grok, el sistema de inteligencia artificial integrado a la plataforma, que le “quitara la ropa” a la persona retratada para revelar su desnudez. El resultado: imágenes creadas artificialmente que no correspondían a cuerpos reales pero de una gran verosimilitud.

La función fue utilizada de manera masiva. Miles de publicaciones comenzaron a circular, algunas con imágenes de personas famosas y muchas otras de mujeres desconocidas. También aparecieron contenidos que involucraban a adolescentes y niños. En todos los casos, se trató de imágenes generadas sin el consentimiento de las personas vulneradas.

Si bien la empresa desactivó de forma parcial la función luego de que el fenómeno se hiciera visible, el episodio dejó expuesta la capacidad concreta de la inteligencia artificial generativa para manipular imágenes a gran escala. No se trató de un error técnico ni de un hackeo: la herramienta estaba disponible como parte de las prestaciones de Grok y respondía a una lógica de experimentación que prioriza el uso por sobre los controles preventivos.

Las denuncias se multiplicaron. Usuarios, organizaciones que defienden los derechos de mujeres y niños y organismos internacionales como la Comisión Europea cuestionaron públicamente lo ocurrido. A esos reclamos se sumaron los gobiernos de Francia, el Reino Unido, India y Malasia, que exigieron medidas correctivas contra la empresa propietaria de la red social.

Desde la empresa desarrolladora aclararon que Grok no “desnuda” personas reales, sino que genera imágenes completamente ficticias mediante modelos entrenados para reconocer patrones del cuerpo humano y recrearlos de forma artificial. Sin embargo, esa distinción técnica no modifica el efecto social del resultado: las imágenes se construyen a partir de fotos reales, conservan rasgos identificables y circulan como si retrataran cuerpos existentes, lo que vuelve irrelevante para las víctimas que el desnudo no sea, en términos estrictos, auténtico.

El caso también volvió a encender las alarmas sobre el vínculo entre estas tecnologías y la producción de material sexual ilegal. Según informes de organizaciones internacionales como la Alianza Global We Protect, la inteligencia artificial generativa actúa como un factor que incrementó de manera exponencial la oferta de contenido en redes de pedofilia. Datos de la Internet Watch Foundation indican que entre 2020 y 2022 la generación por IA de imágenes de abuso sexual infantil creció un 360 por ciento.

Frente a los cuestionamientos, X no negó la existencia del contenido creado a través de Grok. En una publicación de su cuenta de Seguridad, afirmó que toma medidas contra el contenido ilegal, incluido el material de abuso sexual infantil, “eliminándolo, suspendiendo permanentemente cuentas y trabajando con gobiernos locales y fuerzas del orden según sea necesario”.

Sin embargo, el propio Elon Musk publicó en X una imagen suya en bikini generada con inteligencia artificial, un gesto que fue interpretado como una forma de restar relevancia al episodio.

UN LLAMADO DE ATENCIÓN

Especialistas señalaron que lo sucedido en Grok “es un buen llamado de atención a las familias” respecto de la práctica de compartir imágenes de niños en redes sociales. Aunque la responsabilidad principal recae en la plataforma y en algunos usuarios, el caso dejó en evidencia el nivel de exposición que generan estas herramientas en un entorno con escasas regulaciones.

La controversia escaló cuando autoridades de la Unión Europea se sumaron a la condena pública y el gobierno británico advirtió que podría iniciar una investigación formal. El episodio puso en primer plano los límites de los sistemas de control de la inteligencia artificial y la velocidad con la que su uso puede derivar en abusos cuando no existen barreras claras.

La reacción internacional expuso además la falta de marcos regulatorios capaces de anticiparse a este tipo de usos abusivos. Aunque la inteligencia artificial avanza a gran velocidad, las normas que deberían ordenar su despliegue siguen siendo fragmentarias o directamente inexistentes.

 

Grok
desnudador digital
IA

Las noticias locales nunca fueron tan importantes
SUSCRIBITE