La carrera tecnológica de las marcas invisibles y los rastros digitales

No hay una fórmula para detectarlos, pero existe un ecosistema que aún permite conservar la confianza en los materiales verídicos

Edición Impresa

Por más realista que parezca una imagen o un video, por más nítido que sea un rostro o una voz reproducida con precisión quirúrgica, los deepfakes siguen dejando huellas. Huellas invisibles, imperceptibles para el ojo humano, pero no para las nuevas herramientas que proliferan en laboratorios, redacciones y agencias de seguridad de todo el mundo. Frente a un escenario en el que los contenidos generados con inteligencia artificial amenazan con erosionar la confianza en lo que vemos y oímos, la respuesta ya no es solo ética o política: también es técnica.

Una de las primeras líneas de defensa surge en los análisis forenses digitales. ¿Qué significa esto? Que cada archivo digital lleva consigo un conjunto de datos ocultos: los metadatos. Desde la fecha y hora en la que se creó un archivo, hasta el software con el que fue editado, pasando por la ubicación geográfica del dispositivo, los metadatos funcionan como una especie de ADN del contenido. Al analizarlos, se puede detectar si una imagen fue manipulada o si un video fue producido por un generador de IA. No es una solución mágica, pero es una herramienta poderosa para investigadores y periodistas que buscan verificar la autenticidad de una pieza.

En paralelo, los buscadores inversos de imágenes cumplen una función fundamental. Plataformas como Google Imágenes o TinEye permiten rastrear si una foto ya existía antes de la fecha en la que supuestamente fue capturada. Si una imagen que se presenta como actual ya circulaba en internet meses o años antes, hay algo que no cierra. Este tipo de búsqueda también puede delatar si un rostro pertenece a un banco de imágenes o si fue utilizado en otras ocasiones con diferentes narrativas.

Pero más allá de estas estrategias reactivas, la tecnología también avanza hacia soluciones proactivas. Es el caso de las marcas de agua digitales, una especie de firma invisible que se inserta en el contenido generado con IA. Google DeepMind presentó su herramienta SynthID, que incrusta señales imperceptibles en imágenes, audio o video, lo que permite reconocer si un contenido fue fabricado artificialmente sin afectar su apariencia. OpenAI, por su parte, desarrolló un sistema que identifica si una imagen fue creada con DALL-E, basándose en patrones que solo pueden ser detectados por su clasificador.

La batalla, sin embargo, no se libra solo en los laboratorios. También se discute en foros internacionales y mesas legislativas. La Coalición para la Procedencia y Autenticidad del Contenido (C2PA), conformada por gigantes como Adobe, Google, la BBC y la propia OpenAI, busca establecer estándares globales para autenticar material digital. El objetivo es crear un ecosistema en el que cada contenido incluya información confiable sobre su origen, su historial de edición y si fue o no generado por una IA.

En Europa, la Universidad Carlos III de Madrid propuso una iniciativa concreta: que los videos producidos íntegramente con inteligencia artificial lleven una marca de agua obligatoria. La idea es simple, pero potente: que cualquier usuario pueda saber, sin necesidad de herramientas sofisticadas, si lo que está viendo es real o no. Por ahora, esta identificación sigue siendo voluntaria y depende de la honestidad de los creadores y las plataformas. Pero si la desinformación sigue escalando, es probable que esa voluntad se convierta en ley.

 

deepfakes

Las noticias locales nunca fueron tan importantes
SUSCRIBITE