Ciberestafas: se valen de inteligencia artificial

Un informe del Observatorio de Cibercrimen de la Universidad Austral advierte por el creciente uso de herramientas para clonar voces y videos con fines delictivos

Edición Impresa

La historia, que circuló durante semanas como una leyenda urbana, no sólo terminó siendo confirmada sino que resultó además ser una más. La secretaria de la gerencia de una empresa recibió un mensaje de voz de su jefe pidiéndole que transfiriera una importante suma de dinero a una cuenta que éste le indicaba; y así lo hizo la mujer, quien conociendo bien la voz de su jefe no dudó siquiera que no se trataba de él sino de un mensaje creado con inteligencia artificial.

Frente al surgimiento de casos de este tipo en el país, el Observatorio de Cibercrimen y Evidencia Digital en Investigaciones Criminales de la Universidad Austral (OCEDIC) hizo pública en las últimas horas una advertencia por el creciente uso de inteligencia artificial para generar deepfakes y ciberestafas, cuyas víctimas suelen ser tanto particulares como empresas.

El plus de estas estafas mejoradas consiste en valerse de herramientas de Inteligencia Artificial (IA) disponible a través de aplicaciones como FaceApp o Deep Face Lab, para producir un video o audio falso a partir de material real que obtienen de internet por medio de ingeniería social.

“Los resultados de un estudio reciente mostraron que la amenaza más significativa de la IA ofensiva es su capacidad para mejorar algunos de los ataques de ingeniería social, como por ejemplo utilizar deepfakes para clonar la voz de directores ejecutivos o la imagen de ciudadanos respetables”, explica Dupuy.

Pero lo cierto es que éste no es él único recurso que ofrece la Inteligencia Artificial a los ciberdelincuentes. El uso de chatbots, como ChatGPT, también puede fomentar las actividades fraudulentas ayudando a los estafadores a superar errores de lenguaje que se suelen encontrar en mensajes de phishing (ejemplo de ello es una petición y respuesta de ChatGPT en cualquier idioma).

En otras palabras, estos modelos de lenguaje de gran tamaño pueden crear mensajes de todo tipo con una excelente gramática, haciéndolos pasar como verdaderos pese a estar producidos en cualquier lugar del mundo, y disminuyendo la posibilidad de identificar a los sospechosos.

Así lo señala también un informe de la Fundación Carnegie para la Paz Internacional sobre la amenaza que suponen las deepfakes en el cual resaltan su posible intervención en diferentes formas de fraudes de identidad, permitiendo a los atacantes mejorar su capacidad para engañar a los humanos añadiendo un plus de autenticidad.

En cuanto a la prevención de las estafas en línea que usan imágenes, videos y audios generados por IA, los especialistas reconocen que los mecanismos para identificarlos suelen ir por detrás de las herramientas que las produce.

De ahí que desde el Observatorio de Cibercimen apuntan a generar mayor conciencia de esta amenaza entre la comunidad. “En ese sentido resulta fundamental que los usuarios analicen la situación antes de responder cualquier mensaje que reciban en relación a transferencias o cambios en la información de las cuentas bancarias”, aconseja Dupuy.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE