Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Temas del día:
Buscar
Información General |NUEVOS RECURSOS AL SERVICIO DE DELINCUENTES

Ciberestafas: se valen de inteligencia artificial

Un informe del Observatorio de Cibercrimen de la Universidad Austral advierte por el creciente uso de herramientas para clonar voces y videos con fines delictivos

Ciberestafas: se valen de inteligencia artificial

LOS HERRAMIENTAS PARA PRODUCIR LAS NUEVAS ESTAFAS VAN POR DELANTE DE LA CAPACIDAD DE DETECCIÓN/web

10 de Abril de 2024 | 02:20
Edición impresa

La historia, que circuló durante semanas como una leyenda urbana, no sólo terminó siendo confirmada sino que resultó además ser una más. La secretaria de la gerencia de una empresa recibió un mensaje de voz de su jefe pidiéndole que transfiriera una importante suma de dinero a una cuenta que éste le indicaba; y así lo hizo la mujer, quien conociendo bien la voz de su jefe no dudó siquiera que no se trataba de él sino de un mensaje creado con inteligencia artificial.

Frente al surgimiento de casos de este tipo en el país, el Observatorio de Cibercrimen y Evidencia Digital en Investigaciones Criminales de la Universidad Austral (OCEDIC) hizo pública en las últimas horas una advertencia por el creciente uso de inteligencia artificial para generar deepfakes y ciberestafas, cuyas víctimas suelen ser tanto particulares como empresas.

El plus de estas estafas mejoradas consiste en valerse de herramientas de Inteligencia Artificial (IA) disponible a través de aplicaciones como FaceApp o Deep Face Lab, para producir un video o audio falso a partir de material real que obtienen de internet por medio de ingeniería social.

“Los resultados de un estudio reciente mostraron que la amenaza más significativa de la IA ofensiva es su capacidad para mejorar algunos de los ataques de ingeniería social, como por ejemplo utilizar deepfakes para clonar la voz de directores ejecutivos o la imagen de ciudadanos respetables”, explica Dupuy.

Pero lo cierto es que éste no es él único recurso que ofrece la Inteligencia Artificial a los ciberdelincuentes. El uso de chatbots, como ChatGPT, también puede fomentar las actividades fraudulentas ayudando a los estafadores a superar errores de lenguaje que se suelen encontrar en mensajes de phishing (ejemplo de ello es una petición y respuesta de ChatGPT en cualquier idioma).

En otras palabras, estos modelos de lenguaje de gran tamaño pueden crear mensajes de todo tipo con una excelente gramática, haciéndolos pasar como verdaderos pese a estar producidos en cualquier lugar del mundo, y disminuyendo la posibilidad de identificar a los sospechosos.

Así lo señala también un informe de la Fundación Carnegie para la Paz Internacional sobre la amenaza que suponen las deepfakes en el cual resaltan su posible intervención en diferentes formas de fraudes de identidad, permitiendo a los atacantes mejorar su capacidad para engañar a los humanos añadiendo un plus de autenticidad.

En cuanto a la prevención de las estafas en línea que usan imágenes, videos y audios generados por IA, los especialistas reconocen que los mecanismos para identificarlos suelen ir por detrás de las herramientas que las produce.

De ahí que desde el Observatorio de Cibercimen apuntan a generar mayor conciencia de esta amenaza entre la comunidad. “En ese sentido resulta fundamental que los usuarios analicen la situación antes de responder cualquier mensaje que reciban en relación a transferencias o cambios en la información de las cuentas bancarias”, aconseja Dupuy.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE

Multimedia

LOS HERRAMIENTAS PARA PRODUCIR LAS NUEVAS ESTAFAS VAN POR DELANTE DE LA CAPACIDAD DE DETECCIÓN/web

“La amenaza más significativa de la IA es su capacidad para mejorar algunas estafas de ingeniería social con herramientas para clonar la imagen de una persona o su voz” Daniela Dupuy Observatorio de Cibercrimen de la Universidad Austral

+ Comentarios

Para comentar suscribite haciendo click aquí

ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES

HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS

Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales

¿Ya tiene suscripción? Ingresar

Básico Promocional

$120/mes

*LOS PRIMEROS 3 MESES, LUEGO $2250

Acceso ilimitado a www.eldia.com

Suscribirme

Full Promocional

$160/mes

*LOS PRIMEROS 3 MESES, LUEGO $3450

Acceso ilimitado a www.eldia.com

Acceso a la versión PDF

Beneficios Club El Día

Suscribirme
Ir al Inicio
cargando...
Básico Promocional
Acceso ilimitado a www.eldia.com
$120.-

POR MES*

*Costo por 3 meses. Luego $2250.-/mes
Mustang Cloud - CMS para portales de noticias

Para ver nuestro sitio correctamente gire la pantalla