Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Temas del día:
Buscar
Información General |La inteligencia artificial, una tecnología peligrosa

“Aliada” para la trampa: preocupan las estafas con IA

A medida que avanza, demuestra una capacidad inédita para realizar videos falsos, textos coherentes y hasta clonar voces. Los expertos anticipan una oleada de engaños

“Aliada” para la trampa: preocupan las estafas con IA

La inteligencia artificial puede ser una aliada para algunos trabajos, pero también un peligro latente / web

2 de Junio de 2023 | 02:14
Edición impresa

Así como la inteligencia artificial genera grandes esperanzas lo mismo que enormes dudas respecto al futuro de muchos trabajos o incluso del arte, un nuevo aspecto de este desarrollo tecnológico viene siendo enfocado bajo la lupa de los especialistas no sin poca preocupación: las estafas virtuales, según alertan, pueden no sólo crecer sino perfeccionarse al punto de hacerse casi indetectables. ¿Estamos atrapados ante el avance de la IA?

Uno de los ejemplos que los expertos están mencionando cada vez con más frecuencia por estos días es la posibilidad que da esta tecnología de falsificar la voz de cualquiera y así utilizar esa herramienta para realizar una estafa.

Según revela el sitio especializado Techspot, de hecho, una pareja canadiense de adultos mayores recibió en los últimos días la llamada de “su nieto”. Después de decirles que estaba en la cárcel, les pidió que enviasen una fianza de 6 mil dólares canadienses (algo así como 2 millones de pesos argentinos) para poder salir de prisión, una situación que llevó al matrimonio a retirar 3.000 dólares de un banco y hacer lo propio en otra entidad. Pero, para su suerte, al llegar a esta el director les informó de que se trataba de una estafa cada vez más popular y les informó que ya había tenido que frenar casos similares por otros usuarios afectados.

Plataformas como ElevenLabs permiten crear un diálogo simulando cualquier voz, solo se necesitan 30 segundos de grabación, por lo que los delincuentes pueden hacer una llamada previa al familiar para capturar esa información y luego ir por la víctima.

Lo que dice esta inteligencia artificial es el resultado de un texto que crean los atacantes, aprovechando que el software analiza cada aspecto de la voz como el género, la edad y el acento para encontrar patrones y hacer la copia. Las voces falsificadas a través de la IA todavía tienen mucho camino por recorrer antes de ser indistinguibles de las humanas pero, en una videollamada de corta duración, son capaces de engañar hasta el más experimentado.

Sobre todo, si la persona que aparece en la pantalla del móvil solicitando un depósito por alguna fatalidad (accidente, robo o emergencia), coincide con la voz y la apariencia de quien dice ser.

“La IA puede ser utilizada para crear malware más sofisticado y difícil de detectar -apunta Pablo Rodríguez Romeo, perito informático forense y especialista en seguridad-. Los ciberdelincuentes pueden usar algoritmos de aprendizaje automático para desarrollar malware que evada las defensas de seguridad y se propague rápidamente a través de redes y sistemas. Pero también, para desarrollar malware que se adapte y evolucione a medida que las defensas de seguridad cambian”.

En cuanto a los fraudes financieros, Rodríguez Romeo apunta que la IA “puede ser utilizada para llevar a cabo fraudes como el robo de información de tarjetas de crédito o el fraude de cuentas bancarias. Además, para analizar y seleccionar a las víctimas más vulnerables y generar transacciones fraudulentas que parezcan legítimas. Todo esto nos permite vislumbrar cómo la IA está siendo utilizada cada vez más por los ciberdelincuentes para llevar a cabo sus actividades delictivas. Por eso, es importante que las organizaciones y los individuos estén al tanto de las amenazas y tomen medidas de seguridad adecuadas para protegerse”.

Los expertos advierten que la Inteligencia Artificial se usa para estafas bancarias

Aunque la inteligencia artificial lleva la modalidad de robo a un punto de engaño muy alto, siempre hay que dudar ante este tipo de situación. Lo primero es que en caso de una llamada, en la que alguien pida ayuda inmediatamente, nunca se debe dar el nombre de algún familiar, porque eso le servirá al delincuente para crear un lazo y empezar a actuar como esa persona, lo mejor será esperar hasta que sea él o ella el que revele su identidad.

En caso dar el nombre por error o que del otro lado lo adivinen, la mejor alternativa es llamar directamente a esa persona y asegurarse de que la situación es real. Los delincuentes siempre van a llamar de números desconocidos y crean la excusa que es por el problema que están pasando, por eso su celular no sirve o lo tienen detenido. Otro punto clave es nunca dar información personal como dirección, teléfono, nombres, números de cuenta y correos electrónicos porque quizás no se efectúe un robo de dinero en ese momento, pero esa data le servirá al delincuente en el futuro.

Los estafadores usan esta tecnología para clonar no sólo voces sino también rostros

Hace poco, según reporta la agencia Xinhua, un empresario llamado Wan Guo transfirió 3 mil dólares de su cuenta, tras recibir una comunicación por WeChat de una mujer cuyo rostro y voz se parecían mucho a las de su esposa. La excusa fue que había tenido un accidente con su vehículo y tenía que pagar los daños ocasionados a otro conductor. Para escapar a la emboscada de la suspicacia, insistía en que debía ser inmediato. “Aunque había algo artificial en su forma de expresarse, no se me ocurrió desconfiar ya que las expresiones del rostro e incluso la voz, eran las de mi esposa”, declaró el empresario.

Los investigadores del caso descubrieron que los estafadores conocían los hábitos del matrimonio. Además sabían que la mujer tenía un canal de cocina en una red social y de allí sacaron las capturas de su rostro y voz para maquinar el deepfake.

Intuyendo algo fuera de lugar, el empresario contactó por mensaje a su mujer al cabo de unos instantes y esta le negó los hechos. De inmediato, Guo notificó a la institución bancaria que procedió a bloquear la operación, impidiendo la transferencia.

Varios casos similares aparecen en las páginas del Washington Post, donde indican que, según datos de la Federal Trade Commission (FTC), este tipo de fraudes se coloca entre los segundos más frecuentes, con más de 36.000 denuncias.

El temor es que algunos timadores comenzaron a utilizando esta tecnología para clonar los rostros de influencer y streamers, para reclamar productos y regalías a las empresas que los contratan.

En la mayoría de los intentos, reconocen quienes trabajan en el tema, es difícil detectar la trampa, sobre todo porque el tono de urgencia vuelve menos reflexiva a la víctima. El tema resulta más complicado si el que recibe la llamada es mayor y desconoce estas tecnologías.

 

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE

+ Comentarios

Para comentar suscribite haciendo click aquí

ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES

HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS

Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales

¿Ya tiene suscripción? Ingresar

Básico Promocional

$120/mes

*LOS PRIMEROS 3 MESES, LUEGO $2250

Acceso ilimitado a www.eldia.com

Suscribirme

Full Promocional

$160/mes

*LOS PRIMEROS 3 MESES, LUEGO $3450

Acceso ilimitado a www.eldia.com

Acceso a la versión PDF

Beneficios Club El Día

Suscribirme
Ir al Inicio
cargando...
Básico Promocional
Acceso ilimitado a www.eldia.com
$120.-

POR MES*

*Costo por 3 meses. Luego $2250.-/mes
Mustang Cloud - CMS para portales de noticias

Para ver nuestro sitio correctamente gire la pantalla