El ChatGPT en malas manos: delincuentes lo usan en estafas

Edición Impresa

Los beneficios de la Inteligencia Artificial (IA) están a la vista, son múltiples los usos que se le puede dar para mejorar la vida de los ciudadanos. Pero tal como suele ocurrir con otras herramientas, si cae en las manos equivocadas resulta un verdadero desastre.

Esto desvela a quienes se dedican a investigar los ciberdelitos, ya que gracias a la ayuda de los chatbots los estafadores comenzaron a perfeccionar los métodos con los que engañan a sus víctimas. Esto se debe a que la IA tiene la capacidad de crear conversaciones en diversos idiomas y sin errores de gramaticales.

En ese sentido, uno de los ingenieros de la firma de ciberseguridad Tenable, señaló que una de las maneras que tienen las personas de detectar a los estafadores es mediante los errores ortográficos que puedan cometer, pero si usan IA estos dejarán de aparecer.

Esto se debe a que “ChatGPT puede ayudar a crear plantillas muy bien diseñadas para correos electrónicos o crear perfiles de citas cuando intentan estafar a los usuarios en aplicaciones de citas. Y cuando tengan una conversación (con la víctima) en tiempo real, los estafadores pueden pedirle a ChatGPT que les ayude a generar la respuesta que daría la persona por la que se intentan hacer pasar”, manifestó el experto.

Otra de los aspectos que preocupa es que el ChatGPT puede ser usado para desarrollar programas malignos, que si bien “no van a ser los más sofisticados” les darán las pautas de como desarrollarlos, lo que es una gran ventaja para los piratas cibernéticos que hasta ahora si “querían desarrollar softwares maliciosos tenían que aprender a programar”, explicó.

Si bien los distintos chatbots cuentan con filtros de seguridad para evitar actitudes racistas o asi como tampoco dan instrucciones de cómo construir una bomba, en el último tiempo se desarrolló una versión paralela sin ningún tipo de límite.

“Esto es más preocupante, porque ahora un usuario podría pedirle al ChatGPT (sin límites) que lo ayude a escribir ransomware (programa que toma el control del sistema o dispositivo que infecta y pide un rescate para devolver el control a su dueño)”, de todos modos llevó tranquilidad ya que “aún no se sabe lo eficaz que podría llegar a ser ese ransomware”.

Para poder prevenir este tipo de actividades perjudiciales para gran parte de la sociedad, se deberían establecer una serie de normas que limiten las capacidades de las nuevas tecnologías, pero el ingeniero mostro sus reparos al respecto. Es que según destacó sería algo muy difícil de llevar a cabo ya que el error ya fue cometido “y no va a desaparecer. Porque fuera de este uso malicioso hay muchos casos de usos genuinos que son valiosos para empresas, organizaciones e individuos”, cerró.

 

ChatGPT

Las noticias locales nunca fueron tan importantes
SUSCRIBITE