Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Temas del día:
Buscar
Información General |PREOCUPACIÓN

El ChatGPT en malas manos: delincuentes lo usan en estafas

27 de Febrero de 2023 | 01:12
Edición impresa

Los beneficios de la Inteligencia Artificial (IA) están a la vista, son múltiples los usos que se le puede dar para mejorar la vida de los ciudadanos. Pero tal como suele ocurrir con otras herramientas, si cae en las manos equivocadas resulta un verdadero desastre.

Esto desvela a quienes se dedican a investigar los ciberdelitos, ya que gracias a la ayuda de los chatbots los estafadores comenzaron a perfeccionar los métodos con los que engañan a sus víctimas. Esto se debe a que la IA tiene la capacidad de crear conversaciones en diversos idiomas y sin errores de gramaticales.

En ese sentido, uno de los ingenieros de la firma de ciberseguridad Tenable, señaló que una de las maneras que tienen las personas de detectar a los estafadores es mediante los errores ortográficos que puedan cometer, pero si usan IA estos dejarán de aparecer.

Esto se debe a que “ChatGPT puede ayudar a crear plantillas muy bien diseñadas para correos electrónicos o crear perfiles de citas cuando intentan estafar a los usuarios en aplicaciones de citas. Y cuando tengan una conversación (con la víctima) en tiempo real, los estafadores pueden pedirle a ChatGPT que les ayude a generar la respuesta que daría la persona por la que se intentan hacer pasar”, manifestó el experto.

Otra de los aspectos que preocupa es que el ChatGPT puede ser usado para desarrollar programas malignos, que si bien “no van a ser los más sofisticados” les darán las pautas de como desarrollarlos, lo que es una gran ventaja para los piratas cibernéticos que hasta ahora si “querían desarrollar softwares maliciosos tenían que aprender a programar”, explicó.

Si bien los distintos chatbots cuentan con filtros de seguridad para evitar actitudes racistas o asi como tampoco dan instrucciones de cómo construir una bomba, en el último tiempo se desarrolló una versión paralela sin ningún tipo de límite.

“Esto es más preocupante, porque ahora un usuario podría pedirle al ChatGPT (sin límites) que lo ayude a escribir ransomware (programa que toma el control del sistema o dispositivo que infecta y pide un rescate para devolver el control a su dueño)”, de todos modos llevó tranquilidad ya que “aún no se sabe lo eficaz que podría llegar a ser ese ransomware”.

Para poder prevenir este tipo de actividades perjudiciales para gran parte de la sociedad, se deberían establecer una serie de normas que limiten las capacidades de las nuevas tecnologías, pero el ingeniero mostro sus reparos al respecto. Es que según destacó sería algo muy difícil de llevar a cabo ya que el error ya fue cometido “y no va a desaparecer. Porque fuera de este uso malicioso hay muchos casos de usos genuinos que son valiosos para empresas, organizaciones e individuos”, cerró.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE a esta promo especial
+ Comentarios

Para comentar suscribite haciendo click aquí

ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES

HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS

Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales

¿Ya tiene suscripción? Ingresar

Full Promocional mensual

$670/mes

*LOS PRIMEROS 3 MESES, LUEGO $6280

Acceso ilimitado a www.eldia.com

Acceso a la versión PDF

Beneficios Club El Día

Suscribirme

Básico Promocional mensual

$515/mes

*LOS PRIMEROS 3 MESES, LUEGO $4065

Acceso ilimitado a www.eldia.com

Suscribirme
Ver todos los planes Ir al Inicio
cargando...
Básico Promocional mensual
Acceso ilimitado a www.eldia.com
$515.-

POR MES*

*Costo por 3 meses. Luego $4065.-/mes
Mustang Cloud - CMS para portales de noticias

Para ver nuestro sitio correctamente gire la pantalla