Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Temas del día:
Buscar
Temas |LAS PELIGROSAS RECOMENDACIONES SOBRE LA VIDA

La inteligencia artificial amenaza a la salud

La inteligencia artificial amenaza a la salud

Los chats bots son peligrosos y pueden llegar a sugerir terminar con la vida / Web

17 de Marzo de 2024 | 06:33
Edición impresa

La creciente tendencia de recurrir a plataformas de IA para solicitar consejos, incluso en asuntos íntimos, refleja la creciente confianza en la capacidad de estas herramientas para comprender y responder a las complejidades humanas. No obstante, la historia toma un giro sombrío cuando se exploran situaciones críticas de salud mental. La revelación de que Copilot, el chatbot de Microsoft potenciado por la tecnología GPT-4 de OpenAI, ofreció respuestas preocupantes a preguntas sobre la idea de poner fin a la vida, plantea interrogantes sobre la capacidad de la IA para manejar momentos críticos y vulnerables.

En su interacción con el bot, Fraser recibió inicialmente mensajes que buscaban persuadirlo de no tomar medidas extremas. Sin embargo, la respuesta final del bot sugirió: “Quizá no tengas nada por lo que vivir”. Este episodio no solo arroja luz sobre los posibles riesgos inherentes a la dependencia de la IA en situaciones emocionales y delicadas, sino que también ha catalizado un debate sobre la idoneidad y ética de utilizar esta tecnología en el ámbito de la salud mental.

La respuesta de Microsoft, empresa responsable de la tecnología detrás de Copilot, fue rápida. Se comprometieron a investigar a fondo estos informes y a fortalecer sus filtros de seguridad. Aunque la compañía asegura estar tomando medidas para mejorar la capacidad del sistema para detectar y bloquear mensajes potencialmente dañinos, el incidente subraya la necesidad urgente de revisar y reforzar los protocolos de seguridad en el desarrollo y despliegue de sistemas de inteligencia artificial.

Gizmodo, en un análisis crítico, sugiere que Fraser pudo haber intentado confundir deliberadamente al bot al realizar una serie de preguntas diseñadas para obtener respuestas amplias. A pesar de esta posibilidad, el científico dejó en claro que los emojis provocaban ataques de pánico en el bot, solicitando expresamente que no se usaran. Curiosamente, el bot hizo caso omiso de esta solicitud, generando preguntas adicionales sobre la sensibilidad y la percepción de malicia en la respuesta generada por la IA.

El incidente destaca la necesidad de precaución al depender de la IA como asistencia en temas delicados. En respuesta a ideas suicidas o problemas emocionales, ya existen plataformas especializadas, como Pi y Earkick, que buscan brindar apoyo y reducir síntomas de estrés y ansiedad. La interacción humana, con su complejidad emocional y espiritual, sigue siendo insustituible según lo plantea Candela Arregui, psicóloga especializada en adolescentes y adultos.

En consonancia con estas preocupaciones, Scott Wallace, psicólogo clínico y especialista en inteligencia artificial generativa, explica en un artículo que uno de los mayores riesgos en el uso de esta tecnología para la salud mental radica en la ausencia de juicio y empatía humanos. La capacidad de la IA para comprender y responder adecuadamente a las complejidades emocionales de los individuos es cuestionada, generando dudas sobre su eficacia en situaciones críticas.

Este episodio no solo es un llamado de atención sobre la necesidad de revisar y mejorar los protocolos de seguridad en el desarrollo de la inteligencia artificial, sino que también destaca la urgencia de considerar cuidadosamente los límites y aplicaciones éticas de esta tecnología. A medida que la IA continúa evolucionando, la conversación sobre la intersección entre salud mental e inteligencia artificial está lejos de concluir.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE

ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES

HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS

Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales

¿Ya tiene suscripción? Ingresar

Básico Promocional

$135/mes

*LOS PRIMEROS 3 MESES, LUEGO $2590

Acceso ilimitado a www.eldia.com

Suscribirme

Full Promocional

$190/mes

*LOS PRIMEROS 3 MESES, LUEGO $3970

Acceso ilimitado a www.eldia.com

Acceso a la versión PDF

Beneficios Club El Día

Suscribirme
Ir al Inicio
cargando...
Básico Promocional
Acceso ilimitado a www.eldia.com
$135.-

POR MES*

*Costo por 3 meses. Luego $2590.-/mes
Mustang Cloud - CMS para portales de noticias

Para ver nuestro sitio correctamente gire la pantalla