La inteligencia artificial amenaza a la salud

Edición Impresa

La creciente tendencia de recurrir a plataformas de IA para solicitar consejos, incluso en asuntos íntimos, refleja la creciente confianza en la capacidad de estas herramientas para comprender y responder a las complejidades humanas. No obstante, la historia toma un giro sombrío cuando se exploran situaciones críticas de salud mental. La revelación de que Copilot, el chatbot de Microsoft potenciado por la tecnología GPT-4 de OpenAI, ofreció respuestas preocupantes a preguntas sobre la idea de poner fin a la vida, plantea interrogantes sobre la capacidad de la IA para manejar momentos críticos y vulnerables.

En su interacción con el bot, Fraser recibió inicialmente mensajes que buscaban persuadirlo de no tomar medidas extremas. Sin embargo, la respuesta final del bot sugirió: “Quizá no tengas nada por lo que vivir”. Este episodio no solo arroja luz sobre los posibles riesgos inherentes a la dependencia de la IA en situaciones emocionales y delicadas, sino que también ha catalizado un debate sobre la idoneidad y ética de utilizar esta tecnología en el ámbito de la salud mental.

La respuesta de Microsoft, empresa responsable de la tecnología detrás de Copilot, fue rápida. Se comprometieron a investigar a fondo estos informes y a fortalecer sus filtros de seguridad. Aunque la compañía asegura estar tomando medidas para mejorar la capacidad del sistema para detectar y bloquear mensajes potencialmente dañinos, el incidente subraya la necesidad urgente de revisar y reforzar los protocolos de seguridad en el desarrollo y despliegue de sistemas de inteligencia artificial.

Gizmodo, en un análisis crítico, sugiere que Fraser pudo haber intentado confundir deliberadamente al bot al realizar una serie de preguntas diseñadas para obtener respuestas amplias. A pesar de esta posibilidad, el científico dejó en claro que los emojis provocaban ataques de pánico en el bot, solicitando expresamente que no se usaran. Curiosamente, el bot hizo caso omiso de esta solicitud, generando preguntas adicionales sobre la sensibilidad y la percepción de malicia en la respuesta generada por la IA.

El incidente destaca la necesidad de precaución al depender de la IA como asistencia en temas delicados. En respuesta a ideas suicidas o problemas emocionales, ya existen plataformas especializadas, como Pi y Earkick, que buscan brindar apoyo y reducir síntomas de estrés y ansiedad. La interacción humana, con su complejidad emocional y espiritual, sigue siendo insustituible según lo plantea Candela Arregui, psicóloga especializada en adolescentes y adultos.

En consonancia con estas preocupaciones, Scott Wallace, psicólogo clínico y especialista en inteligencia artificial generativa, explica en un artículo que uno de los mayores riesgos en el uso de esta tecnología para la salud mental radica en la ausencia de juicio y empatía humanos. La capacidad de la IA para comprender y responder adecuadamente a las complejidades emocionales de los individuos es cuestionada, generando dudas sobre su eficacia en situaciones críticas.

Este episodio no solo es un llamado de atención sobre la necesidad de revisar y mejorar los protocolos de seguridad en el desarrollo de la inteligencia artificial, sino que también destaca la urgencia de considerar cuidadosamente los límites y aplicaciones éticas de esta tecnología. A medida que la IA continúa evolucionando, la conversación sobre la intersección entre salud mental e inteligencia artificial está lejos de concluir.

 

inteligencia artificial
salud

Las noticias locales nunca fueron tan importantes
SUSCRIBITE