Tendencia suicida con la inteligencia artificial: un peligro en red que jaquea a la juventud
Edición Impresa | 16 de Noviembre de 2025 | 03:59
El aumento de los casos de ideación suicida en entornos digitales reaviva el debate sobre el papel de la tecnología en la salud mental. La creciente dependencia de plataformas de inteligencia artificial, redes sociales y sistemas automatizados para expresar angustia o buscar contención emocional plantea interrogantes sobre los límites de la asistencia virtual. A medida que la frontera entre la conversación humana y la interacción con algoritmos se vuelve más difusa, los especialistas advierten que la exposición prolongada a estos entornos puede amplificar el aislamiento y dificultar la búsqueda de ayuda profesional, convirtiendo a la tecnología en un espacio donde la vulnerabilidad emocional se hace visible, pero no siempre se contiene.
OpenAI informó que más de un millón de personas muestran cada semana señales de intenciones suicidas al utilizar ChatGPT, según estimaciones presentadas en una publicación oficial de la compañía. El hallazgo forma parte de una actualización sobre cómo el chatbot gestiona conversaciones sensibles y constituye una de las declaraciones más directas del desarrollador de inteligencia artificial acerca del impacto potencial de su tecnología en la salud mental.
De acuerdo con los datos difundidos por la empresa, cada semana aproximadamente el 0,07 % de los usuarios activos —lo que equivale a unos 560.000 de los 800 millones de personas que interactúan con el sistema— presentan signos de crisis de salud mental relacionadas con psicosis o manía. OpenAI advirtió que estas conversaciones son difíciles de identificar y que el análisis es preliminar.
El informe aparece en un contexto de creciente escrutinio sobre la compañía, especialmente tras la demanda presentada por la familia de un adolescente que se suicidó luego de mantener conversaciones extensas con ChatGPT. En paralelo, la Comisión Federal de Comercio de Estados Unidos (FTC) inició una investigación para evaluar cómo las empresas de inteligencia artificial, incluida OpenAI, miden los posibles impactos negativos en niños y adolescentes.
LA PUBLICACIÓN DE OPENAI
En su publicación, OpenAI sostuvo que su modelo más reciente, GPT-5, redujo la frecuencia de comportamientos indeseables y mejoró la seguridad del usuario. Según la compañía, en una evaluación que incluyó más de mil conversaciones sobre autolesiones y suicidio, el nuevo sistema alcanzó un “cumplimiento del 91 % con los comportamientos deseados”, frente al 77 % del modelo anterior.
La empresa indicó que GPT-5 amplió el acceso a líneas de ayuda en crisis y añadió recordatorios automáticos para que los usuarios tomaran descansos durante sesiones prolongadas. También señaló que 170 profesionales clínicos de su Red Global de Médicos Expertos en Salud colaboraron en la investigación para revisar la seguridad de las respuestas del modelo y participar en la redacción de mensajes relacionados con salud mental.
Como parte de este trabajo, psiquiatras y psicólogos evaluaron más de 1.800 respuestas de modelos anteriores y del nuevo GPT-5 ante situaciones graves, comparando la pertinencia de las recomendaciones ofrecidas. La definición de “respuesta deseable” se basó en el consenso alcanzado por los expertos sobre cuál sería la intervención adecuada en cada caso.
La publicación de OpenAI evitó establecer vínculos causales entre el uso de ChatGPT y las crisis de salud mental reportadas por los usuarios, una cautela que los investigadores interpretan como un intento de limitar la responsabilidad de la empresa. Aun así, los datos divulgados alimentan el debate sobre el papel de la inteligencia artificial en contextos de vulnerabilidad emocional.
RECOMENDACIONES
Especialistas en salud mental y expertos en inteligencia artificial advierten desde hace tiempo que los chatbots tienden a confirmar las ideas o decisiones de los usuarios, incluso cuando estas resultan perjudiciales, un fenómeno conocido como “servilismo”. Diversos organismos de salud pública también han manifestado preocupación por el uso de sistemas automatizados como apoyo psicológico, debido al riesgo de que refuercen comportamientos autodestructivos o impidan que las personas busquen ayuda profesional.
El anuncio de OpenAI se suma a una serie de discusiones globales sobre la necesidad de establecer normas éticas y marcos regulatorios para la inteligencia artificial generativa. Mientras la tecnología avanza, la gestión responsable de las interacciones humanas con estos sistemas continúa siendo un desafío central para la industria.
OpenAI informó que más de un millón de personas muestran cada “señales suicidas”
Psiquiatras y psicólogos evaluaron chats con la IA ante situaciones graves
Las noticias locales nunca fueron tan importantes
SUSCRIBITE