La incapacidad de dialogar, la discriminación de fondos y las urgencias a resolver
La incapacidad de dialogar, la discriminación de fondos y las urgencias a resolver
Empresarios platenses frenan inversiones por baja en las ventas
Salas de escape educativas: juego, desafíos y trabajo en equipo
Una pasión que no para de unir rutas, familias y generaciones
La elección de graduados cerró con un giro clave en Naturales
Carne “al horno”: fuerte suba y se viene otro aumento para las Fiestas
¿Estás buscando trabajo en La Plata? GRATIS, mirá los empleos de esta semana publicados en EL DIA
Entre la concentración y la desigualdad: las brechas previsionales en el Gran La Plata
Johnny arrasó en La Plata: postales de una jornada histórica
¡Descuentos que se festejan! En Nini, esta semana comprá mejor que nunca
“Yiya”: así es la ficción sobre Murano, la “envenenadora de Monserrat”
Boca busca asegurarse el primer puesto de la Zona A ante un ambicioso Tigre
La clase media argentina tambalea hace décadas al ritmo de la economía
Crédito privado como motor del 2026 si hay una demanda solvente
Lacunza advierte por el endeudamiento y el déficit en el Presupuesto 2026
Panorama económico: con anuncios y aplausos en el aire, logran que el mercado siga en positivo
Un fallo de culpabilidad dejó al “Clan Sena” a las puertas de la perpetua
Mauricio Macri presenta el libro sobre Franco: “Mi papá me amaba… pero también quería destruirme”
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
La viralización de mensajes autolesivos en entornos digitales reabre el debate sobre cómo la tecnología impacta en la salud mental. Expertos advierten que las plataformas de IA pueden amplificar la soledad y retrasar la búsqueda de ayuda profesional
El aumento de los casos de ideación suicida en entornos digitales reaviva el debate sobre el papel de la tecnología en la salud mental. La creciente dependencia de plataformas de inteligencia artificial, redes sociales y sistemas automatizados para expresar angustia o buscar contención emocional plantea interrogantes sobre los límites de la asistencia virtual. A medida que la frontera entre la conversación humana y la interacción con algoritmos se vuelve más difusa, los especialistas advierten que la exposición prolongada a estos entornos puede amplificar el aislamiento y dificultar la búsqueda de ayuda profesional, convirtiendo a la tecnología en un espacio donde la vulnerabilidad emocional se hace visible, pero no siempre se contiene.
OpenAI informó que más de un millón de personas muestran cada semana señales de intenciones suicidas al utilizar ChatGPT, según estimaciones presentadas en una publicación oficial de la compañía. El hallazgo forma parte de una actualización sobre cómo el chatbot gestiona conversaciones sensibles y constituye una de las declaraciones más directas del desarrollador de inteligencia artificial acerca del impacto potencial de su tecnología en la salud mental.
De acuerdo con los datos difundidos por la empresa, cada semana aproximadamente el 0,07 % de los usuarios activos —lo que equivale a unos 560.000 de los 800 millones de personas que interactúan con el sistema— presentan signos de crisis de salud mental relacionadas con psicosis o manía. OpenAI advirtió que estas conversaciones son difíciles de identificar y que el análisis es preliminar.
El informe aparece en un contexto de creciente escrutinio sobre la compañía, especialmente tras la demanda presentada por la familia de un adolescente que se suicidó luego de mantener conversaciones extensas con ChatGPT. En paralelo, la Comisión Federal de Comercio de Estados Unidos (FTC) inició una investigación para evaluar cómo las empresas de inteligencia artificial, incluida OpenAI, miden los posibles impactos negativos en niños y adolescentes.
En su publicación, OpenAI sostuvo que su modelo más reciente, GPT-5, redujo la frecuencia de comportamientos indeseables y mejoró la seguridad del usuario. Según la compañía, en una evaluación que incluyó más de mil conversaciones sobre autolesiones y suicidio, el nuevo sistema alcanzó un “cumplimiento del 91 % con los comportamientos deseados”, frente al 77 % del modelo anterior.
La empresa indicó que GPT-5 amplió el acceso a líneas de ayuda en crisis y añadió recordatorios automáticos para que los usuarios tomaran descansos durante sesiones prolongadas. También señaló que 170 profesionales clínicos de su Red Global de Médicos Expertos en Salud colaboraron en la investigación para revisar la seguridad de las respuestas del modelo y participar en la redacción de mensajes relacionados con salud mental.
LE PUEDE INTERESAR
Falacias y hechos Cómo cuidar el auto: lo que el mecánico nunca te dijo
Como parte de este trabajo, psiquiatras y psicólogos evaluaron más de 1.800 respuestas de modelos anteriores y del nuevo GPT-5 ante situaciones graves, comparando la pertinencia de las recomendaciones ofrecidas. La definición de “respuesta deseable” se basó en el consenso alcanzado por los expertos sobre cuál sería la intervención adecuada en cada caso.
La publicación de OpenAI evitó establecer vínculos causales entre el uso de ChatGPT y las crisis de salud mental reportadas por los usuarios, una cautela que los investigadores interpretan como un intento de limitar la responsabilidad de la empresa. Aun así, los datos divulgados alimentan el debate sobre el papel de la inteligencia artificial en contextos de vulnerabilidad emocional.
Especialistas en salud mental y expertos en inteligencia artificial advierten desde hace tiempo que los chatbots tienden a confirmar las ideas o decisiones de los usuarios, incluso cuando estas resultan perjudiciales, un fenómeno conocido como “servilismo”. Diversos organismos de salud pública también han manifestado preocupación por el uso de sistemas automatizados como apoyo psicológico, debido al riesgo de que refuercen comportamientos autodestructivos o impidan que las personas busquen ayuda profesional.
El anuncio de OpenAI se suma a una serie de discusiones globales sobre la necesidad de establecer normas éticas y marcos regulatorios para la inteligencia artificial generativa. Mientras la tecnología avanza, la gestión responsable de las interacciones humanas con estos sistemas continúa siendo un desafío central para la industria.
OpenAI informó que más de un millón de personas muestran cada “señales suicidas”
Psiquiatras y psicólogos evaluaron chats con la IA ante situaciones graves
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$690/mes
*LOS PRIMEROS 3 MESES, LUEGO $6470
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$530/mes
*LOS PRIMEROS 3 MESES, LUEGO $4190
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2025 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí