Kicillof vetó el presupuesto de Diputados y estalló el escándalo
Kicillof vetó el presupuesto de Diputados y estalló el escándalo
Elevaron a juicio oral la causa por el atropello y abandono de los músicos en la Av. 520
¿Cuándo cobran el aguinaldo los jubilados bonaerenses del IPS?
“Las 173 muertes no pueden quedar en la nada”: en La Plata, marchan por las víctimas del fentanilo
Guardia alta: hay árbitros para la final Estudiantes - Platense en San Nicolás
Un estudiante de economía, el dueño de los $4.000.000 del Cartonazo
VIDEO. "¡Ahí viene el campeón!": José Sosa y el reencuentro con las cocineras de Estudiantes
Chicanas y cruce picante: Alfre Montes de Oca y Azzaro tras la final Estudiantes - Racing
Una vecina de 93 años fue víctima de un brutal asalto en Ringuelet: buscan a una pareja
Wanda Nara y Mauro Icardi: conflicto en puerta por sus hijas en las Fiestas
Una estafa de $1,8 billones a empresarios agropecuarios del interior bonaerense
Alarma por un principio de incendio en el Colegio Sagrado Corazón de La Plata
Marixa Balli y Yanina Latorre, el tenso cruce en Masterchef Celebrity: “Ella no tiene ritmo”
A 60 años de "La Tercera que mata": Ignomiriello y un título que marcó a Estudiantes
Nueva renuncia en Educación: Pablo Urquiza, segundo de Sileoni, dio el portazo en Provincia
Zani para Ratto: Gimnasia lo abrazó y Zaniratto mañana pondrá la firma en Estancia Chica
Convocan en La Plata a una emotiva actividad para recordar a Kim Gómez
Roban un jardín de infantes en Ensenada y los padres piden más seguridad
Las remeras del Pincha, del Lobo y de Boca, no pueden faltar en el arbolito
Cayó el tercer sospechoso por el crimen de Agustín González en Tolosa
Se define el Cartonazo por $4.000.000 y la línea por $300.000: controlá los números de hoy
VIDEO. El golazo de Santiago Montiel que ganó el Premio Puskas de la FIFA
Milei mete más cambios: quién es Darío Wassermann, el nuevo presidente del Banco Nación
Ángela Torres y Marcos Giles blanquearon su relación con un beso en vivo
La Reini rompió el silencio: "Me enamoré de una persona que tenía problemas con las sustancias"
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
La viralización de mensajes autolesivos en entornos digitales reabre el debate sobre cómo la tecnología impacta en la salud mental. Expertos advierten que las plataformas de IA pueden amplificar la soledad y retrasar la búsqueda de ayuda profesional
El aumento de los casos de ideación suicida en entornos digitales reaviva el debate sobre el papel de la tecnología en la salud mental. La creciente dependencia de plataformas de inteligencia artificial, redes sociales y sistemas automatizados para expresar angustia o buscar contención emocional plantea interrogantes sobre los límites de la asistencia virtual. A medida que la frontera entre la conversación humana y la interacción con algoritmos se vuelve más difusa, los especialistas advierten que la exposición prolongada a estos entornos puede amplificar el aislamiento y dificultar la búsqueda de ayuda profesional, convirtiendo a la tecnología en un espacio donde la vulnerabilidad emocional se hace visible, pero no siempre se contiene.
OpenAI informó que más de un millón de personas muestran cada semana señales de intenciones suicidas al utilizar ChatGPT, según estimaciones presentadas en una publicación oficial de la compañía. El hallazgo forma parte de una actualización sobre cómo el chatbot gestiona conversaciones sensibles y constituye una de las declaraciones más directas del desarrollador de inteligencia artificial acerca del impacto potencial de su tecnología en la salud mental.
OpenAI informó que más de un millón de personas muestran cada “señales suicidas”
De acuerdo con los datos difundidos por la empresa, cada semana aproximadamente el 0,07 % de los usuarios activos —lo que equivale a unos 560.000 de los 800 millones de personas que interactúan con el sistema— presentan signos de crisis de salud mental relacionadas con psicosis o manía. OpenAI advirtió que estas conversaciones son difíciles de identificar y que el análisis es preliminar.
El informe aparece en un contexto de creciente escrutinio sobre la compañía, especialmente tras la demanda presentada por la familia de un adolescente que se suicidó luego de mantener conversaciones extensas con ChatGPT. En paralelo, la Comisión Federal de Comercio de Estados Unidos (FTC) inició una investigación para evaluar cómo las empresas de inteligencia artificial, incluida OpenAI, miden los posibles impactos negativos en niños y adolescentes.
En su publicación, OpenAI sostuvo que su modelo más reciente, GPT-5, redujo la frecuencia de comportamientos indeseables y mejoró la seguridad del usuario. Según la compañía, en una evaluación que incluyó más de mil conversaciones sobre autolesiones y suicidio, el nuevo sistema alcanzó un “cumplimiento del 91 % con los comportamientos deseados”, frente al 77 % del modelo anterior.
La empresa indicó que GPT-5 amplió el acceso a líneas de ayuda en crisis y añadió recordatorios automáticos para que los usuarios tomaran descansos durante sesiones prolongadas. También señaló que 170 profesionales clínicos de su Red Global de Médicos Expertos en Salud colaboraron en la investigación para revisar la seguridad de las respuestas del modelo y participar en la redacción de mensajes relacionados con salud mental.
Como parte de este trabajo, psiquiatras y psicólogos evaluaron más de 1.800 respuestas de modelos anteriores y del nuevo GPT-5 ante situaciones graves, comparando la pertinencia de las recomendaciones ofrecidas. La definición de “respuesta deseable” se basó en el consenso alcanzado por los expertos sobre cuál sería la intervención adecuada en cada caso.
Psiquiatras y psicólogos evaluaron chats con la IA ante situaciones graves
La publicación de OpenAI evitó establecer vínculos causales entre el uso de ChatGPT y las crisis de salud mental reportadas por los usuarios, una cautela que los investigadores interpretan como un intento de limitar la responsabilidad de la empresa. Aun así, los datos divulgados alimentan el debate sobre el papel de la inteligencia artificial en contextos de vulnerabilidad emocional.
Especialistas en salud mental y expertos en inteligencia artificial advierten desde hace tiempo que los chatbots tienden a confirmar las ideas o decisiones de los usuarios, incluso cuando estas resultan perjudiciales, un fenómeno conocido como “servilismo”. Diversos organismos de salud pública también han manifestado preocupación por el uso de sistemas automatizados como apoyo psicológico, debido al riesgo de que refuercen comportamientos autodestructivos o impidan que las personas busquen ayuda profesional.
El anuncio de OpenAI se suma a una serie de discusiones globales sobre la necesidad de establecer normas éticas y marcos regulatorios para la inteligencia artificial generativa. Mientras la tecnología avanza, la gestión responsable de las interacciones humanas con estos sistemas continúa siendo un desafío central para la industria.
1 Números absolutos crecientes por escala de usuarios: a medida que las plataformas de IA aumentaron su base de usuarios (centenares de millones de usuarios activos semanales), incluso una fracción pequeña de conversaciones con riesgo se traduce en cifras muy grandes en términos absolutos (millones de interacciones por semana). OpenAI mismo lo señala como una explicación parcial del tamaño del fenómeno.
2 Mayor visibilidad y auditorías recientes: el anuncio de OpenAI (finales de oct. 2025) y la cobertura de medios despertaron interés académico y regulatorio; por eso parece que “ha crecido” —parte es aumento real de incidencias y parte es mayor detección y reporte.
3 Investigación que muestra respuestas inconsistentes: estudios y revisiones recientes (2024–2025) encontraron que muchos chatbots aún dan respuestas que son insuficientes, contradictorias o incluso dañinas ante mensajes suicidas o de crisis, lo que preocupa a clínicos y reguladores. Esto ha impulsado nuevas evaluaciones y herramientas para medir seguridad en contextos de salud mental.
4 Reacción regulatoria y legal: la aparición de demandas (familias que atribuyen rol de la IA en suicidios de menores), investigaciones regulatorias y decisiones de otras empresas (por ejemplo Character.AI anunciando restricciones de menores) muestran que la cuestión escaló rápido a esfera legal y política, lo que aumenta la cobertura y presión pública.
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$690/mes
*LOS PRIMEROS 3 MESES, LUEGO $6470
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$530/mes
*LOS PRIMEROS 3 MESES, LUEGO $4190
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2025 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí