Aumento salarial para la Policía bonaerense: tramo por tramo, cómo se abonará
Aumento salarial para la Policía bonaerense: tramo por tramo, cómo se abonará
Video: persecución en Camino Belgrano terminó con un detenido en una moto robada
Por el Último Primer Día, habrá operativo policial en La Plata y la Provincia
Influencer gastronómica de La Plata denunció que un restaurante de Puerto Madero le rompió el auto
Intentaron usurpar un predio en City Bell y terminaron detenidos
ARCA confirmó irregularidades en una empresa vinculada a Toviggino que blanqueó USD 1,4 millones
Los gremios docentes aceptaron la oferta de aumento de la Provincia: así quedó la escala salarial
VIDEO.- Carolina Piparo declaró que su ex Juan Ignacio Buzali "tuvo miedo y pánico"
Graciela Alfano volvió a apuntar contra Susana Giménez: “Me tiene una envidia espantosa”
Nostalgia: Sabrina Rojas reveló qué es lo único que extraña de su matrimonio con Luciano Castro
Rige la Reforma Laboral | Qué pasa con las vacaciones, horas extras y despidos
VIDEO.- Así ladrones atacan a culatazos y trompadas a un vecino en La Plata
El proyecto de LLA para la "reducción y eliminación de tasas" en toda la provincia de Buenos Aires
Es oficial: la sala de 3 años será obligatoria en la provincia de Buenos Aires
Una joven apuñaló a un hombre al sorprenderlo masturbándose frente a sus hijos
¡Atención! Absa no enviará más la boleta de papel: desde cuándo y cómo saber el importe a pagar
Ofrecimiento de personal y empresas para reparación de viviendas y service del hogar
Es un buen momento para hacer planes en La Plata: la agenda con teatro, música, cine y más
Guillermo Francella habló del romance con Elba Marcovecchio: “Pasó eso"
En la Provincia el jardín de infantes será obligatorio para los niños de 3 años desde 2027
Los jóvenes platenses que siguen viviendo con sus padres: crisis, presión y convivencia
El radicalismo bonaerense resolvió adelantar las elecciones internas para el 7 de junio
Qatar frena los envíos de GNL y Argentina firma contrato para exportar a Europa
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
La viralización de mensajes autolesivos en entornos digitales reabre el debate sobre cómo la tecnología impacta en la salud mental. Expertos advierten que las plataformas de IA pueden amplificar la soledad y retrasar la búsqueda de ayuda profesional
El aumento de los casos de ideación suicida en entornos digitales reaviva el debate sobre el papel de la tecnología en la salud mental. La creciente dependencia de plataformas de inteligencia artificial, redes sociales y sistemas automatizados para expresar angustia o buscar contención emocional plantea interrogantes sobre los límites de la asistencia virtual. A medida que la frontera entre la conversación humana y la interacción con algoritmos se vuelve más difusa, los especialistas advierten que la exposición prolongada a estos entornos puede amplificar el aislamiento y dificultar la búsqueda de ayuda profesional, convirtiendo a la tecnología en un espacio donde la vulnerabilidad emocional se hace visible, pero no siempre se contiene.
OpenAI informó que más de un millón de personas muestran cada semana señales de intenciones suicidas al utilizar ChatGPT, según estimaciones presentadas en una publicación oficial de la compañía. El hallazgo forma parte de una actualización sobre cómo el chatbot gestiona conversaciones sensibles y constituye una de las declaraciones más directas del desarrollador de inteligencia artificial acerca del impacto potencial de su tecnología en la salud mental.
OpenAI informó que más de un millón de personas muestran cada “señales suicidas”
De acuerdo con los datos difundidos por la empresa, cada semana aproximadamente el 0,07 % de los usuarios activos —lo que equivale a unos 560.000 de los 800 millones de personas que interactúan con el sistema— presentan signos de crisis de salud mental relacionadas con psicosis o manía. OpenAI advirtió que estas conversaciones son difíciles de identificar y que el análisis es preliminar.
El informe aparece en un contexto de creciente escrutinio sobre la compañía, especialmente tras la demanda presentada por la familia de un adolescente que se suicidó luego de mantener conversaciones extensas con ChatGPT. En paralelo, la Comisión Federal de Comercio de Estados Unidos (FTC) inició una investigación para evaluar cómo las empresas de inteligencia artificial, incluida OpenAI, miden los posibles impactos negativos en niños y adolescentes.
En su publicación, OpenAI sostuvo que su modelo más reciente, GPT-5, redujo la frecuencia de comportamientos indeseables y mejoró la seguridad del usuario. Según la compañía, en una evaluación que incluyó más de mil conversaciones sobre autolesiones y suicidio, el nuevo sistema alcanzó un “cumplimiento del 91 % con los comportamientos deseados”, frente al 77 % del modelo anterior.
La empresa indicó que GPT-5 amplió el acceso a líneas de ayuda en crisis y añadió recordatorios automáticos para que los usuarios tomaran descansos durante sesiones prolongadas. También señaló que 170 profesionales clínicos de su Red Global de Médicos Expertos en Salud colaboraron en la investigación para revisar la seguridad de las respuestas del modelo y participar en la redacción de mensajes relacionados con salud mental.
Como parte de este trabajo, psiquiatras y psicólogos evaluaron más de 1.800 respuestas de modelos anteriores y del nuevo GPT-5 ante situaciones graves, comparando la pertinencia de las recomendaciones ofrecidas. La definición de “respuesta deseable” se basó en el consenso alcanzado por los expertos sobre cuál sería la intervención adecuada en cada caso.
Psiquiatras y psicólogos evaluaron chats con la IA ante situaciones graves
La publicación de OpenAI evitó establecer vínculos causales entre el uso de ChatGPT y las crisis de salud mental reportadas por los usuarios, una cautela que los investigadores interpretan como un intento de limitar la responsabilidad de la empresa. Aun así, los datos divulgados alimentan el debate sobre el papel de la inteligencia artificial en contextos de vulnerabilidad emocional.
Especialistas en salud mental y expertos en inteligencia artificial advierten desde hace tiempo que los chatbots tienden a confirmar las ideas o decisiones de los usuarios, incluso cuando estas resultan perjudiciales, un fenómeno conocido como “servilismo”. Diversos organismos de salud pública también han manifestado preocupación por el uso de sistemas automatizados como apoyo psicológico, debido al riesgo de que refuercen comportamientos autodestructivos o impidan que las personas busquen ayuda profesional.
El anuncio de OpenAI se suma a una serie de discusiones globales sobre la necesidad de establecer normas éticas y marcos regulatorios para la inteligencia artificial generativa. Mientras la tecnología avanza, la gestión responsable de las interacciones humanas con estos sistemas continúa siendo un desafío central para la industria.
1 Números absolutos crecientes por escala de usuarios: a medida que las plataformas de IA aumentaron su base de usuarios (centenares de millones de usuarios activos semanales), incluso una fracción pequeña de conversaciones con riesgo se traduce en cifras muy grandes en términos absolutos (millones de interacciones por semana). OpenAI mismo lo señala como una explicación parcial del tamaño del fenómeno.
2 Mayor visibilidad y auditorías recientes: el anuncio de OpenAI (finales de oct. 2025) y la cobertura de medios despertaron interés académico y regulatorio; por eso parece que “ha crecido” —parte es aumento real de incidencias y parte es mayor detección y reporte.
3 Investigación que muestra respuestas inconsistentes: estudios y revisiones recientes (2024–2025) encontraron que muchos chatbots aún dan respuestas que son insuficientes, contradictorias o incluso dañinas ante mensajes suicidas o de crisis, lo que preocupa a clínicos y reguladores. Esto ha impulsado nuevas evaluaciones y herramientas para medir seguridad en contextos de salud mental.
4 Reacción regulatoria y legal: la aparición de demandas (familias que atribuyen rol de la IA en suicidios de menores), investigaciones regulatorias y decisiones de otras empresas (por ejemplo Character.AI anunciando restricciones de menores) muestran que la cuestión escaló rápido a esfera legal y política, lo que aumenta la cobertura y presión pública.
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$740/mes
*LOS PRIMEROS 3 MESES, LUEGO $6990
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$570/mes
*LOS PRIMEROS 3 MESES, LUEGO $4500
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2026 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí