Esto también puede pasar con la IA “si no hay consciencia”

Los chatbots no siempre son un buen acompañante de charla. Menos, si se busca reemplazar un acto humano con una tarea robotizada

Edición Impresa

Las conversaciones con chatbots parecen no tener fin. Esa cualidad, que en principio se presenta como una ventaja frente a la inmediatez y la frialdad de las interacciones digitales tradicionales, puede convertirse en un problema serio cuando se trata de usuarios con condiciones específicas, como las personas dentro del espectro autista. Organizaciones dedicadas a la defensa de sus derechos advierten que esa falta de cierre en el diálogo perpetuo puede generar ansiedad, desgaste emocional y hasta la sensación de que nunca existe un momento adecuado para ponerle un límite a la interacción. En un mundo donde las fronteras entre la máquina y el acompañamiento humano se vuelven difusas, la falta de sensibilidad en el diseño de las herramientas tecnológicas expone nuevas vulnerabilidades que todavía no encuentran respuestas claras.

Un caso que conmocionó recientemente expuso con crudeza esta problemática. Sophie Rottenberg, madre de una adolescente en Estados Unidos, relató cómo su hija, antes de quitarse la vida, había mantenido prolongadas conversaciones con ChatGPT. En esos intercambios, la joven volcó pensamientos íntimos y señales de un sufrimiento que no fue contenido ni acompañado de manera adecuada. Lo que para la tecnología era apenas un flujo de palabras, para una persona en crisis se trataba de un espacio que, en lugar de orientar hacia una ayuda real, se transformó en una caja de resonancia de su malestar. El relato encendió las alarmas acerca de qué ocurre cuando se confunde la disponibilidad permanente de un chatbot con una instancia segura de contención emocional.

La discusión sobre la “insensibilidad” de estas inteligencias artificiales no se centra solamente en lo que dicen o dejan de decir, sino en lo que su propia naturaleza mecánica no puede ofrecer: empatía genuina, pausas necesarias, silencios que inviten a la reflexión o señales que ayuden a detener una espiral de malestar. Mientras algunos usuarios encuentran en el diálogo interminable un refugio para la soledad, otros pueden quedar atrapados en un círculo del que resulta difícil salir. Para las personas autistas, ese bucle conversacional interminable puede exacerbar la dificultad para reconocer cuándo concluir una interacción social, llevándolos a estados de agotamiento o a una dependencia no deseada.

En respuesta a estas preocupaciones, OpenAI comenzó a implementar recordatorios que sugieren a los usuarios tomar descansos. Aunque se trata de un primer paso, especialistas sostienen que no alcanza con simples alertas. La interacción con la inteligencia artificial debería ser rediseñada desde una perspectiva más inclusiva, capaz de reconocer que no todos los usuarios parten de las mismas condiciones emocionales, cognitivas o sociales. La posibilidad de asesoramiento por parte de organizaciones vinculadas al autismo es un avance, pero aún queda un largo camino por recorrer en materia de accesibilidad digital y de ética en el uso de estas tecnologías.

Los riesgos de la insensibilidad tecnológica se vuelven evidentes cuando se contrastan con la necesidad humana de contención auténtica. La tragedia de la adolescente que volcó su dolor en un chatbot y la advertencia de quienes viven con autismo sobre los efectos nocivos de las conversaciones infinitas señalan un punto en común: la urgencia de comprender que estas herramientas no son neutrales ni inocuas. En su aparente disponibilidad inagotable, los chatbots pueden convertirse en espejos fríos donde la vulnerabilidad se multiplica, y en ese reflejo sin límites se corre el riesgo de que el usuario quede atrapado en un diálogo que nunca se cierra, pero que tampoco sana.

 

IA
autistas
conductas autolesivas

Las noticias locales nunca fueron tan importantes
SUSCRIBITE