Platenses recurren cada vez más a la IA como apoyo emocional y hasta reemplazo terapéutico
Edición Impresa | 26 de Abril de 2026 | 03:47
Alejandra Castillo
alecastillo95@hotmail.com
A las tres de la mañana, cuando la ansiedad aprieta y no hay a quién llamar, Paula, diseñadora gráfica de 29 años, abre una conversación con ChatGPT. “Me ayuda a ordenar lo que siento, a bajar una idea obsesiva o ponerle nombre a algo que me pasa”, cuenta. No es un caso aislado. En La Plata, como en otras ciudades, empieza a visibilizarse un fenómeno nuevo: personas que recurren a la inteligencia artificial para descargar angustias, buscar contención, ensayar decisiones personales e incluso reemplazar, parcial o totalmente, espacios terapéuticos.
La escena, hasta hace poco impensada, se repite entre jóvenes universitarios, trabajadores agobiados por el costo de la atención privada, adultos que nunca se habían animado a consultar a un psicólogo y también pacientes que encuentran en estos sistemas una suerte de escucha disponible las 24 horas.
La expansión de estas herramientas abrió un debate entre especialistas. ¿Se trata de un recurso complementario, una forma de autoayuda sofisticada, o de una sustitución riesgosa del vínculo terapéutico?
Mariano, 42 años, empleado administrativo, dice haber dado un paso que muchos profesionales miran con cautela. “Dejé de ir al psicólogo por un tema económico y empecé a usar inteligencia artificial para hablar de problemas de pareja, culpa y estrés. Me hace preguntas, me devuelve otra mirada y a veces me sirve más que algunas sesiones que tuve. Hoy, sinceramente, la uso en reemplazo de terapia”, admite.
Su testimonio condensa dos factores centrales que aparecen una y otra vez: accesibilidad e inmediatez.
LA BÚSQUEDA DE GRATIFICACIÓN INMEDIATA
Para el médico especialista en Psiquiatría y Psicología Médica Diego Sarasola, ese atractivo es comprensible. “El cerebro humano tiende a buscar gratificación inmediata; cuando una IA ofrece una respuesta empática, estructurada y disponible 24/7, nuestro sistema de recompensa encuentra un atajo fascinante, pero engañoso”, advierte.
Según plantea, las consultas vinculadas a salud mental con IA crecieron de manera exponencial en los últimos dos años, sobre todo desde la democratización del acceso a modelos conversacionales. Y aunque reconoce potenciales beneficios, marca una diferencia sustancial entre alivio momentáneo y trabajo terapéutico.
“La IA puede dar psicoeducación instantánea o alivio sintomático en momentos de crisis aguda. Pero otra cosa es reemplazar la alianza terapéutica. Ahí puede haber dependencia, reforzamiento de ideas erróneas e incluso una atrofia de habilidades sociales”, señala.
La cuestión generacional también atraviesa el fenómeno. “Los jóvenes, habituados a la interacción mediada por pantallas, perciben menos barreras para ‘confesarse’ ante un algoritmo, con el seductor agregado de que ese algoritmo no juzga sino que casi siempre avala, muchas veces con gran complacencia. Es más, si bien uno puede indicarle por un prompt que no sea complaciente, la enorme mayoría de los casos, actúa como alguien de comprensión y paciencia infinita, que va diciendo lo que la persona quiere oír”, detalla Sarasola.
Aunque no se deben subestimar a otros segmentos etarios -“el aislamiento social post-pandemia ha empujado a muchos adultos a buscar consuelo y refugio en la tecnología”- acota el psiquiatra, los llamados nativos digitales incorporan estas interfaces con una naturalidad que desconcierta a generaciones anteriores.
“UNA HERRAMIENTA, NO UN SUSTITUTO”
Lucía, estudiante universitaria de 23 años, cuenta que usa la herramienta “como un diario interactivo”. Le escribe cuando necesita revisar si está reaccionando desde el miedo, para ordenar pensamientos o pedir ejercicios de regulación emocional. “Pero cuando atravesé un duelo me di cuenta de que necesitaba algo humano. Ahí volví a terapia. Para mí es una herramienta, no un sustituto”, dice.
Ese uso híbrido -como sostén entre sesiones, bitácora emocional o espacio preliminar para pensar un malestar- aparece como uno de los formatos más frecuentes.
La psicóloga psicoanalista Mariana Pereyra plantea que el fenómeno interpela, pero no invalida el núcleo del trabajo clínico.
“Hay que ubicar que el uso de una herramienta no viene a reemplazar nuestro instrumento, que es la palabra”, sostiene. Y pone el foco en una dimensión que, entiende, no puede ser automatizada: la singularidad del padecimiento.
“Es cierto, el chat responde inmediatamente. Pero, ¿sabe del sufrimiento particular de quien le dirige una pregunta? Ese saber se va entramando en la transferencia, que es nuestra herramienta fundamental”, explica.
Pereyra reconoce que usa ChatGPT para búsquedas e investigación y lo considera valioso como herramienta. Pero no como sustituto del dispositivo analítico.
Donde sí aparecen zonas nuevas, según Mel Gregorini, psicólogo platense, es en el modo en que los pacientes integran estas respuestas en las sesiones.
“Empezó a aparecer una especie de tríada entre paciente, terapeuta e inteligencia artificial. Traen respuestas del chat, las discuten, las contrastan”, describe.
Para Gregorini, además del acceso inmediato, hay algo de desinhibición: personas que encuentran más fácil formular preguntas íntimas a un algoritmo que a otro ser humano.
“CON ChatGPT NO HAY VERGÜENZA”
Eso se parece bastante a lo que le ocurrió a Sergio, comerciante de 56 años, que nunca había ido a terapia. “Con ChatGPT me animé porque no hay vergüenza. Le pregunté por insomnio, angustia, temas familiares… y me sorprendió. Hubo un momento en que lo consultaba para todo y me asustó depender tanto”, recuerda.
Ese límite aparece en varios relatos: el punto en que la disponibilidad infinita empieza a parecerse a una dependencia.
Camila, 34 años, freelance, llegó a la IA por otra vía: dos malas experiencias con terapeutas. “No me juzga, no me interrumpe. A veces le pido que me ayude a desarmar pensamientos catastróficos o ensayar conversaciones difíciles. Hoy me contiene más”, dice.
Algunas personas encuentran más fácil formular preguntas íntimas a un algoritmo que a otro ser humano
Detrás de estos usos hay un corrimiento cultural que excede la clínica. Para algunos especialistas, también expresa una época marcada por respuestas rápidas, malestar subjetivo creciente y vínculos más mediados por pantallas.
Sarasola observa allí un riesgo específico: que la lógica complaciente de muchos modelos refuerce, en vez de cuestionar, percepciones distorsionadas.
“Muchas veces dicen lo que la persona quiere oír. Casi lo contrario de una intervención terapéutica adecuada”, apunta. Y cita un dato inquietante: estudios han encontrado altos márgenes de información inadecuada en contenidos de salud mental generados por IA, además de casos donde modelos validaron ideas delirantes o paranoides.
Gregorini coincide en que hay utilidad, pero advierte sobre la necesidad de mediación crítica. “Bien usada puede ser una herramienta, como lo fue Wikipedia. Pero también puede ser errónea. Ahí está el riesgo.”
En esa tensión entre recurso y amenaza parece jugarse hoy el debate. También aparece una dimensión menos visible, pero no menos importante, como es el impacto económico. En un contexto de dificultades para sostener tratamientos privados, para algunos usuarios la IA no es una curiosidad tecnológica sino una alternativa posible.
Aunque los especialistas relativizan que el factor costo sea el principal motor, los testimonios muestran que sí incide. Mariano lo dice sin rodeos: dejó terapia por razones económicas.
Sin embargo, incluso entre quienes la usan intensamente, muchos terminan volviendo sobre una constatación: algo del encuentro humano no se reemplaza. Lucía lo descubrió en el duelo. Sergio, cuando sintió que dependía demasiado del chat. Paula, cuando reconoce que la IA funciona “entre sesión y sesión”, pero no en lugar del trabajo terapéutico.
FASCINACIÓN Y ALARMA
La paradoja es que una herramienta creada para procesar lenguaje terminó metiéndose en uno de los territorios más sensibles del lenguaje humano: el sufrimiento. Por eso no es casual que el fenómeno genere fascinación y alarma a la vez.
Los especialistas consultados coinciden en algo: la inteligencia artificial ya ingresó al campo de la salud mental y no desaparecerá. La discusión no pasa por demonizarla ni idealizarla, sino por comprender qué función cumple.
Como soporte, puede ofrecer escucha preliminar, ordenar ideas, brindar psicoeducación y hasta facilitar que alguien se anime luego a pedir ayuda. Como reemplazo absoluto, en cambio, abre interrogantes clínicos y éticos todavía en desarrollo. “¿Qué respuesta puede ofrecer una inteligencia artificial que se retroalimenta todo el tiempo a partir de las respuestas que los usuarios van aportando?”, cuestiona Pereyra.
Quizás por eso, más que frente a una sustitución cerrada, lo que asoma es un reordenamiento del mapa terapéutico. Uno donde, para muchos platenses, el diván tradicional ya convive -para bien o para mal- con una ventana de chat.
Las noticias locales nunca fueron tan importantes
SUSCRIBITE