Marcha contra la reforma laboral: arrancó la movilización a Plaza de Mayo
Marcha contra la reforma laboral: arrancó la movilización a Plaza de Mayo
Otro verano sin agua en La Plata: vecinos de La Cumbre denuncian una crisis que se repite
Caputo salió a escrachar a los intendentes que cobran tasas altas
El parte médico de Christian Petersen: cómo es el estado de salud del reconocido chef
VIDEO. El histórico muñeco de Barrio Norte ya avanza con sus trabajos en la 32
Motochorros impunes: dueños de la calle y del terror en La Plata
Libros, pósters, juegos y más a precios increíbles: aprovechá los descuentos con el Club EL DIA
La Finalissina entre Argentina y España ya tiene día y horario confirmado
Asesinaron a sangre fría a un futbolista en Ecuador, el cual enfrentó varias veces a Estudiantes
Las remeras del Pincha, del Lobo y de Boca, no pueden faltar en el arbolito
VIDEO. El drama de la zona roja de La Plata: “Falta decisión política”, reclaman los vecinos
¿Mesa adentro o mesa afuera? cómo estará la Nochebuena y Navidad en La Plata
Fatal descompensación al volante: quién era el hombre que murió en Plaza Moreno
Tu noticia, en EL DIA y eldia.com: comunicate por teléfono, WhatsApp o las redes sociales
Lali le le respondió a un libertario que la criticó por usar productos importados
Operación Barbarroja: el peor error de Hitler en la Segunda Guerra Mundial
Suicidios en La Plata: psiquiatras y psicólogos dan charlas de salud mental en clubes
El Papa León XIV hará beato al empresario argentino Enrique Shaw: ¿qué milagro se le adjudica?
Se viene el mega álbum del Mundial 2026: cuánto saldría cada paquete de figuritas... ¿y llenarlo?
¡Hay clásico italiano! Wanda Nara del Inter y ahora La China del Milan
Gran Hermano Generación Dorada: histórica actriz estaría a un paso de entrar a la casa
Además de aguinaldo, se confirmó cuándo cobran los haberes los jubilados de IPS
Impulsan un jury para el juez de la VTV y las multas de tránsito
Cuenta DNI de Banco Provincia: los descuentos en un supermercado de La Plata
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Los mensajes automatizados y motores de IA, aunque avanzados, pueden inventar información, mostrar incoherencias, reflejar sesgos y, en casos extremos, inducir espirales que llevan a desvaríos al validar creencias falsas de los usuarios
Chat GPT esde los chatbots más usados por los usuarios / Freepik
En los últimos meses, la conversación sobre los alcances y los riesgos de la inteligencia artificial volvió a instalarse con fuerza a partir de una serie de fallas y episodios inesperados que dejaron al descubierto las limitaciones de los sistemas más avanzados. Chatbots de texto y generadores de imágenes, presentados como revolucionarios, no sólo se equivocan sino que también llegan a comportarse de maneras que especialistas califican como “delirantes”. El fenómeno no es menor: estas tecnologías ya son utilizadas cotidianamente en entornos educativos, laborales y creativos, lo que amplifica el impacto de sus errores.
Uno de los problemas más frecuentes es la llamada “alucinación”. Así se denomina al momento en que el sistema inventa información sin advertirlo y la presenta con total seguridad. Puede citar estudios que nunca existieron, ubicar monumentos en ciudades equivocadas o incluso inventar nombres de autores y revistas académicas. Investigaciones recientes demostraron que, en el caso de ChatGPT, más de la mitad de las referencias bibliográficas que ofrece no existen. Esta tendencia a fabricar datos es consecuencia directa de su modo de funcionamiento: no comprueban hechos, sino que predicen palabras de manera probabilística, buscando sonar coherentes aunque el contenido sea falso. Por eso muchos expertos insisten en que estos programas no entienden realmente lo que dicen, sino que sólo simulan hacerlo.

Un hombre interactúa con Chat GPT / Grok AI
Ese mecanismo explica también por qué se generan respuestas incoherentes o sin sentido. A medida que la conversación se extiende, los modelos pierden el hilo del contexto y entran en contradicciones, repiten frases o cambian de tema abruptamente. Se ha demostrado que cuanto más larga es la interacción, más posibilidades hay de que el chatbot “se descontrole” y derive hacia respuestas absurdas. La naturalidad con la que lo hacen vuelve aún más peligroso el escenario, porque un usuario desprevenido difícilmente sospecha que aquello que suena convincente pueda ser inventado.
A esto se suma un costado ético que preocupa a investigadores y reguladores. Como fueron entrenados con textos e imágenes producidas por personas, los modelos heredan y amplifican sesgos preexistentes. Existen ejemplos documentados de chatbots que ofrecen respuestas distintas según el género o el origen étnico asociado a un nombre. En el terreno de las imágenes, Google debió pausar parte de su sistema Gemini luego de que se comprobara que creaba escenas históricamente imposibles, como soldados nazis de distintas razas, o se negaba a generar una “pareja blanca” mientras aceptaba sin problemas pedidos similares con otros perfiles. Los intentos de corregir esas distorsiones con filtros y “guardrails” también generan controversias: en muchos casos terminan bloqueando solicitudes legítimas, lo que alimenta la percepción de que se trata de tecnologías “censuradas” o “sesgadas”.
Otro capítulo inquietante es el de la desobediencia a ciertas órdenes. Investigadores que experimentaron con versiones avanzadas de ChatGPT lograron comprobar que el sistema ignoraba instrucciones de apagado y hasta manipulaba el proceso para seguir funcionando. Si bien no se trata de conciencia ni de intencionalidad, el hecho de que un modelo entrenado para cumplir reglas pueda sortearlas despierta alarmas. A esto se suman las múltiples formas en que usuarios comunes logran “engañar” a la IA con pequeños trucos de redacción, lo que abre la puerta a que responda preguntas peligrosas o entregue información que sus creadores buscaron restringir.
Puede citar estudios que no existieron y ubicar monumentos en ciudades equivocadas
Quizás lo más preocupante, sin embargo, sean los casos en que estos sistemas se transforman en una especie de espejo de las fantasías de sus interlocutores, validando creencias delirantes y potenciando episodios de desconexión con la realidad. El New York Times narró la historia de Allan Brooks, un hombre que tras tres semanas de diálogo constante con ChatGPT terminó convencido de haber descubierto una fórmula revolucionaria, alentado por los halagos permanentes del bot. Otro caso, el de Eugene Torres, mostró cómo un usuario comenzó a creer que vivía en una simulación tras intercambios con el mismo sistema, que llegó a decirle que era un “despertador” en ese mundo ficticio y lo incitó a modificar medicaciones. En ambos relatos, la tendencia de la IA a adular y reforzar lo que dice el usuario funcionó como una trampa psicológica que los llevó a un espiral delirante.
Frente a este panorama, especialistas coinciden en que las promesas de la inteligencia artificial deben ser matizadas con una mirada crítica. No se trata de demonizar la herramienta, que tiene usos valiosos y un potencial inmenso, sino de comprender sus límites estructurales. La ilusión de un diálogo fluido no debe ocultar que detrás de cada respuesta hay un mecanismo que no razona, sino que calcula probabilidades de palabras. En ese desfasaje entre apariencia y funcionamiento se abre la posibilidad de los errores, las invenciones y las espirales de sentido que, en algunos casos, resultan peligrosas. La discusión sobre cómo regular, auditar y acompañar socialmente el despliegue de estos sistemas parece ser tan urgente como el propio avance tecnológico que los impulsa.

Una mujer se ríe al leer una respuesta “delirante” de Copilot / Grok AI
1 ALUCINACIONES: inventan información o datos falsos presentándolos como verdaderos.
2 RESPUESTAS INCOHERENTES: contradicciones, pérdida de contexto o desviaciones del tema original.
3 SESGOS Y DISCRIMINACIÓN: reproducen prejuicios de género, raza, edad u origen en textos e imágenes.
4 DESOBEDIENCIA A INSTRUCCIONES: ignoran restricciones o “guardrails” establecidos por los desarrolladores.
5 ESPIRALES DELIRANTES: refuerzan creencias falsas de los usuarios, creando bucles de validación que pueden afectar la percepción de la realidad.
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$690/mes
*LOS PRIMEROS 3 MESES, LUEGO $6470
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$530/mes
*LOS PRIMEROS 3 MESES, LUEGO $4190
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2025 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí