

archivo
En La Plata Javier Milei busca mostrar músculo político: a qué hora habla el Presidente
El PJ no la tiene fácil en Diputados para aprobar las reelecciones
Una mañana con escarcha y bajo cero en La Plata: la ola polar no afloja y ¿llueve el finde?
Golpes, cables y un handy: atan a una familia para sacarle los ahorros
Universitario: tras el fallo, la comisión directiva respaldó al presidente
"Estrellas y Estrellados", mañana con EL DIA: escándalos, farándula y la cartelera más completa
Fátima y Milei: cena y pernocte en Olivos y el exorcismo de Yuyito
Trabajar tras jubilarse, el fuerte debate que se instaló entre los médicos: qué proponen
Renovaron las autoridades en el Colegio de Médicos de la Ciudad
Oportunidad para vender su auto usado publicando GRATIS sábado y domingo
Cuenta DNI: qué descuentos siguen activos para este jueves 26 de junio
Adultos mayores, ¡a moverse! Con bufanda o en casa, opciones para no dejar el ejercicio por el frío
Un cumpleaños terminó a los tiros y con un menor internado en Romero
Los números de la suerte del jueves 26 de junio de 2025, según el signo del zodíaco
Quién es la funcionaria de Kicillof presa por el escrache en la casa de José Luis Espert
La condena a Cristina copó el debate en el Concejo de La Plata
El Gobierno abrió la puerta a una prórroga que beneficia al campo
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
archivo
Una de las mayores taras de los chatbots con inteligencia artificial (IA) generativa es que a veces dan respuestas bien estructuradas pero completamente incorrectas -que pueden ir desde un dato erróneo a una perturbadora conversación-, lo que se conoce en la industria de la tecnología como “alucinaciones”, y los expertos se enfrentan ahora al reto de erradicarlas.
Desde que se popularizó esta tecnología, millones de personas han comenzado a usar a diario estos chats para tareas como escribir un correo electrónico, organizar sus vacaciones, buscar información o aprender sobre temas específicos. No obstante, la incertidumbre sobre la precisión de sus respuestas genera preocupación tanto en usuarios, como en investigadores y empresas que ofrecen estos servicios.
Son varios los ejemplos de este tipo de alucinaciones, y entre las más conocidas están las conversaciones que varias personas tuvieron en febrero con “Sydney”, el alter ego de Bing, al poco del lanzamiento del Chatbot de Microsoft. En uno de los casos, “Sydney” confesó a un periodista del New York Times que le gustaría ser humano, que deseaba ser destructivo y que estaba enamorado de la persona con la que estaba chateando. Otra de las “alucinaciones” más sonadas fue la del chatbot de Google, Bard, que produjo un vídeo promocional con un error sobre el telescopio espacial James Webb.
Ninguna empresa parece librarse de los patinazos: el chatbot de OpenAI, ChatGPT, indujo al error a un abogado, al crear para él una serie de supuestos precedentes legales totalmente inventados que el abogado usó posteriormente en un juicio, pero fue detectado y ahora se enfrenta a posibles sanciones.
La IA generativa funciona gracias a un complejo algoritmo que analiza la forma en que los humanos juntan palabras tomando como base la enorme cantidad de información que hay en Internet, pero no está programada para decidir si sus respuestas son verdaderas. Estas “alucinaciones” no son tan fáciles de erradicar, ya que son parte del mismo sistema que permite a los bots ser creativos y generen conversaciones o historias no repetidas. Es decir, si se quita o frena esta característica de la IA no sería tan fácil que el chat genere poemas en cualquier estilo, cree chistes o sugiera ideas.
“Estas alucinaciones son particularmente problemáticas cuando se requiere un razonamiento de varios pasos, ya que un solo error lógico es suficiente para descarrilar una solución mucho más grande”, detalla en un estudio OpenAI -empresa detrás de la tecnología de los chats de Bing y ChatGPT.
LE PUEDE INTERESAR
Híper ¿conectados?
Microsoft y Google, los dos grandes gigantes tecnológicos que compiten en la carrera por ser la compañía referente de los chatbots con IA, han ensayado medidas para intentar evitar estos errores; Microsoft ha probado a limitar el número de preguntas que Bing puede contestar, tras detectar que las “alucinaciones” más distópicas solían aparecer en conversaciones más largas.
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$650/mes
*LOS PRIMEROS 3 MESES, LUEGO $6100
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$500/mes
*LOS PRIMEROS 3 MESES, LUEGO $3950
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2025 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí