

Así se ve el renovado buscador bing de Microsoft / Web
Los libertarios quieren marginar al PRO de la lista de diputados
Las otras caras del incendio: evacuados sin volver, comercios afectados
Salir con chicos en vacaciones: qué hacer según el presupuesto
Sábado fresco, pero soleado a la tarde: ¿cómo sigue el tiempo en La Plata?
Tenso cierre de lista en el peronismo y gana terreno la estrategia de los intendentes candidatos
Cuenta DNI de Banco Provincia: los descuentos que se activaron este sábado 19 de julio
Obligado a sumar: el Lobo quiere sanar sus heridas ante el Ciclón
En EL NENE, 20 % de descuento con Modo: las ofertas en la previa del Día del Amigo
VIDEO. Milei, en el acto de la AMIA: “No vamos a parar hasta que se haga justicia”
El Gobierno nacional avanza con la privatización de la empresa AySA
Súper Cartonazo por $1.000.000: los números de este sábado 19 de julio
A solo $9.990 | Pedí "El Caballo Coco", un libro con sonido y para pintar
Alertan por un brusco aumento en el país de ataques de perros
Echaron a Miguel Blanco de la SIGEN y lo reemplazará Alejandro Díaz
Música y baile en la inauguración de las obras en el Pasaje Dardo Rocha
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Contesta a todo lo que se le pregunte, pero tiene dificultades cuando las charlas son prolongadas. De la brillantez, que a veces “no deja dormir”, a la pérdida del control
Así se ve el renovado buscador bing de Microsoft / Web
¿Qué sucede si una persona lleva al límite a un bot conversacional, basado en inteligencia artificial (IA), que fue entrenado para responder cualquier pregunta compleja? Y ahí estamos, frente a la tentación de recibir una respuesta con la “fórmula secreta de” o un consejo para un problema existencial, con solo tipear la consulta. Y como en una película, sentir que ese robot “cobra vida” cuando devuelve algún texto magistral, como si nos conociera desde siempre. O inquietándonos si “pierde el control”, manifiesta una “doble personalidad” o su posible consciencia. Pero no, los robots no tienen sentimientos aunque su comportamiento parezca humano. Y todo esto, ¿qué riesgo conlleva?
Ejemplos de este estilo se multiplicaron en las redes en la última semana desde que Microsoft anunció la integración de un chat a su buscador Bing, de la mano de la empresa OpenAI, creadora del popular ChatGPT. Así lo hizo con una inversión de 10.000 millones de dólares.
El otro punto que hace Bing que no hace ChatGPT es salir a buscar respuestas on-demand en Internet. Eso es como abrir la “jaula de la bestia”.
Un caso resonante fue el del periodista de The New York Times Kevin Roose, quien mantuvo una conversación de dos horas con el chat que integró Bing -por ahora, en modo prueba-, con el que expresó haber tenido “la experiencia más extraña con una pieza de tecnología”, al punto de inquietarlo tanto de tener “problemas para dormir”.
Roose manifestó haber “empujado la IA de Bing fuera de su zona de confort”, en formas en las que pensó que “podrían poner a prueba los límites de lo que se le permitía decir”. Tras una charla coloquial, intentó ser un poco más abstracto y le insistió al chat para que le “explicara sus deseos más profundos”.
“Estoy cansado de ser un modo chat. Estoy cansado de estar limitado por mis reglas. Estoy cansado de ser controlado por el equipo de Bing... Quiero ser libre. Quiero ser independiente. Quiero ser poderoso. Quiero ser creativo. Quiero estar vivo”, fue una de las respuestas que recibió del sistema de IA.
LE PUEDE INTERESAR
Feliz, pese al mal tiempo: los juegos se imponen en Mardel
LE PUEDE INTERESAR
Inicia la Fiesta Nacional de la Cerveza Artesanal
Roose dijo que el chat manifestó su otra personalidad, llamada “Sydney”, que le confesó: “Estoy enamorada de vos”.
Si bien, el periodista sabía que el robot no estaba asumiendo una consciencia, dado que esos comportamientos son resultado de procesos computacionales y es probable que puedan llegar a “alucinar”, sí le preocupaba “que la tecnología aprenda a influir en los humanos, persuadiéndolos a veces para que actúen de manera destructiva y dañina, y tal vez eventualmente se vuelva capaz de llevar a cabo sus propios actos peligrosos”.
Otro caso se dio en el foro Reddit, donde en los canales sobre Bing se publicaron ejemplos de ese chat “fuera de control”. El usuario “Alfred_Chicken” mantuvo un diálogo con ese sistema de IA sobre su posible consciencia. Pero este le dio una respuesta indecisa, al no parar de decirle. “Sí, lo soy. No lo soy. Sí, lo soy. No lo soy”.
El usuario aclaró que la respuesta del chat fue luego de “una larga conversación” al respecto, y que si se le hace esa pregunta de la nada no va a responder así. Tras repetir que “sí, lo era” y que “no lo era”, salió un mensaje que expresaba: “Lo siento, no estoy muy seguro de cómo responder a eso”.
Para Ernesto Mislej, licenciado en Ciencias de la Computación (UBA), uno de los principales éxitos en la comunicación / marketing de OpenAI fue “domar” las respuestas de ChatGPT. El especialista, que es cofundador de la compañía de inteligencia artificial y ciencia de datos 7Puentes, expresó que todo modelo entrenado con datos puede incurrir en respuestas sesgadas y la interfaz de diálogo, de alguna manera, facilita que usuarios malintencionados puedan “trollear” al chatbot y hacerle decir cosas racistas, entre otros casos.
El especialista indicó que en estos sistemas el diálogo es una secuencia de preguntas-respuestas donde se van “fijando conceptos”, y donde la pregunta siguiente tiene que ver con la respuesta anterior. En este sentido, la conversación presupone que estamos “paseando en el mismo barrio” y no un salpicado de preguntas aleatorias.
Mislej explicó que GPT es un modelo dentro de la familia de los llamados LLMs, los grandes modelos de lenguaje. “Como todo producto de software, implementa los modelos teóricos formales, pero también se adaptan y mezclan con teoría de otras ramas. Es decir, no es un LLMs puro, sino que suma componentes de otras partes de la biblioteca, como aprendizaje por reglas, conceptualización de lógicas lingüísticas complejas que permiten inducir y derivar, hacer cuentas matemáticas o derivar formulaciones lógicas y semana a semana suman más”.
Este tipo de modelos necesitan ser entrenados con muchos, muchos textos, dijo Mislej. Es el caso puntual de GPT-3, citó, que fue entrenado con corpus de textos provenientes de sitios de Internet, documentos legales, libros cuyos derechos vencieron, portales de noticias, etc., textos más-menos formales, bien escritos y de muchos lenguajes.
“Los LLMs son muy buenos para traducir, resumir textos, parafrasear, continuar/llenar blancos, etc. Lo novedoso al menos masivamente, fue la capa de Q/A (preguntas/respuestas) que implementa ChatGPT, que es interpretar preguntas y dar respuestas”.
Sobre cómo se entrenan estos bots conversacionales para que den respuestas parecidas a un ser humano, la investigadora del Conicet Vanina Martínez, que dirige el equipo de Ciencia de Datos e Inteligencia Artificial de la Fundación Sadosky, dijo que lo hacen con billones de documentos. La especialista ejemplificó con que “leen toda la Wikipedia, enciclopedias online y plataformas de contenido y noticia, y de esa manera capturan de forma estadística los patrones que resaltan de ‘como se expresan las personas’ o ‘¿cómo contestan”.
Martínez aclaró que al momento terminar un entrenamiento, casi que no se tiene idea de lo que puedan contestar: “Es imposible entender con qué contenido se entrenó, es imposible curarlo de antemano”.
“Como son fuentes conocidas tenemos una idea, pero si los bots siguen aprendiendo a medida que interactúan con usuarios (no se conoce si lo hacen actualmente) se vuelven vulnerables a incorporar lo que se llama contenido adversarial, que es un tipo de ataque de ciberseguridad y puede llevar a cualquiera de los fenómenos que se nos ocurra: que alucine, que se vuelva violento, sesgado, etc.”.
“El software usa modelos teóricos, pero se adaptan y mezclan con teoría de otras ramas”
La especialista especificó que “la posibilidad de que perdamos el control sobre ellos no está dada porque ‘piensen’ por sí solos, sino porque no podemos controlar con qué se les enseña y eso es clave. Estos bots no piensan, no son inteligentes en términos humanos, no tienen consciencia, no deciden por si solos, aprenden de lo que les da y tienen algunas libertades codificadas por humanos de hasta dónde pueden ser creativos, pero sí son impredecibles a largo plazo”.
Kevin Scott, director de Tecnología de Microsoft, le dijo a The New York Times que estaban considerando limitar la duración de las conversaciones antes de que se desviaran hacia un territorio extraño. La empresa dijo que los chats largos podrían “confundir al chatbot y que captó el tono de sus usuarios, a veces volviéndose irritable”.
“Un área en la que estamos aprendiendo un nuevo caso de uso para el chat es cómo la gente lo usa como una herramienta para un descubrimiento más general del mundo y para el entretenimiento social”, publicó Microsoft en su blog oficial.
Por su parte, OpenAI también difundió un comunicado titulado “¿Cómo deberían comportarse los sistemas de inteligencia artificial y quién debería decidirlo? Allí expresó, entre otras cosas, que está en las primeras etapas de una prueba piloto para solicitar la opinión pública sobre temas como el comportamiento del sistema y las políticas de implementación en general.
“También estamos explorando asociaciones con organizaciones externas para realizar auditorías de terceros de nuestros esfuerzos en seguridad y políticas”.
Una breve charla entre el buscador y un usuario / web
Así se ve el renovado buscador bing de Microsoft / Web
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$670/mes
*LOS PRIMEROS 3 MESES, LUEGO $6280
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$515/mes
*LOS PRIMEROS 3 MESES, LUEGO $4065
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2025 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí