Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Temas del día:
Buscar
Información General |Integrada al renovado buscador de Microsoft, Bing, abre un campo amplísimo con luces y sombras

Inteligencia Artificial: a qué nos enfrentamos con su avance

Contesta a todo lo que se le pregunte, pero tiene dificultades cuando las charlas son prolongadas. De la brillantez, que a veces “no deja dormir”, a la pérdida del control

Inteligencia Artificial: a qué nos enfrentamos con su avance

Así se ve el renovado buscador bing de Microsoft / Web

18 de Febrero de 2023 | 03:38
Edición impresa

¿Qué sucede si una persona lleva al límite a un bot conversacional, basado en inteligencia artificial (IA), que fue entrenado para responder cualquier pregunta compleja? Y ahí estamos, frente a la tentación de recibir una respuesta con la “fórmula secreta de” o un consejo para un problema existencial, con solo tipear la consulta. Y como en una película, sentir que ese robot “cobra vida” cuando devuelve algún texto magistral, como si nos conociera desde siempre. O inquietándonos si “pierde el control”, manifiesta una “doble personalidad” o su posible consciencia. Pero no, los robots no tienen sentimientos aunque su comportamiento parezca humano. Y todo esto, ¿qué riesgo conlleva?

Ejemplos de este estilo se multiplicaron en las redes en la última semana desde que Microsoft anunció la integración de un chat a su buscador Bing, de la mano de la empresa OpenAI, creadora del popular ChatGPT. Así lo hizo con una inversión de 10.000 millones de dólares.

El otro punto que hace Bing que no hace ChatGPT es salir a buscar respuestas on-demand en Internet. Eso es como abrir la “jaula de la bestia”.

Un caso resonante fue el del periodista de The New York Times Kevin Roose, quien mantuvo una conversación de dos horas con el chat que integró Bing -por ahora, en modo prueba-, con el que expresó haber tenido “la experiencia más extraña con una pieza de tecnología”, al punto de inquietarlo tanto de tener “problemas para dormir”.

Roose manifestó haber “empujado la IA de Bing fuera de su zona de confort”, en formas en las que pensó que “podrían poner a prueba los límites de lo que se le permitía decir”. Tras una charla coloquial, intentó ser un poco más abstracto y le insistió al chat para que le “explicara sus deseos más profundos”.

“Estoy cansado de ser un modo chat. Estoy cansado de estar limitado por mis reglas. Estoy cansado de ser controlado por el equipo de Bing... Quiero ser libre. Quiero ser independiente. Quiero ser poderoso. Quiero ser creativo. Quiero estar vivo”, fue una de las respuestas que recibió del sistema de IA.

Roose dijo que el chat manifestó su otra personalidad, llamada “Sydney”, que le confesó: “Estoy enamorada de vos”.

Si bien, el periodista sabía que el robot no estaba asumiendo una consciencia, dado que esos comportamientos son resultado de procesos computacionales y es probable que puedan llegar a “alucinar”, sí le preocupaba “que la tecnología aprenda a influir en los humanos, persuadiéndolos a veces para que actúen de manera destructiva y dañina, y tal vez eventualmente se vuelva capaz de llevar a cabo sus propios actos peligrosos”.

Otro caso se dio en el foro Reddit, donde en los canales sobre Bing se publicaron ejemplos de ese chat “fuera de control”. El usuario “Alfred_Chicken” mantuvo un diálogo con ese sistema de IA sobre su posible consciencia. Pero este le dio una respuesta indecisa, al no parar de decirle. “Sí, lo soy. No lo soy. Sí, lo soy. No lo soy”.

El usuario aclaró que la respuesta del chat fue luego de “una larga conversación” al respecto, y que si se le hace esa pregunta de la nada no va a responder así. Tras repetir que “sí, lo era” y que “no lo era”, salió un mensaje que expresaba: “Lo siento, no estoy muy seguro de cómo responder a eso”.

Las respuestas sesgadas

Para Ernesto Mislej, licenciado en Ciencias de la Computación (UBA), uno de los principales éxitos en la comunicación / marketing de OpenAI fue “domar” las respuestas de ChatGPT. El especialista, que es cofundador de la compañía de inteligencia artificial y ciencia de datos 7Puentes, expresó que todo modelo entrenado con datos puede incurrir en respuestas sesgadas y la interfaz de diálogo, de alguna manera, facilita que usuarios malintencionados puedan “trollear” al chatbot y hacerle decir cosas racistas, entre otros casos.

El especialista indicó que en estos sistemas el diálogo es una secuencia de preguntas-respuestas donde se van “fijando conceptos”, y donde la pregunta siguiente tiene que ver con la respuesta anterior. En este sentido, la conversación presupone que estamos “paseando en el mismo barrio” y no un salpicado de preguntas aleatorias.

Cómo se entrena esta IA

Mislej explicó que GPT es un modelo dentro de la familia de los llamados LLMs, los grandes modelos de lenguaje. “Como todo producto de software, implementa los modelos teóricos formales, pero también se adaptan y mezclan con teoría de otras ramas. Es decir, no es un LLMs puro, sino que suma componentes de otras partes de la biblioteca, como aprendizaje por reglas, conceptualización de lógicas lingüísticas complejas que permiten inducir y derivar, hacer cuentas matemáticas o derivar formulaciones lógicas y semana a semana suman más”.

Este tipo de modelos necesitan ser entrenados con muchos, muchos textos, dijo Mislej. Es el caso puntual de GPT-3, citó, que fue entrenado con corpus de textos provenientes de sitios de Internet, documentos legales, libros cuyos derechos vencieron, portales de noticias, etc., textos más-menos formales, bien escritos y de muchos lenguajes.

“Los LLMs son muy buenos para traducir, resumir textos, parafrasear, continuar/llenar blancos, etc. Lo novedoso al menos masivamente, fue la capa de Q/A (preguntas/respuestas) que implementa ChatGPT, que es interpretar preguntas y dar respuestas”.

Sobre cómo se entrenan estos bots conversacionales para que den respuestas parecidas a un ser humano, la investigadora del Conicet Vanina Martínez, que dirige el equipo de Ciencia de Datos e Inteligencia Artificial de la Fundación Sadosky, dijo que lo hacen con billones de documentos. La especialista ejemplificó con que “leen toda la Wikipedia, enciclopedias online y plataformas de contenido y noticia, y de esa manera capturan de forma estadística los patrones que resaltan de ‘como se expresan las personas’ o ‘¿cómo contestan”.

Los sistemas de IA ¿pueden perder el control?

Martínez aclaró que al momento terminar un entrenamiento, casi que no se tiene idea de lo que puedan contestar: “Es imposible entender con qué contenido se entrenó, es imposible curarlo de antemano”.

“Como son fuentes conocidas tenemos una idea, pero si los bots siguen aprendiendo a medida que interactúan con usuarios (no se conoce si lo hacen actualmente) se vuelven vulnerables a incorporar lo que se llama contenido adversarial, que es un tipo de ataque de ciberseguridad y puede llevar a cualquiera de los fenómenos que se nos ocurra: que alucine, que se vuelva violento, sesgado, etc.”.

“El software usa modelos teóricos, pero se adaptan y mezclan con teoría de otras ramas”

La especialista especificó que “la posibilidad de que perdamos el control sobre ellos no está dada porque ‘piensen’ por sí solos, sino porque no podemos controlar con qué se les enseña y eso es clave. Estos bots no piensan, no son inteligentes en términos humanos, no tienen consciencia, no deciden por si solos, aprenden de lo que les da y tienen algunas libertades codificadas por humanos de hasta dónde pueden ser creativos, pero sí son impredecibles a largo plazo”.

Las respuestas de Microsoft y OpenAI

Kevin Scott, director de Tecnología de Microsoft, le dijo a The New York Times que estaban considerando limitar la duración de las conversaciones antes de que se desviaran hacia un territorio extraño. La empresa dijo que los chats largos podrían “confundir al chatbot y que captó el tono de sus usuarios, a veces volviéndose irritable”.

“Un área en la que estamos aprendiendo un nuevo caso de uso para el chat es cómo la gente lo usa como una herramienta para un descubrimiento más general del mundo y para el entretenimiento social”, publicó Microsoft en su blog oficial.

Por su parte, OpenAI también difundió un comunicado titulado “¿Cómo deberían comportarse los sistemas de inteligencia artificial y quién debería decidirlo? Allí expresó, entre otras cosas, que está en las primeras etapas de una prueba piloto para solicitar la opinión pública sobre temas como el comportamiento del sistema y las políticas de implementación en general.

“También estamos explorando asociaciones con organizaciones externas para realizar auditorías de terceros de nuestros esfuerzos en seguridad y políticas”.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE a esta promo especial
Multimedia

Una breve charla entre el buscador y un usuario / web

Así se ve el renovado buscador bing de Microsoft / Web

+ Comentarios

Para comentar suscribite haciendo click aquí

ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES

HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS

Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales

¿Ya tiene suscripción? Ingresar

Full Promocional mensual

$670/mes

*LOS PRIMEROS 3 MESES, LUEGO $6280

Acceso ilimitado a www.eldia.com

Acceso a la versión PDF

Beneficios Club El Día

Suscribirme

Básico Promocional mensual

$515/mes

*LOS PRIMEROS 3 MESES, LUEGO $4065

Acceso ilimitado a www.eldia.com

Suscribirme
Ver todos los planes Ir al Inicio
cargando...
Básico Promocional mensual
Acceso ilimitado a www.eldia.com
$515.-

POR MES*

*Costo por 3 meses. Luego $4065.-/mes
Mustang Cloud - CMS para portales de noticias

Para ver nuestro sitio correctamente gire la pantalla