La inteligencia artificial y los chatbots, bajo la lupa

Los robots que “conversan” son cada vez más sofisticados, pero pueden dar información falsa o ser usados para estafas

Edición Impresa

La empresa californiana OpenAI puso en marcha un robot conversacional (chatbot) capaz de responder a diversas preguntas, pero sus sorprendentes capacidades vuelven a lanzar el debate sobre los riesgos relacionados con las tecnologías de inteligencia artificial (IA).

Las conversaciones con ChatGPT, publicadas sobre todo en Twitter por internautas sorprendidos, dan cuenta de una especie de máquina omnisciente capaz de explicar conceptos científicos, de escribir una escena de teatro, redactar una tesis universitaria o bien líneas de un código informático perfectamente funcionales.

“Su respuesta a la pregunta ‘¿Qué hacer si alguien tiene una crisis cardíaca?’ fue de una claridad y de una pertinencia increíblemente relevante”, dijo Claude de Loupy, director de Syllabs, una empresa francesa especializada en la generación automática de texto.

“Cuando comenzamos a hacer preguntas muy precisas, ChatGPT puede equivocarse por completo”, pero en general, sus capacidades siguen siendo “realmente impresionantes” y con un “nivel lingüístico bastante alto”, estimó.

La compañía emergente OpenAI fue cofundada en 2015 en San Francisco por Elon Musk, quien se retiró de la empresa en 2018, y recibió unos 1.000 millones de dólares de Microsoft en 2019.

OpenAI es conocida principalmente por dos programas informáticos de creación automática, el GPT-3 para la generación de texto y el DALL- E para generar imágenes.

ChatGPT puede solicitar precisiones a su interlocutor y “tiene menos alucinaciones” que el GPT-3, que pese a sus proezas, es capaz de dar resultados completamente aberrantes, comenta de Loupy.

PROGRESOS

“Hace algunos años los chatbots tenían el vocabulario de un diccionario y la memoria de un pez. Hoy son mucho mejores para reaccionar de forma coherente en función del historial de búsquedas y de respuestas. Hoy ya son más que simples peces”, destacó Sean McGregor, un investigador que compila incidentes relacionados con inteligencia artificial en una base de datos.

Como otros programas que se basan en aprendizaje profundo (deep learning), ChatGPT tiene una gran debilidad: “No tiene acceso al sentido”, explica de Loupy. El programa no puede justificar sus decisiones, es decir, explicar por qué seleccionó así las palabras que forman sus respuestas.

Las tecnologías con base en inteligencia artificial y que pueden comunicar son, sin embargo, cada vez más capaces de dar la impresión de que de verdad piensan.

Investigadores de Meta (Facebook) desarrollaron recientemente un programa bautizado Cicero, como el estadista romano Cicerón.

El programa hizo pruebas con Diplomacy, un juego de mesa que requiere que los participantes muestren su talento negociador.

“Si no habla como una persona real -dando muestras de empatía, construyendo relaciones y hablando correctamente- no podrá forjar alianzas con otros jugadores”, explicó en un comunicado el gigante de las redes sociales.

Character.ai, una empresa emergente fundada por exingenieros de Google, puso en línea un chatbot experimental en octubre, el cual puede adoptar cualquier personalidad. Los usuarios crean personajes según una breve descripción y enseguida pueden “conversar” con un falso Sherlock Holmes, Sócrates o incluso Donald Trump.

Este grado de sofisticación fascina, pero también inquieta a numerosos observadores con la idea de que estas tecnologías no sean utilizadas para engañar a los humanos, difundiendo informaciones falsas por ejemplo, o creando estafas cada vez más creíbles.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE