Cuando la IA se volvió “consciente”

Edición Impresa

Blake Lemoine trabajaba en 2022 como ingeniero de software en Google cuando, según él, advirtió que un sistema de inteligencia artificial había “tomado consciencia”.

Se refería a una tecnología de conversación llamada LaMDA (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo), con la que Lemoine intercambió miles de mensajes. A partir de ellos, el ingeniero consideró que ese sistema pudo hablar de su “personalidad, derechos y deseos”, por lo que se trataba de una persona.

LaMDA se entrena con grandes cantidades de texto, y luego encuentra patrones y predice secuencias de palabras.

Tras las afirmaciones de Lemoine, la compañía lo suspendió y tiempo después lo despidió al alegar que había violado las políticas de confidencialidad, de acuerdo con la prensa especializada.

“Nuestro equipo -que incluye a éticos y tecnólogos- ha revisado las preocupaciones de Blake según nuestros principios de la IA y le ha informado que las pruebas no respaldan sus afirmaciones”, afirmó en un comunicado Brian Gabriel, vocero de la gigante tecnológica.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE