Cuando la IA se volvió “consciente”
Edición Impresa | 18 de Febrero de 2023 | 03:33

Blake Lemoine trabajaba en 2022 como ingeniero de software en Google cuando, según él, advirtió que un sistema de inteligencia artificial había “tomado consciencia”.
Se refería a una tecnología de conversación llamada LaMDA (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo), con la que Lemoine intercambió miles de mensajes. A partir de ellos, el ingeniero consideró que ese sistema pudo hablar de su “personalidad, derechos y deseos”, por lo que se trataba de una persona.
LaMDA se entrena con grandes cantidades de texto, y luego encuentra patrones y predice secuencias de palabras.
Tras las afirmaciones de Lemoine, la compañía lo suspendió y tiempo después lo despidió al alegar que había violado las políticas de confidencialidad, de acuerdo con la prensa especializada.
“Nuestro equipo -que incluye a éticos y tecnólogos- ha revisado las preocupaciones de Blake según nuestros principios de la IA y le ha informado que las pruebas no respaldan sus afirmaciones”, afirmó en un comunicado Brian Gabriel, vocero de la gigante tecnológica.
Las noticias locales nunca fueron tan importantes
SUSCRIBITE