Inteligencia artificial: no la entienden ni sus creadores
Edición Impresa | 14 de Mayo de 2025 | 04:23

Incluso las mentes humanas más brillantes que desarrollan la inteligencia artificial generativa que está a punto de cambiar el mundo admiten que no comprenden cómo piensan los cerebros digitales.
“Quienes no se dedican al sector suelen sorprenderse y alarmarse al descubrir que no entendemos cómo funcionan nuestras propias creaciones de IA”, escribió Darío Amodei, cofundador de Anthropic, en un ensayo publicado en internet en abril.
“Esta falta de comprensión no tiene precedentes en la historia de la tecnología”.
A diferencia de los programas de software tradicionales, que siguen rutas lógicas preestablecidas dictadas por los programadores, los modelos de IA generativa (IA gen) son entrenados para encontrar su propio camino al éxito una vez que reciben un pedido.
En un podcast reciente, Chris Olah, quien formó parte de OpenAI (creador de ChatGPT) antes de unirse a Anthropic, describió la IA gen como un “andamio” sobre el que crecen los circuitos.
Olah es considerado una autoridad en la llamada interpretabilidad mecanicista, un método de ingeniería inversa para comprender cómo funcionan los modelos de IA.
Esta ciencia, nacida hace aproximadamente una década, busca determinar exactamente cómo la IA llega de una pregunta a una respuesta.
“Comprender la totalidad de un modelo de lenguaje extenso es una tarea increíblemente ambiciosa”, dijo Neel Nanda, investigador principal del laboratorio de IA DeepMind de Google.
Es “en cierto modo análogo a intentar comprender completamente el cerebro humano”, algo que los neurocientíficos aún no han logrado, añadió Nanda.
Explorar las mentes digitales para comprender su funcionamiento se ha transformado en un campo académico de gran interés, entre otros motivos por su potencial de tornar la IA más poderosa.
Una IA honesta
Según Mark Crovella, profesor de informática de la Universidad de Boston, la interpretabilidad mecanicista implica estudiar no solo los resultados proporcionados por la IA, sino también analizar los cálculos realizados cuando la tecnología examina las consultas.
La startup Goodfire utiliza software de IA capaz de representar datos en forma de pasos de razonamiento para comprender mejor el procesamiento de la IA generativa y corregir errores.
La herramienta también está diseñada para evitar que los modelos de IA se utilicen con fines maliciosos o que decidan por sí mismos engañar a los humanos.
“Se siente como una carrera contrarreloj para llegar antes de que se implementen modelos de IA extremadamente inteligentes en el mundo sin comprender cómo funcionan”, afirmó Eric Ho, director ejecutivo de Goodfire.
En su ensayo, Amodei afirma que los recientes avances lo volvieron optimista respecto a que la clave para descifrar completamente la IA se encontrará en dos años.
Descifrar el funcionamiento interno de la IA generativa podría allanar el camino para su adopción en áreas donde pequeños errores pueden tener consecuencias drásticas, como la seguridad nacional, sostiene Amodei.
Las noticias locales nunca fueron tan importantes
SUSCRIBITE