Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Temas del día:
Buscar
Temas |LA ERA DE LA INFORMACIÓN

La inteligencia artificial desafía a los humanos

Expertos promueven nuevas formas de medir y entender el conocimiento. ¿Por qué habría que reconocer las capacidades únicas tanto de las máquinas como de las personas?

La inteligencia artificial desafía a los humanos

“El Último Examen de la Humanidad”, está poniendo a prueba las capacidades de los sistemas de IA / Pexels

2 de Febrero de 2025 | 07:15
Edición impresa

El avance de la inteligencia artificial (IA) está alcanzando nuevas fronteras, y con ello surgen preguntas inquietantes sobre el futuro de la relación entre la tecnología y el conocimiento humano. Un nuevo desafío, denominado “El Último Examen de la Humanidad”, está poniendo a prueba las capacidades de los sistemas de IA, a medida que los expertos se preguntan si alguna vez existirá una prueba suficientemente difícil para medir la inteligencia de estas máquinas.

Durante años, las IA han sido evaluadas mediante exámenes estandarizados, similares a los de nivel SAT, que incluyen preguntas de matemáticas, ciencias y lógica. Con el tiempo, los sistemas de IA se volvieron tan buenos en estos exámenes que los investigadores tuvieron que crear pruebas más desafiantes. Sin embargo, incluso los modelos de IA más avanzados de empresas como OpenAI, Google y Anthropic han demostrado ser capaces de responder correctamente a muchas de estas preguntas de nivel doctoral. Esto ha dado paso a una pregunta escalofriante: ¿están los sistemas de IA superando las capacidades humanas al punto de que ya no podemos medirlos con precisión?

El “Último Examen de la Humanidad” es la respuesta tentativa a esa pregunta. Creado por el investigador de seguridad de la IA, Dan Hendrycks, y con la colaboración de Scale AI, la prueba está diseñada para desafiar a los modelos de IA con preguntas que abarcan áreas tan diversas como la filosofía analítica y la ingeniería de cohetes. Hendrycks, quien ya había trabajado en la creación de la prueba “Massive Multitask Language Understanding” (MMLU), considera que este nuevo desafío es aún más arduo, con preguntas extremadamente complejas planteadas por expertos en sus respectivos campos.

El examen consta de unas 3,000 preguntas de opción múltiple y de respuesta corta. Los diseñadores de la prueba se aseguraron de que las preguntas no solo fueran complejas, sino que también estuvieran diseñadas para superar la capacidad de los modelos actuales. En el proceso de desarrollo, se utilizó un filtro en dos etapas: primero, los modelos de IA fueron puestos a prueba con las preguntas; luego, las que no pudieron responder correctamente fueron refinadas por expertos humanos.

El resultado es revelador. A pesar de sus avances, los modelos de IA más avanzados, como Gemini 1.5 Pro de Google y Claude 3.5 Sonnet de Anthropic, fracasaron estrepitosamente. El sistema 01 de OpenAI logró la puntuación más alta con solo un 8.3%, lo que indica que incluso los modelos de IA más avanzados todavía están lejos de superar este examen extremadamente difícil. Sin embargo, Hendrycks anticipa que estos sistemas mejorarán rápidamente, y que en un futuro cercano podrían alcanzar puntuaciones superiores al 50%, lo que les permitiría ser considerados “oráculos de clase mundial”, capaces de responder con mayor precisión que los expertos humanos en cualquier tema.

Lo que resulta desconcertante sobre este progreso de la IA es su irregularidad. Aunque hay modelos que pueden diagnosticar enfermedades con mayor eficacia que los médicos humanos o ganar competiciones de matemáticas, en otras áreas, como la aritmética básica o la escritura de poesía, estos sistemas muestran deficiencias notables. Esta inconsistencia ha generado opiniones divididas sobre el ritmo y el impacto de los avances en la IA.

El “Último Examen de la Humanidad” pone en evidencia el desafío de crear una evaluación que refleje la verdadera capacidad de la IA. La habilidad de los modelos de IA para resolver problemas complejos no implica necesariamente que sean útiles en tareas más informales o menos estructuradas, como la investigación científica, que requiere de creatividad y juicio, cualidades que aún están fuera del alcance de las máquinas.

El examen también plantea una cuestión filosófica más profunda: ¿cómo medimos el progreso de una inteligencia que no es humana? ¿Y, si los sistemas de IA se vuelven capaces de resolver problemas que actualmente están fuera del alcance humano, qué implicaciones tiene esto para la sociedad, la economía y el trabajo intelectual?

A medida que las IA se acercan a ser capaces de responder a preguntas que antes solo los mejores expertos humanos podían abordar, los investigadores comienzan a preguntarse si la IA eventualmente superará a los seres humanos en todas las áreas del conocimiento, o si simplemente debemos redefinir lo que significa ser “inteligente”.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE a esta promo especial

ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES

HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS

Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales

¿Ya tiene suscripción? Ingresar

Full Promocional mensual

$690/mes

*LOS PRIMEROS 3 MESES, LUEGO $6470

Acceso ilimitado a www.eldia.com

Acceso a la versión PDF

Beneficios Club El Día

Suscribirme

Básico Promocional mensual

$530/mes

*LOS PRIMEROS 3 MESES, LUEGO $4190

Acceso ilimitado a www.eldia.com

Suscribirme
Ver todos los planes Ir al Inicio
cargando...
Básico Promocional mensual
Acceso ilimitado a www.eldia.com
$530.-

POR MES*

*Costo por 3 meses. Luego $4190.-/mes
Mustang Cloud - CMS para portales de noticias

Para ver nuestro sitio correctamente gire la pantalla