Inteligencia Artificial: acuerdo de gigantes sobre seguridad

Más de una decena de pioneros en IA, entre ellos OpenIA y Google, acordaron pautas para desarrollos seguros. Cómo garantizar transparencia y definir umbrales de riesgo

Edición Impresa

Más de una decena de las empresas punteras en Inteligencia Artificial (IA) asumieron nuevos compromisos sobre el desarrollo seguro de esta tecnología durante una reunión del sector ayer en Corea del Sur, anunció el gobierno británico en un comunicado.

El acuerdo alcanzado por 16 empresas tecnológicas -incluyendo a gigantes de Internet como el fabricante de ChatGPT OpenAI, Google DeepMind y Anthropic - se basa en un consenso para un desarrollo “seguro” de esta herramienta alcanzado en la primera cumbre sobre IA celebrada en Bletchley Park en el Reino Unido el año pasado.

“Este compromiso garantiza que las principales empresas de IA del mundo ofrecerán transparencia y rendirán cuentas sobre sus planes para desarrollar una IA que sea segura”, afirmó el primer ministro británico, Rishi Sunak, en un comunicado.

El acuerdo establece que las empresas de IA que no hayan publicado cómo determinan los riesgos que conlleva esta tecnología, van a publicar estas directivas, indicó el gobierno británico.

También se especificarán peligros catalogados como “intolerables” y los protocolos de las empresas de tecnología para asegurarse que no se cruce este umbral.

“En los casos más extremos, las empresas se comprometieron a ‘no desarrollar o a desplegar un modelo o un sistema’, si las políticas de mitigación no pueden mantener los riesgos en un nivel tolerable”, agregó el comunicado.

Este umbral será definido con claridad en la próxima cumbre sobre IA que se celebrará en Francia en 2025.

Otros gigantes del sector que se sumaron a este convenio son las empresas estadounidenses Microsoft, Amazon, IBM y la matriz de Instagram, Meta, la compañía francesa Mistral AI y la china Zhipu.ai.

las amenazas

Como se recordará, a fines de 2023 se celebró en Bletchey Park (Reino Unido) una cumbre mundial sobre seguridad de la IA que propició un acuerdo de pruebas voluntarias con empresas tecnológicas pioneras en la materia, como Open IA, Google, Microsoft o Meta.

Si bien el documento surgido de ese encuentro destaca que los sistemas avanzados de Inteligencia Artificial podrían ayudar a curar enfermedades y elevar el nivel de vida, también conllevan la amenaza de erosionar la estabilidad social y permitir la guerra automatizada.

Con todo, advierte por una amenaza aún mayor que consiste en el avance de la industria tecnológica hacia el desarrollo de sistemas autónomos.

“Las empresas se están centrando en el desarrollo de sistemas de IA generalistas que puedan actuar y perseguir objetivos de forma autónoma. El aumento de las capacidades y la autonomía pronto podría amplificar masivamente el impacto de la IA, con riesgos que incluyen daños sociales a gran escala, usos maliciosos y una pérdida irreversible del control humano sobre los sistemas autónomos de IA”, señalan los expertos, que añaden que el avance incontrolado de la IA podría llevar a la “marginación o extinción de la humanidad”.

hacia la IA agéntica

Según advierten los especialistas, la próxima etapa en el desarrollo de la IA comercial es la IA “agéntica”. Con esta palabra se designa a los sistemas que pueden actuar de forma autónoma y realizar y completar tareas.

Para algunos expertos, el paso de las empresas tecnológicas a los sistemas autónomos podría “amplificar masivamente” el impacto de la IA.

En ese marco, consideran que los gobiernos necesitan contar con regímenes de seguridad destinados a activar medidas reguladoras si los productos alcanzan ciertas potencialidades.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE