Daño al lenguaje: por la regulación de los grandes modelos de IA

Lo admitió el CEO de OpenAI, quien además remarcó la “privacidad y la preocupación” que existe a la cuestión en todos los niveles. “La gente se debe sentir cómoda y segura”, dijo

Edición Impresa

El CEO de OpenAI, Sam Altman, confesó que cree que la regulación para los pequeños modelos de lenguaje impulsados por Inteligencia Artificial (IA) “no tiene sentido” y apuesta por regular de cara a los modelos grandes como, en este caso, ChatGPT de OpenAI, porque son “los que realmente pueden hacer daño”. Así lo ha expresado el director ejecutivo de la compañía creadora de herramientas como Whisper y Dall-E2, en un coloquio celebrado ayer en la IE University.

Durante la ponencia, el CEO de OpenAI ha remarcado que la regulación es “muy importante”, pero también ha puesto énfasis en que sobrerregular “no es bueno” ya que, en el caso de las pequeñas compañías de modelos de lenguajes, cortaría su capacidad de innovación y de creación. Insistió en que la regulación tiene que estar diseñada para los modelos grandes, y prever que realmente “no podamos hacer daño en el mundo”.

Igualmente, Altman ha remarcado la importancia de la privacidad y la preocupación que existe en torno a esta cuestión a todos los niveles. En este sentido, ha asegurado que desde la compañía continuarán “trabajando con otros gobiernos alrededor del mundo” para conseguir mejorar los modelos de lenguaje impulsados por IA y proteger la privacidad.

Además, ha apuntado que desde OpenAI quieren llevar a cabo tecnología con la que “la gente se encuentre cómoda y segura”.

“Queremos hacer lo que la gente quiera. Queremos crear el producto que la gente quiera utilizar”, ha aseverado Altman, en referencia al trabajo que han estado llevando a cabo con ChatGPT para mejorar aspectos como la privacidad, la seguridad de los datos y la calidad de la información.

“Es justo y razonable ser escéptico”, ha manifestado, al tiempo que ha admitido que el trabajo de la tecnología con la IA “no ha sido perfecto”. En este sentido, ha señalado que aunque ha habido “muchos errores”, también se ha de tener en cuenta todo el trabajo llevado a cabo para solucionarlos y crear mejoras.

De la misma forma, Altman ha explicado que han empujado a estas tecnologías, en este caso ChatGPT, a ser “abiertas de cara al mundo”, aún sabiendo que no son perfectas porque “la gente tiene que probarlas”.

Es decir, según ha desarrollado, considera mejor que la gente, las instituciones y los gobiernos prueben una tecnología de estas características aunque aún no esté completamente lista, para ver “cómo se puede utilizar de forma buena y mala y, en base a ello, adaptarla a la sociedad”.

Mientras, al ser consultado sobre los temores que despierta estos avances en una sociedad que ve como estos sistemas inteligentes se quedan con sus puestos de trabajo, el CEO de OpenAI cargó contra los debates en las redes sociales.

Considera que existen demasiadas discusiones que no aportan nada ya que posteriormente no se extrapolan realmente a un trabajo real que llegue a un puerto concreto.

De esta manera, se pierde mucho en el camino y son debates estériles y discusiones bizantinas que no llegan a absolutamente ningún puerto.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE