Grises y agujeros

Edición Impresa

Por ALEJANDRO GONZÁLEZ PRÍNCIPE (*)

Los servicios como el de ChatGPT, en sí, no tienen una personalidad jurídica. No podemos reclamar contra él. Es una herramienta como cualquier otra, es decir, al igual que una computadora, una imprenta, etcétera. La respuesta está en quienes utilizan a esta herramienta.

En cuanto a la privacidad o a la protección de datos que se puede tener, sí hay legislación. Tanto en la Unión Europea, con la protección de datos, como en Argentina con el habeas data. Ahí se establecen requisitos sobre recopilación, consentimiento, almacenamiento y uso de datos personales y las organizaciones que utilizan diferentes inteligencias artificiales, independientemente del ChatGPT, tienen que asegurarse ellos de cumplir con esa regulación.

La propiedad intelectual interfiere porque ChatGPT (en la versión 4 o el chatbot de Bing), por ejemplo, puede generar textos, imágenes, música, entre otras cosas. Entonces hay que determinar quién tiene esos derechos de propiedad intelectual sobre ese contenido que fue generado por la inteligencia artificial y si se requiere de algún tipo de licencia para su distribución. En eso hay algún gris.

Hay propuestas de bloqueos, pero no regulaciones. En Bruselas se busca garantizar que la inteligencia artificial no vaya en contra de algún derecho del ciudadano. En Estados Unidos, la Administración Nacional de Telecomunicaciones y el Departamento de Comercio está solicitando indicaciones sobre regulaciones. En Italia, bloquearon ChatGPT y ahora indican que pueden levantar la restricción si cumplen determinadas condiciones de uso de datos. Además, en Canadá hay una misma línea, en busca de directrices. Hay algunos primeros lineamientos que van a terminar siendo legislaciones. Esto es de alcance global y corresponde al derecho internacional.

Hay una responsabilidad ética que tiene OpenAI que es la entidad que tiene que garantizar el uso responsable. Esto también es para otros desarrolladores de la inteligencia artificial. Se debe contemplar el diseño ético, es decir que el software tiene que adherirse a cuestiones como la privacidad, la seguridad de la información, la transparencia, la equidad, evitar sesgos y discriminación en los algoritmos y en el conjunto de datos que se utilizan para entrenar a los modelos. Sin embargo, hay políticas propias de cada de cada empresa en general o de la misma persona particular que diseña esto. ¿Quién regula y quién controla? Ese es el agujero que hay.

¿Qué ocurre si alguien toma cualquier modelo abierto que hay de IA y lo lanza al mercado o crea una aplicación o no lo entrena con modelos que eviten sesgos, palabras inapropiadas, etcétera? ¿Cómo los resolvemos? Esto tiene que ver con la responsabilidad civil. Hay que supervisar y por el momento imponer multas monetarias y prohibiciones.

 

(*) Director del Sistema Institucional de Educación a Distancia (SIED) de la UNLP

 

IA

Las noticias locales nunca fueron tan importantes
SUSCRIBITE