La necesidad de un abordaje interdisciplinario

Edición Impresa

Por ALEJANDRO BATISTA (*)

Si la IA se usa cómo un medio, la responsabilidad se mantendría en la persona que genere una injuria o difamación. En los aspectos civiles, la responsabilidad se amplia a los desarrolladores. Todo será materia de análisis prácticamente, caso por caso, y de la prueba que pueda aportarse.

A nivel internacional hay, básicamente, dos tendencias: la que impulsa una regulación de la industria de la IA, y la que apunta a regular los efectos de su uso, por separado en los diferentes ámbitos, mientras que promueven códigos o cartas éticas a modo de autoregulación. Se utiliza, para ello, una clasificación por riesgos. No es lo mismo un sistema de IA que recomiende libros o series, que una que se aplique a la medicina, la selección de personal, o la videovigilancia. La primera postura tiene el problema de frenar el desarrollo y la segunda, que se basa en la autorregulación. En este último grupo están India, Inglaterra y la Unión Europea.

A falta de legislación específica, las empresas detrás de los desarrollos de IA, como OpenIA, tienen responsabilidad patrimonial por lo posibles daños que los sistemas puedan ocasionar a terceros. Esta rresponsabilidad que, según los casos, podrá ser compartida con usuarios de las herramientas en la medida que se pueda probar dicha participación. Para evitar esos daños, deben incorporar todas las medidas a su alcance para prevenir.

Más allá de la responsabilidad general, puede haber multas que apliquen diferentes autoridades en caso de incumplimiento de determinada normativa, tal como sucedió recientemente en Italia, por lo que OpenIA debió hacer modificaciones a ChatGPT por intimación de la Autoridad de Protección de Datos.

Por si hiciera falta el desarrollo de los sistemas de IA, demandará para el ámbito jurídico un abordaje necesariamente interdisciplinario y se lo puede contemplar solamente desde lo estrictamente normativo. Este proceso debe incorporar aspectos técnicos, éticos, filosóficos, sociológicos y hasta psicológicos. Resulta útil que pueda llegarse a algunos acuerdos básicos que puedan guiar desarrollos éticos que pongan en primer lugar la dignidad humana y sus derechos fundamentales, sin restringir o detener el proceso de innovación.

Hay un gran debate sobre si las creaciones de las IA pueden ser objeto de protección por derechos intelectuales. La definición clásica de estos derechos refiere a las “creaciones del intelecto humano”. Sin perjuicio de ello, hay instancias como concurso y revistas científicas que comienzan a admitir elementos de autoría o co-autoría con IA. A su vez, tenemos que los sistemas de IA generativos de imágenes o textos, pueden ser entrenados en el estilo de una persona, un escritor, un pintor, un cantante, etc. con lo cuál se configurarían usos no permitidos. La legislación necesariamente deberá adecuarse para extender el alcance de estos derechos intelectuales y también probablemente incluir otra figura cómo el “prompter” o persona que alimenta la IA.

En lo relativo a la protección de datos personales, hay normativa cómo el Reglamento Europeo o, en Argentina, la Ley 25.326 que son de aplicación también a estas herramientas y así lo comenzaron a exigir países cómo Italia y España, por ejemplo.

 

(*) Abogado y prosecretario de Políticas Digitales de la Facultad de Ciencias Jurídicas y Sociales de la UNLP

 

 

IA

Las noticias locales nunca fueron tan importantes
SUSCRIBITE