Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Robots asesinos: nuevos debates en torno al uso de la inteligencia artificial

Una movida internacional plantea reparos éticos, técnicos y jurídicos en torno a su aplicación en la guerra. Las críticas también alcanzan a iniciativas para aplicarla en la prevención del delito y en el ámbito de la justicia

Robots asesinos: nuevos debates en torno al uso de la inteligencia artificial

Escena de la película “Chappie”

1 de Marzo de 2020 | 02:53
Edición impresa

Corría el año 2017 cuando un grupo de 115 pioneros en nuevas tecnologías, entre los que se contaba Elon Musk le pidieron a la ONU, a través de un documento, que prohíba los robots de guerra. En ese documento advertían que, a través d de las armas autónomas, se abriría una caja de Pandora que más tarde nadie podría cerrar.

“Una vez que se desarrollen las letales armas autónomas van a permitir que se lleven a cabo conflictos a una escala como nunca antes se vio y a una velocidad superior a la que los humanos pueden comprender”, advertía el escrito que se difundió en el marco del Congreso INternacional de INteligencia Artificial (IJCAI) y agregaba: “éstas pueden ser armas del terror, armas que los déspotas y terroristas podrían usar contra poblaciones inocentes y que podrían ser hackeadas para actuar en forma a indeseada”.

El documento inauguraba una preocupación que crece cada vez más en el mundo en torno a algunos nuevos usos de la inteligencia artificial, como la guerra, la prevención del delito o su aplicación en la justicia.

Esa preocupación movió la última semana a representantes de 140 organizaciones no gubernamentales de 61 países a reunirse en Buenos Aires en el marco de la campaña mundial contra el avance de los robots asesinos.

En la reunión se plantearon algunos de los principales reparos que plantea el uso de inteligencia artificial en armamento bélico: como el ético, el tecnológico o el jurídico.

En el primero de los renglones, los expertos destacan el peligro que representan las acciones de una máquina capacitada para matar creada por humanos y que pueda tomar decisiones autónomas. El segundo tiene que ver con las limitaciones técnicas que todavía plantea este tipo de aplicación, como por ejemplo, la vulnerabilidad de esas máquinas para sufrir hackeos. El tercero, con las lagunas que se abren en torno a las responsabilidades detrás de los actos que puedan ejecutar estas máquinas.

Especialistas platenses consultados destacaron que el planteo en torno a la expansión del uso de la inteligencia artificial no se circunscribe al campo bélico. También hay cuestionamientos éticos, tecnológicos y jurídicos alrededor de su aplicación en campos como el de la prevención del delito o la justicia.

“TERCERA REVOLUCIÓN EN LA FORMA DE HACER LA GUERRA”

En el marco del encuentro realizado la última semana en Buenos Aires, cinco activistas contra los sistemas de armas letales autónomas (LAWS) o robots asesinos coincidieron en que se avanza hacia un “futuro horrible” si un tratado internacional no prohíbe su desarrollo futuro, y advirtieron que el uso de estos dispositivos implica “transferir el riesgo (de muerte) del combatiente a la sociedad civil”.

La activista estadounidense que obtuvo el Premio Nobel de la Paz en 1997 por su trabajo para la prohibición internacional de minas antipersonales, Jody Williams, aseguró que la lucha para frenar el desarrollo de robots asesinos “es más difícil” porque la humanidad se enfrenta a “una tercera revolución” en la forma de hacer la guerra, después de la pólvora y la bomba atómica.

Junto a ella también participaron del encuentro la ex programadora de Google Laura Nolan; la feminista africana Sylvie Ndongmo; y las especialistas argentinas María Pía Devoto y Vanina Martínez.

La reunión fue el Segundo Encuentro Global de la Campaña para Detener los Robots Asesinos que se desarrolló en Buenos Aires en el Centro Cultural de la Ciencia.

Según se explicó, la Campaña es una alianza de 82 ONG de 32 países creada en 2012 que por primera vez realizó su reunión anual en un país del hemisferio sur.

“Se está creando el ‘momentum’ internacional para que esta prohibición pueda suceder, y creemos que nuestros países tienen un rol que cumplir para alcanzar el consenso internacional y político necesario”, dijo la anfitriona del encuentro y titular de la Red de Seguridad Humana en Latinoamérica y el Caribe (SEHLAC) María Pía Devoto.

Las LAWS “están diseñadas para atacar humanos, territorios o vehículos ocupados por humanos sin que participe la decisión humana” en contextos “preferentemente urbanos y residenciales”, explicó la irlandesa Nolan, quien agregó que los robots asesinos “no sólo son drones: pueden ser tanques, submarinos, buques o aviones”.

Y si bien todavía no existen, ya se podrían fabricar con las herramientas de software y hardware hoy disponibles.

“Esto no solo plantea un dilema ético enorme, sino también problemas tecnológicos porque estos sistemas no son seguros ni razonables por una serie de cuestiones; la primera de las cuales es que el software no entiende las reglas abstractas”, dijo.

Para Nolan, la proliferación de robots asesinos implicaría, por un lado, “una aceleración y amplificación de la guerra” y, por otro, “un sistema de transferencia del riesgo del combatiente a la población civil”, cuyos elementos más vulnerables son “las mujeres y jóvenes”.

Por su parte, Martínez, doctora en Ciencias de la Computación e investigadora del Conicet, hizo hincapié en “la preocupación que desde hace muchos años” embarga a buena parte de los científicos que trabajan en el área de la Inteligencia Artificial “en relación al desarrollo de armas autónomas letales”, pero también sobre las “implicaciones sociales” de cada avance en esta materia.

“Las tecnologías que estamos desarrollando son muy poderosas porque tienen el potencial para cambiar nuestra sociedad radicalmente, y ese cambio puede ser beneficiosos o no: está en nuestras manos que lo sea”, dijo.

En tanto, Williams, premio Nobel de la Paz 1997, activista contra las minas antipersonales, advirtió que el dron que mató al comandante iraní Qasem Soleimani “sólo fue una pequeña muestra de un futuro horrible de robots asesinos”.

 

Futuro
La activista Jody Williams (premio Nobel de la Paz en 1997) asegura que en la lucha contra los robots asesinos la humanidad se enfrenta “a una tercera revolución” en la forma de hacer la guerra, después del invento de la pólvora y la fabricación de la bomba atómica.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE

Multimedia

Escena de la película “Chappie”

Javier Díaz (Secretario de Innovación y Vinculación tecnológica UNLP).- “​​​​​​​El uso de armas autónomas plantea cuestiones éticas, pero también tecnológicas. por ejemplo, son desarrollos que se pueden hackear, atacar falsos positivos o son incapaces de medir daños colaterales”

Raúl Martínez Fazzalari (Abogado, especialista en nuevas tecnologías).- “No es necesario ir tan lejos con la inteligencia artificial. Un auto autónomo ya plantea cuestiones jurídicas todavía no resueltas. Sobre todo, quién es el responsable de sus actos. Va a ser necesaria legislación específica”​​​​​​​

cargando...
Plan Básico
Acceso ilimitado a www.eldia.com
$64.-

POR MES*

*Costo por 3 meses. Luego $194.-/mes
Mustang Cloud - CMS para portales de noticias

¿Querés recibir notificaciones de alertas?

Para ver nuestro sitio correctamente gire la pantalla