

Escena de la película “Chappie”
Fentanilo mortal: la pista narco y el pedido de un intendente ante la Justicia Federal de La Plata
VIDEO. Guerra de trapitos en La Plata: piedrazos, corridas y vecinos "de rehenes"
Guardia alta: designaron árbitros para Estudiantes - Huracán y Gimnasia - San Lorenzo
¡Suculento! El Cartonazo por $4.000.000 premió a un lector de Los Hornos
Incendio y milagro en Ensenada: un bebé de tres meses y su madre intoxicados con monóxido
Arrancó el plan de compactación de más de 1.700 vehículos en La Plata
Alak confirmó que la Selección jugará dos partidos por año en el Único y ¿Boca de local en La Plata?
Impactante accidente en Los Hornos: un auto destrozado y el tránsito cortado
La China Suárez le tiró “un palito” a Wanda Nara por un tatuaje de Icardi: “Igual a vos”
La esperanza científica de los pelados: hallaron la molécula que impulsa el crecimiento del pelo
El Suple de Fútbol Infantil Femenino, mañana gratis con el EL DIA: fotos, resultados y más
La dura revelación sobre la salud de Bilardo: "Carlos ya no me reconoce"
Camila Lattanzio, la ex Gran Hermano, confirmó su romance con un político libertario
A solo $9.990 | Pedí "El Caballo Coco", un libro con sonido y para pintar
Vivo de milagro: un motociclista se estrelló contra una pickup en la Ruta 2 y resultó herido
El tren Roca La Plata y una jornada con demoras por accidente y robo de cables
Suspensión preventiva de la orden que obligaba entregar el 51% de las acciones de YPF
Milena Salamanca, la folklorista platense que entró a La Voz con "Zamba de mi esperanza"
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Una movida internacional plantea reparos éticos, técnicos y jurídicos en torno a su aplicación en la guerra. Las críticas también alcanzan a iniciativas para aplicarla en la prevención del delito y en el ámbito de la justicia
Escena de la película “Chappie”
Corría el año 2017 cuando un grupo de 115 pioneros en nuevas tecnologías, entre los que se contaba Elon Musk le pidieron a la ONU, a través de un documento, que prohíba los robots de guerra. En ese documento advertían que, a través d de las armas autónomas, se abriría una caja de Pandora que más tarde nadie podría cerrar.
“Una vez que se desarrollen las letales armas autónomas van a permitir que se lleven a cabo conflictos a una escala como nunca antes se vio y a una velocidad superior a la que los humanos pueden comprender”, advertía el escrito que se difundió en el marco del Congreso INternacional de INteligencia Artificial (IJCAI) y agregaba: “éstas pueden ser armas del terror, armas que los déspotas y terroristas podrían usar contra poblaciones inocentes y que podrían ser hackeadas para actuar en forma a indeseada”.
El documento inauguraba una preocupación que crece cada vez más en el mundo en torno a algunos nuevos usos de la inteligencia artificial, como la guerra, la prevención del delito o su aplicación en la justicia.
Esa preocupación movió la última semana a representantes de 140 organizaciones no gubernamentales de 61 países a reunirse en Buenos Aires en el marco de la campaña mundial contra el avance de los robots asesinos.
En la reunión se plantearon algunos de los principales reparos que plantea el uso de inteligencia artificial en armamento bélico: como el ético, el tecnológico o el jurídico.
En el primero de los renglones, los expertos destacan el peligro que representan las acciones de una máquina capacitada para matar creada por humanos y que pueda tomar decisiones autónomas. El segundo tiene que ver con las limitaciones técnicas que todavía plantea este tipo de aplicación, como por ejemplo, la vulnerabilidad de esas máquinas para sufrir hackeos. El tercero, con las lagunas que se abren en torno a las responsabilidades detrás de los actos que puedan ejecutar estas máquinas.
LE PUEDE INTERESAR
Esqueleto demuestra que los neandertales enterraban con flores a sus muertos
LE PUEDE INTERESAR
El primer mestizaje entre poblaciones antiguas se dio hace 700.000 años
Especialistas platenses consultados destacaron que el planteo en torno a la expansión del uso de la inteligencia artificial no se circunscribe al campo bélico. También hay cuestionamientos éticos, tecnológicos y jurídicos alrededor de su aplicación en campos como el de la prevención del delito o la justicia.
En el marco del encuentro realizado la última semana en Buenos Aires, cinco activistas contra los sistemas de armas letales autónomas (LAWS) o robots asesinos coincidieron en que se avanza hacia un “futuro horrible” si un tratado internacional no prohíbe su desarrollo futuro, y advirtieron que el uso de estos dispositivos implica “transferir el riesgo (de muerte) del combatiente a la sociedad civil”.
La activista estadounidense que obtuvo el Premio Nobel de la Paz en 1997 por su trabajo para la prohibición internacional de minas antipersonales, Jody Williams, aseguró que la lucha para frenar el desarrollo de robots asesinos “es más difícil” porque la humanidad se enfrenta a “una tercera revolución” en la forma de hacer la guerra, después de la pólvora y la bomba atómica.
Junto a ella también participaron del encuentro la ex programadora de Google Laura Nolan; la feminista africana Sylvie Ndongmo; y las especialistas argentinas María Pía Devoto y Vanina Martínez.
La reunión fue el Segundo Encuentro Global de la Campaña para Detener los Robots Asesinos que se desarrolló en Buenos Aires en el Centro Cultural de la Ciencia.
Según se explicó, la Campaña es una alianza de 82 ONG de 32 países creada en 2012 que por primera vez realizó su reunión anual en un país del hemisferio sur.
“Se está creando el ‘momentum’ internacional para que esta prohibición pueda suceder, y creemos que nuestros países tienen un rol que cumplir para alcanzar el consenso internacional y político necesario”, dijo la anfitriona del encuentro y titular de la Red de Seguridad Humana en Latinoamérica y el Caribe (SEHLAC) María Pía Devoto.
Las LAWS “están diseñadas para atacar humanos, territorios o vehículos ocupados por humanos sin que participe la decisión humana” en contextos “preferentemente urbanos y residenciales”, explicó la irlandesa Nolan, quien agregó que los robots asesinos “no sólo son drones: pueden ser tanques, submarinos, buques o aviones”.
Y si bien todavía no existen, ya se podrían fabricar con las herramientas de software y hardware hoy disponibles.
“Esto no solo plantea un dilema ético enorme, sino también problemas tecnológicos porque estos sistemas no son seguros ni razonables por una serie de cuestiones; la primera de las cuales es que el software no entiende las reglas abstractas”, dijo.
Para Nolan, la proliferación de robots asesinos implicaría, por un lado, “una aceleración y amplificación de la guerra” y, por otro, “un sistema de transferencia del riesgo del combatiente a la población civil”, cuyos elementos más vulnerables son “las mujeres y jóvenes”.
Por su parte, Martínez, doctora en Ciencias de la Computación e investigadora del Conicet, hizo hincapié en “la preocupación que desde hace muchos años” embarga a buena parte de los científicos que trabajan en el área de la Inteligencia Artificial “en relación al desarrollo de armas autónomas letales”, pero también sobre las “implicaciones sociales” de cada avance en esta materia.
“Las tecnologías que estamos desarrollando son muy poderosas porque tienen el potencial para cambiar nuestra sociedad radicalmente, y ese cambio puede ser beneficiosos o no: está en nuestras manos que lo sea”, dijo.
En tanto, Williams, premio Nobel de la Paz 1997, activista contra las minas antipersonales, advirtió que el dron que mató al comandante iraní Qasem Soleimani “sólo fue una pequeña muestra de un futuro horrible de robots asesinos”.
Escena de la película “Chappie”
Javier Díaz (Secretario de Innovación y Vinculación tecnológica UNLP).- “El uso de armas autónomas plantea cuestiones éticas, pero también tecnológicas. por ejemplo, son desarrollos que se pueden hackear, atacar falsos positivos o son incapaces de medir daños colaterales”
Raúl Martínez Fazzalari (Abogado, especialista en nuevas tecnologías).- “No es necesario ir tan lejos con la inteligencia artificial. Un auto autónomo ya plantea cuestiones jurídicas todavía no resueltas. Sobre todo, quién es el responsable de sus actos. Va a ser necesaria legislación específica”
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$670/mes
*LOS PRIMEROS 3 MESES, LUEGO $6280
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$515/mes
*LOS PRIMEROS 3 MESES, LUEGO $4065
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2025 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí