Análisis | Cristina en el banquillo: un alegato político para atacar a la Justicia
Análisis | Cristina en el banquillo: un alegato político para atacar a la Justicia
VIDEO.- Estudiantes sacó un triunfo de la galera y se lo dio vuelta a Gimnasia (M) en 5 minutos
Avances rumbo al juicio contra el cura acusado de abuso en La Plata
VIDEO. De La Plata al mundo: la historia de Eva, una mini reina que desfilará en Milán
Perder todo en una ráfaga de furia climática: cruel relato platense
El estacionamiento medido de La Plata ya cuesta más caro: subió a $1.000 en hora pico
“Chihuahua desubicada”: Cinthia Fernández y Callejón, a los gritos
Misterio en El Retiro: una muerte que enciende interrogantes
Arana: en medio de una crisis, tomó una decisión irreversible
Ofrecimiento de personal y empresas para reparación de viviendas y service del hogar
Tras el temporal, amaneció fresco en La Plata: cuándo llegan de nuevo las lluvias a la Región
Las PASO, en la mira: el Gobierno acelera la reforma electoral y negocia cambios
Dolor en La Plata por la muerte de la profesora e investigadora Silvia Cristina Mallo
Cuenta DNI del Banco Provincia: los descuentos de hoy miércoles 18 de marzo
Los números de la suerte del miércoles 18 de marzo de 2026, según el signo del zodíaco
Vendió un auto con fallas, lo amenazaron, se fue del país y mataron a su madre a tiros
“Pegale un tiro”: el grito que marcó un millonario robo en Los Hornos
Actividades: taller de tecnología para adultos, ajedrez y clases de acrobacia
Las ventas bajan pero los precios de alquileres de locales no aflojan
Milei ratificó alineamientos y cargó contra el “terrorismo iraní”
Mahiques se reunió con la Corte, con el foco en las vacantes a cubrir
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Una movida internacional plantea reparos éticos, técnicos y jurídicos en torno a su aplicación en la guerra. Las críticas también alcanzan a iniciativas para aplicarla en la prevención del delito y en el ámbito de la justicia
Escena de la película “Chappie”
Corría el año 2017 cuando un grupo de 115 pioneros en nuevas tecnologías, entre los que se contaba Elon Musk le pidieron a la ONU, a través de un documento, que prohíba los robots de guerra. En ese documento advertían que, a través d de las armas autónomas, se abriría una caja de Pandora que más tarde nadie podría cerrar.
“Una vez que se desarrollen las letales armas autónomas van a permitir que se lleven a cabo conflictos a una escala como nunca antes se vio y a una velocidad superior a la que los humanos pueden comprender”, advertía el escrito que se difundió en el marco del Congreso INternacional de INteligencia Artificial (IJCAI) y agregaba: “éstas pueden ser armas del terror, armas que los déspotas y terroristas podrían usar contra poblaciones inocentes y que podrían ser hackeadas para actuar en forma a indeseada”.
El documento inauguraba una preocupación que crece cada vez más en el mundo en torno a algunos nuevos usos de la inteligencia artificial, como la guerra, la prevención del delito o su aplicación en la justicia.
Esa preocupación movió la última semana a representantes de 140 organizaciones no gubernamentales de 61 países a reunirse en Buenos Aires en el marco de la campaña mundial contra el avance de los robots asesinos.
En la reunión se plantearon algunos de los principales reparos que plantea el uso de inteligencia artificial en armamento bélico: como el ético, el tecnológico o el jurídico.
En el primero de los renglones, los expertos destacan el peligro que representan las acciones de una máquina capacitada para matar creada por humanos y que pueda tomar decisiones autónomas. El segundo tiene que ver con las limitaciones técnicas que todavía plantea este tipo de aplicación, como por ejemplo, la vulnerabilidad de esas máquinas para sufrir hackeos. El tercero, con las lagunas que se abren en torno a las responsabilidades detrás de los actos que puedan ejecutar estas máquinas.
LE PUEDE INTERESAR
Esqueleto demuestra que los neandertales enterraban con flores a sus muertos
LE PUEDE INTERESAR
El primer mestizaje entre poblaciones antiguas se dio hace 700.000 años
Especialistas platenses consultados destacaron que el planteo en torno a la expansión del uso de la inteligencia artificial no se circunscribe al campo bélico. También hay cuestionamientos éticos, tecnológicos y jurídicos alrededor de su aplicación en campos como el de la prevención del delito o la justicia.
En el marco del encuentro realizado la última semana en Buenos Aires, cinco activistas contra los sistemas de armas letales autónomas (LAWS) o robots asesinos coincidieron en que se avanza hacia un “futuro horrible” si un tratado internacional no prohíbe su desarrollo futuro, y advirtieron que el uso de estos dispositivos implica “transferir el riesgo (de muerte) del combatiente a la sociedad civil”.
La activista estadounidense que obtuvo el Premio Nobel de la Paz en 1997 por su trabajo para la prohibición internacional de minas antipersonales, Jody Williams, aseguró que la lucha para frenar el desarrollo de robots asesinos “es más difícil” porque la humanidad se enfrenta a “una tercera revolución” en la forma de hacer la guerra, después de la pólvora y la bomba atómica.
Junto a ella también participaron del encuentro la ex programadora de Google Laura Nolan; la feminista africana Sylvie Ndongmo; y las especialistas argentinas María Pía Devoto y Vanina Martínez.
La reunión fue el Segundo Encuentro Global de la Campaña para Detener los Robots Asesinos que se desarrolló en Buenos Aires en el Centro Cultural de la Ciencia.
Según se explicó, la Campaña es una alianza de 82 ONG de 32 países creada en 2012 que por primera vez realizó su reunión anual en un país del hemisferio sur.
“Se está creando el ‘momentum’ internacional para que esta prohibición pueda suceder, y creemos que nuestros países tienen un rol que cumplir para alcanzar el consenso internacional y político necesario”, dijo la anfitriona del encuentro y titular de la Red de Seguridad Humana en Latinoamérica y el Caribe (SEHLAC) María Pía Devoto.
Las LAWS “están diseñadas para atacar humanos, territorios o vehículos ocupados por humanos sin que participe la decisión humana” en contextos “preferentemente urbanos y residenciales”, explicó la irlandesa Nolan, quien agregó que los robots asesinos “no sólo son drones: pueden ser tanques, submarinos, buques o aviones”.
Y si bien todavía no existen, ya se podrían fabricar con las herramientas de software y hardware hoy disponibles.
“Esto no solo plantea un dilema ético enorme, sino también problemas tecnológicos porque estos sistemas no son seguros ni razonables por una serie de cuestiones; la primera de las cuales es que el software no entiende las reglas abstractas”, dijo.
Para Nolan, la proliferación de robots asesinos implicaría, por un lado, “una aceleración y amplificación de la guerra” y, por otro, “un sistema de transferencia del riesgo del combatiente a la población civil”, cuyos elementos más vulnerables son “las mujeres y jóvenes”.
Por su parte, Martínez, doctora en Ciencias de la Computación e investigadora del Conicet, hizo hincapié en “la preocupación que desde hace muchos años” embarga a buena parte de los científicos que trabajan en el área de la Inteligencia Artificial “en relación al desarrollo de armas autónomas letales”, pero también sobre las “implicaciones sociales” de cada avance en esta materia.
“Las tecnologías que estamos desarrollando son muy poderosas porque tienen el potencial para cambiar nuestra sociedad radicalmente, y ese cambio puede ser beneficiosos o no: está en nuestras manos que lo sea”, dijo.
En tanto, Williams, premio Nobel de la Paz 1997, activista contra las minas antipersonales, advirtió que el dron que mató al comandante iraní Qasem Soleimani “sólo fue una pequeña muestra de un futuro horrible de robots asesinos”.
Escena de la película “Chappie”
Javier Díaz (Secretario de Innovación y Vinculación tecnológica UNLP).- “El uso de armas autónomas plantea cuestiones éticas, pero también tecnológicas. por ejemplo, son desarrollos que se pueden hackear, atacar falsos positivos o son incapaces de medir daños colaterales”
Raúl Martínez Fazzalari (Abogado, especialista en nuevas tecnologías).- “No es necesario ir tan lejos con la inteligencia artificial. Un auto autónomo ya plantea cuestiones jurídicas todavía no resueltas. Sobre todo, quién es el responsable de sus actos. Va a ser necesaria legislación específica”
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$740/mes
*LOS PRIMEROS 3 MESES, LUEGO $6990
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$570/mes
*LOS PRIMEROS 3 MESES, LUEGO $4500
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2026 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí