Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Un alerta para la humanidad

Terminator se quedó corto: ahora afirman que hay “robots asesinos” que son un peligro

Una ex ingeniera de Google que trabajó en un proyecto militar advirtió que drones y aviones no tripulados con Inteligencia Artificial pueden provocar atrocidades no programadas

Destacan que sin control humano, las máquinas de guerra podrían provocar calamidades

En el año 2015, investigadores, científicos y empresarios en el campo de la inteligencia artificial (IA), incluyendo algunos de la talla del astrónomo fallecido Stephen Hawking y del emprendedor Elon Musk, habían advertido sobre la necesidad de prohibir robots militares que, según ellos, podrían hacer más fáciles y factibles las guerras.

Y aseguraban que los “robots soldados” eran una posibilidad para “dentro de unos años y no décadas”.

Todo parecía una exageración, incluso cuando apuntaban que la creación de estas armas significaría una tercera revolución militar comparable a lo que en su momento significó la invención de la pólvora y las armas nucleares, hitos que empeoraron las amenazas a la paz a nivel mundial.

¿Exageración? A la luz de las declaraciones que se conocieron en las últimas horas de una ex ingeniera de software de Google llamada Laura Nolan, no lo pareciera, como tampoco cuando la propia ONU, el año pasado, dio una señal de alarma sobre el peligro que plantean los llamados “robots asesinos”.

¿Qué dijo la ingeniera Nolan? Pues que los robots asesinos y la Inteligencia Artificial podrían terminar conspirando contra la humanidad.

En una entrevista con el diario británico The Guardian, la ex ingeniera de Google señaló que “la principal amenaza es la falta de control humano, ya que estos robots podrían hacer cosas calamitosas para las que no fueron programados originalmente”.

La probabilidad de un desastre es proporcional a la cantidad de robots en un mismo lugar

 

Y Nolan sabe de lo que habla. Fue reclutada por Google para su controversial proyecto Maven, que permitiría asistencia en IA y tecnología al Ministerio de Defensa de Estados Unidos, proyecto que tuvo como principal objetivo el usar la Inteligencia Artificial para mejorar drones militares.

El plan de Maven era construir sistemas de IA que fueran inteligentes y capaces de seleccionar objetivos enemigos distinguiendo entre personas y objetos. Fue tan polémico, que el proyecto fue eliminado por la misma Google. Y si bien su contrato expiró en marzo de este año, Nolan renunció al trabajo después de que se “preocupara cada vez más desde el punto de vista ético”.

Aún cuando no hay evidencias de que Google esté tras la creación y desarrollo de armas que se manejan de forma autónoma, Nolan advirtió sobre los peligros que esto conlleva.

“La probabilidad de un desastre es proporcional a cuántas de estas máquinas estarán en un área particular a la vez”, explicó.

Lo que ella está viendo son posibles atrocidades y asesinatos ilegales incluso bajo las leyes de la guerra, especialmente si se implementan cientos o miles de estas máquinas.

“Podría haber accidentes a gran escala porque estas cosas comenzarán a comportarse de manera inesperada -asegura- es por eso que cualquier sistema de armas avanzado debería estar sujeto a un control humano significativo. De lo contrario, deben ser prohibidos porque son demasiado impredecibles y peligrosos”.

Otra de las cosas que preocupan a Nolan es que estas armas se prueban en escenarios reales de guerra.

“La otra cosa aterradora de estos sistemas de guerra autónomos es que solo puedes probarlos realmente desplegándolos en una zona de combate real -dice- tal vez eso está sucediendo con los rusos actualmente en Siria, ¿quién sabe?, o con el ejército de los Estados Unidos en lugares como Afganistán”.

“Si se está probando una máquina que está tomando sus propias decisiones sobre el mundo que lo rodea -añadió- entonces tiene que ser en tiempo real. Además, ¿cómo se entrena un sistema que se ejecuta únicamente en software para detectar comportamientos humanos sutiles o discernir la diferencia entre cazadores e insurgentes? ¿Cómo distingue la máquina de matar en su propio vuelo sobre un combatiente de 18 años y otro de 18 años que está cazando conejos? Es muy peligroso”.

Acerca de su trabajo, Nolan explicó que “como ingeniero de confiabilidad del sitio, mi experiencia en Google consistía en garantizar que nuestros sistemas e infraestructuras se mantuvieran en funcionamiento, y esto es con lo que se suponía que debía ayudar a Maven. No participé directamente con las armas, pero me di cuenta que podía formar parte de una cadena de asesinatos”.

Si llegaste hasta acá es porque valorás nuestras noticias. Defendé la información y formá parte de nuestra comunidad.
Suscribite a uno de nuestros planes digitales.

  • + Vistas
  • + Comentadas

Debe iniciar sesión para continuar

cargando...

¿Querés recibir notificaciones de alertas?

Para ver nuestro sitio correctamente gire la pantalla