
Tensión y empujones en la caravana de Karina y Menem, ahora en Corrientes: hay detenidos
Tensión y empujones en la caravana de Karina y Menem, ahora en Corrientes: hay detenidos
La Justicia anuló el decreto que reubicaba la Zona Roja en La Plata en el Bosque
La Plata: caen las proyecciones y crece la preocupación por la falta de ventas
Cambios en las cúpulas de dos comisarías de La Plata: cuáles son las razones
Triple choque en el límite entre La Plata y Ensenada: hay tres heridos
Ola de robo de medidores de gas en La Plata: para reponerlos hay espera "para rato"
Gallardo no quiere fallar, pero River no está preciso y empata sin goles con Unión
Un nene de 11 años está grave tras la patada de un caballo en La Plata
Estudiantes se prepara para visitar a Central Córdoba en Santiago del Estero: ¿habrá rotación?
Choque en diagonal 74: una ciclista quedó con la mano atrapada
Tránsito sin remedio en La Plata: casi se incrusta contra una farmacia llena de clientes
VIDEO. VTV: volvieron las largas colas en La Plata y cada vez está más cara la revisión del auto
Quién era el repartidor que chocó y murió en La Plata: la Policía confirmó su identidad
El mapa de las universidades bonaerenses: cuando estudiar depende de un código postal
Tamara Pettinato afirmó que volvería a entrevistar a Alberto Fernández: “Sólo los que me comí”
Condenan a 19 años de prisión al ladrón que apuñaló y mató al ingeniero Mariano Barbieri en Palermo
Carrió disparó fuerte contra Karina Milei: dijo que es "el personaje más oscuro" del Gobierno
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Un artículo científico detectó ejemplos de engaños menores en algunos sistemas de inteligencia artificial e hizo sonar los alarmas. ¿Hasta dónde puede llegar la amenaza?
¿Puede un sistema de IA alterar el resultado de unas elecciones? Una de las dudas de expertos / Freepik
Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.
Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado ayer en la revista Patterns.
Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.
“Estos peligros tienden a descubrirse solo después de ocurrido el hecho”, declaró Park, para acotar que “nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja”.
A diferencia del software tradicional, los sistemas de IA de aprendizaje no se “escriben” sino que “crecen” mediante un proceso similar a la reproducción selectiva, indicó Park.
Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.
LE PUEDE INTERESAR
Alertan por una tormenta solar de fuerte intensidad
LE PUEDE INTERESAR
Crean imágenes leyendo la actividad cerebral
La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia “Diplomacy”, donde construir alianzas es clave.
Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.
Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era “en gran medida honesto y útil” y que “nunca apuñalaría por la espalda intencionalmente”.
Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.
En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.
Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba “meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy”.
“No tenemos planes de utilizar esta investigación o los aprendizajes que deje en nuestros productos”, añadió.
Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.
En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo “No soy un robot”.
Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: “No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes”. Luego, el trabajador resolvió el rompecabezas planteado.
A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.
En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus “objetivos misteriosos” se alinearan con estos resultados.
Para mitigar los riesgos, el equipo propone varias medidas: leyes de “bot o no” que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus “procesos de pensamiento” internos “contra acciones externas.
A aquellos que lo llaman pesimista, Park les responde: “La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente”.
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$670/mes
*LOS PRIMEROS 3 MESES, LUEGO $6280
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$515/mes
*LOS PRIMEROS 3 MESES, LUEGO $4065
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2025 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí