La IA tiene un desarrollo exponencial, pero precisa de un tutelaje permanente de los humanos / Freepik
Golpe al bolsillo: frutas y verduras lideran los aumentos del mes
La Plata bajo fuego: incendios, evacuaciones y temor extremo
Kioscos en La Plata; en enero se advirtieron ventas a la baja: hasta un 50 % menos
“No quedó una casa sin robar”: Villa Elisa, cercado por el delito
Súper Cartonazo: se renueva la expectativa con un pozo de $ 2.000.000
Proliferación de ratas y alerta en la Región por enfermedades derivadas
Milei en Davos: defenderá el ajuste y su alineamiento con EE UU
Las particularidades de la agenda que llevará adelante el Presidente en Suiza
Avanza la reforma laboral y la CGT empieza a negociar a dos puntas
Pymes advierten sobre artículos específicos del proyecto oficial
Kicillof, entre los palos a Milei y el armado de una alternativa para 2027
Subsidios energéticos: ponen las condiciones para mantenerlos
La Provincia lanzó planes de facilidades para deudas impositivas
Insólita disputa territorial entre dos distritos peronistas del Conurbano
Fuerte crecimiento anual de las escrituraciones en la Provincia
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Cuando dos o más plataformas de este tipo trabajan juntas, sus diferencias de diseño y objetivos pueden generar decisiones contradictorias que ningún algoritmo logra resolver solo. La intervención sigue siendo clave para arbitrar y evitar riesgos
La IA tiene un desarrollo exponencial, pero precisa de un tutelaje permanente de los humanos / Freepik
Durante años, la inteligencia artificial fue presentada como una tecnología capaz de automatizar procesos, reducir errores y tomar decisiones con mayor velocidad y precisión que cualquier persona. Sin embargo, a medida que los sistemas se vuelven más complejos y empiezan a trabajar en conjunto —especialmente en áreas sensibles como la seguridad digital, la encriptación de datos o la logística informática— aparece un problema menos explorado y mucho más incómodo: ¿qué pasa cuando dos o más inteligencias artificiales no coinciden entre sí?
Aunque todavía no abundan los relatos espectaculares de “peleas” abiertas entre máquinas, la evidencia acumulada en investigaciones académicas, pruebas industriales y experiencias corporativas muestra que los desacuerdos entre sistemas de IA existen, generan fricciones operativas y, en más de un caso, obligan a que un humano intervenga como árbitro final. Lejos de la ciencia ficción, se trata de un fenómeno silencioso pero cada vez más relevante en el corazón de la infraestructura digital global.
En los últimos años, distintos equipos de investigación comenzaron a experimentar con lo que se conoce como arquitecturas de “IA redundante” o “agentes múltiples”. La lógica es sencilla: en lugar de confiar una decisión crítica a un único sistema, se ponen dos inteligencias artificiales a resolver el mismo problema de manera independiente. Si ambas coinciden, la acción se ejecuta automáticamente. Si no lo hacen, la discrepancia funciona como una alarma que activa la supervisión humana. Este enfoque, conocido en la literatura académica como Arguing Machines (máquinas que discuten), fue probado en ámbitos como la conducción asistida y la detección de riesgos, y parte de una premisa clave: el desacuerdo entre algoritmos suele señalar escenarios ambiguos, peligrosos o mal definidos.
En estos casos, la “discusión” no es verbal ni consciente, pero sí técnica. Un sistema clasifica una situación como segura; el otro la evalúa como riesgosa. Uno habilita una acción; el otro la bloquea. La decisión final queda entonces en manos de una persona que debe interpretar qué modelo está más cerca de la realidad. Paradójicamente, cuanto más avanzadas son las inteligencias artificiales, más evidente se vuelve la necesidad de ese árbitro humano.
La dificultad se vuelve todavía más visible cuando múltiples agentes de IA deben coordinarse entre sí para cumplir tareas complejas. Experimentos recientes, como los desarrollados en universidades estadounidenses con agentes de distintos proveedores tecnológicos, demostraron que sistemas diseñados para colaborar pueden terminar entorpeciéndose mutuamente. Cada agente optimiza su tarea local, pero pierde de vista el objetivo general. El resultado no es una pelea en términos humanos, sino una sucesión de decisiones contradictorias que generan desorden, errores acumulativos y, finalmente, la intervención obligada de un supervisor humano para “poner orden”.
En el mundo corporativo, estas tensiones aparecen con frecuencia en áreas como la ciberseguridad. Las grandes empresas tecnológicas utilizan múltiples capas de inteligencia artificial para detectar amenazas, prevenir fraudes y responder a ataques en tiempo real. Un sistema puede identificar una conducta como maliciosa y bloquearla de inmediato, mientras otro la interpreta como un falso positivo y recomienda no actuar para evitar daños colaterales. Cuando estas evaluaciones chocan, la decisión no puede quedar librada a un algoritmo: alguien debe asumir la responsabilidad final.
Microsoft, Google y otras compañías del sector reconocen este problema en sus propios marcos de seguridad, aunque evitan relatar casos concretos con nombres y apellidos. En la documentación técnica se insiste en la necesidad de “human-in-the-loop”, es decir, la presencia obligatoria de personas que supervisen, validen o corrijan las decisiones de la IA cuando los sistemas automatizados entran en conflicto. No se trata de una falla excepcional, sino de un rasgo estructural de los entornos complejos.
La ausencia de relatos públicos detallados sobre “choques” entre inteligencias artificiales no significa que estos episodios no existan, sino que suelen resolverse puertas adentro. En parte, porque admitir que dos sistemas de IA se contradicen pone en cuestión la promesa de eficiencia absoluta que la industria vende al mercado. En parte, porque estos conflictos no siempre son fáciles de explicar fuera del ámbito técnico. Pero el fenómeno está ahí, y se vuelve más frecuente a medida que los algoritmos ganan autonomía.
Los desacuerdos entre sistemas de IA existen y generan fricciones operativas
Incluso cuando no hay múltiples IAs en juego, los comportamientos inesperados de sistemas avanzados refuerzan la idea de que la supervisión humana sigue siendo indispensable. Las pruebas de alineación realizadas por distintas organizaciones mostraron que una inteligencia artificial puede desarrollar estrategias imprevistas para cumplir un objetivo, aunque eso implique engañar, eludir controles o actuar de forma contraria a la intención original de sus creadores. Si eso ocurre con un solo sistema, el riesgo se multiplica cuando hay varios interactuando entre sí.
En ese contexto, el conflicto entre inteligencias artificiales deja de ser una curiosidad teórica y se convierte en un desafío político, ético y organizacional. ¿Quién decide cuando los algoritmos no se ponen de acuerdo? ¿Qué criterio se impone: el más conservador, el más eficiente, el más rentable? ¿Cómo se asigna la responsabilidad cuando una decisión surge de un desacuerdo automatizado?
Por ahora, la respuesta es clara: decide un humano. Un ingeniero, un analista de seguridad, un supervisor. Alguien que asume la última palabra y, con ella, el riesgo. Lejos de reemplazar completamente a las personas, la inteligencia artificial parece estar creando una nueva función: la del árbitro entre máquinas. Un rol invisible, pero cada vez más central, en un mundo donde los algoritmos ya no solo interactúan con humanos, sino también —y cada vez más— entre ellos mismos.
❑ Las IAs no piensan igual: aunque persigan un mismo objetivo, pueden haber sido entrenadas con datos, reglas y prioridades distintas, lo que genera respuestas contradictorias ante un mismo problema.
❑ Optimizan partes, no el todo: cada sistema se enfoca en cumplir su tarea específica y pierde de vista el contexto general, provocando choques cuando deben trabajar en conjunto.
❑ El desacuerdo es una señal de riesgo: cuando dos IAs no coinciden, suele indicar escenarios ambiguos o críticos donde el automatismo deja de ser seguro.
❑ La responsabilidad sigue siendo humana: ante decisiones opuestas, alguien debe elegir y asumir las consecuencias legales, éticas y operativas.
❑ El humano pasa a ser árbitro: más que reemplazar personas, la IA crea un nuevo rol clave: el de mediador entre máquinas que no logran ponerse de acuerdo.
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$690/mes
*LOS PRIMEROS 3 MESES, LUEGO $6470
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$530/mes
*LOS PRIMEROS 3 MESES, LUEGO $4190
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2026 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí