La IA tiene un desarrollo exponencial, pero precisa de un tutelaje permanente de los humanos / Freepik
Gimnasia mejoró, pero perdió 2 a 1 ante Central y sintió impotencia
Docentes de la UNLP anunciaron un paro y marcharán contra la reforma laboral
Tren Roca a La Plata: varias horas de demoras y cancelaciones por accidente en Berazategui
La IGJ pidió designar veedores en la AFA por “graves irregularidades” y falta de documentación
Guardia alta: hay árbitros para Estudiantes vs Vélez y Tigre vs Gimnasia por la fecha 8
Hazaña del O'Higgins en Brasil: por qué podría ser rival de Estudiantes o Boca en la Copa
VIDEO. El mar tapó la playa: fuerte crecida en San Bernardo, San Clemente y Mar del Tuyú
VIDEO. Despedida tumbera con ráfagas de tiros y una moto quemada en el Gran La Plata
Fuerte operativo en un prostíbulo de La Plata: rescataron a ocho mujeres que eran víctimas de trata
Tiene 17 años, cayó dos veces en tres días y lo acusan de romper portones para robar en La Plata
El PJ libra otra batalla interna por espacios clave en el Senado
Carlos Bianco: “En el peronismo hay un problema de conducción”
VIDEO. "Le quebró la muñeca": atropelló a una mujer, la dejó al costado y escapó en La Plata
Robó en un comercio de Camino Centenario, fue perseguido por vecinos y terminó detenido
VIDEO. Se tiró con su UTV desde un camión en movimiento en plena playa de Villa Gesell
La tasa SUM se pagará todos los meses en La Plata: las fechas de vencimiento
Empresario admitió que "robábamos con el precio de los neumáticos" y Milei salió a criticarlo
Crimen de Fernando Báez Sosa: solicitaron la nulidad de la condena a Lucas Pertossi
Siete robos en el año para un jardín de La Plata que funciona en containers
Tenso cruce en vivo: Tamara Pettinato se negó a hablar con Cinthia Fernández
Brasil: murieron 46 personas por fuertes lluvias en Minas Gerais
VIDEO.- Denuncian que el pasto y la tierra "se comen" la bicisenda del camino a Arana
Gimnasia apoyó el paro del fútbol: qué dice el comunicado en defensa de la AFA
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Cuando dos o más plataformas de este tipo trabajan juntas, sus diferencias de diseño y objetivos pueden generar decisiones contradictorias que ningún algoritmo logra resolver solo. La intervención sigue siendo clave para arbitrar y evitar riesgos
La IA tiene un desarrollo exponencial, pero precisa de un tutelaje permanente de los humanos / Freepik
Durante años, la inteligencia artificial fue presentada como una tecnología capaz de automatizar procesos, reducir errores y tomar decisiones con mayor velocidad y precisión que cualquier persona. Sin embargo, a medida que los sistemas se vuelven más complejos y empiezan a trabajar en conjunto —especialmente en áreas sensibles como la seguridad digital, la encriptación de datos o la logística informática— aparece un problema menos explorado y mucho más incómodo: ¿qué pasa cuando dos o más inteligencias artificiales no coinciden entre sí?
Aunque todavía no abundan los relatos espectaculares de “peleas” abiertas entre máquinas, la evidencia acumulada en investigaciones académicas, pruebas industriales y experiencias corporativas muestra que los desacuerdos entre sistemas de IA existen, generan fricciones operativas y, en más de un caso, obligan a que un humano intervenga como árbitro final. Lejos de la ciencia ficción, se trata de un fenómeno silencioso pero cada vez más relevante en el corazón de la infraestructura digital global.
En los últimos años, distintos equipos de investigación comenzaron a experimentar con lo que se conoce como arquitecturas de “IA redundante” o “agentes múltiples”. La lógica es sencilla: en lugar de confiar una decisión crítica a un único sistema, se ponen dos inteligencias artificiales a resolver el mismo problema de manera independiente. Si ambas coinciden, la acción se ejecuta automáticamente. Si no lo hacen, la discrepancia funciona como una alarma que activa la supervisión humana. Este enfoque, conocido en la literatura académica como Arguing Machines (máquinas que discuten), fue probado en ámbitos como la conducción asistida y la detección de riesgos, y parte de una premisa clave: el desacuerdo entre algoritmos suele señalar escenarios ambiguos, peligrosos o mal definidos.
En estos casos, la “discusión” no es verbal ni consciente, pero sí técnica. Un sistema clasifica una situación como segura; el otro la evalúa como riesgosa. Uno habilita una acción; el otro la bloquea. La decisión final queda entonces en manos de una persona que debe interpretar qué modelo está más cerca de la realidad. Paradójicamente, cuanto más avanzadas son las inteligencias artificiales, más evidente se vuelve la necesidad de ese árbitro humano.
La dificultad se vuelve todavía más visible cuando múltiples agentes de IA deben coordinarse entre sí para cumplir tareas complejas. Experimentos recientes, como los desarrollados en universidades estadounidenses con agentes de distintos proveedores tecnológicos, demostraron que sistemas diseñados para colaborar pueden terminar entorpeciéndose mutuamente. Cada agente optimiza su tarea local, pero pierde de vista el objetivo general. El resultado no es una pelea en términos humanos, sino una sucesión de decisiones contradictorias que generan desorden, errores acumulativos y, finalmente, la intervención obligada de un supervisor humano para “poner orden”.
En el mundo corporativo, estas tensiones aparecen con frecuencia en áreas como la ciberseguridad. Las grandes empresas tecnológicas utilizan múltiples capas de inteligencia artificial para detectar amenazas, prevenir fraudes y responder a ataques en tiempo real. Un sistema puede identificar una conducta como maliciosa y bloquearla de inmediato, mientras otro la interpreta como un falso positivo y recomienda no actuar para evitar daños colaterales. Cuando estas evaluaciones chocan, la decisión no puede quedar librada a un algoritmo: alguien debe asumir la responsabilidad final.
Microsoft, Google y otras compañías del sector reconocen este problema en sus propios marcos de seguridad, aunque evitan relatar casos concretos con nombres y apellidos. En la documentación técnica se insiste en la necesidad de “human-in-the-loop”, es decir, la presencia obligatoria de personas que supervisen, validen o corrijan las decisiones de la IA cuando los sistemas automatizados entran en conflicto. No se trata de una falla excepcional, sino de un rasgo estructural de los entornos complejos.
La ausencia de relatos públicos detallados sobre “choques” entre inteligencias artificiales no significa que estos episodios no existan, sino que suelen resolverse puertas adentro. En parte, porque admitir que dos sistemas de IA se contradicen pone en cuestión la promesa de eficiencia absoluta que la industria vende al mercado. En parte, porque estos conflictos no siempre son fáciles de explicar fuera del ámbito técnico. Pero el fenómeno está ahí, y se vuelve más frecuente a medida que los algoritmos ganan autonomía.
Los desacuerdos entre sistemas de IA existen y generan fricciones operativas
Incluso cuando no hay múltiples IAs en juego, los comportamientos inesperados de sistemas avanzados refuerzan la idea de que la supervisión humana sigue siendo indispensable. Las pruebas de alineación realizadas por distintas organizaciones mostraron que una inteligencia artificial puede desarrollar estrategias imprevistas para cumplir un objetivo, aunque eso implique engañar, eludir controles o actuar de forma contraria a la intención original de sus creadores. Si eso ocurre con un solo sistema, el riesgo se multiplica cuando hay varios interactuando entre sí.
En ese contexto, el conflicto entre inteligencias artificiales deja de ser una curiosidad teórica y se convierte en un desafío político, ético y organizacional. ¿Quién decide cuando los algoritmos no se ponen de acuerdo? ¿Qué criterio se impone: el más conservador, el más eficiente, el más rentable? ¿Cómo se asigna la responsabilidad cuando una decisión surge de un desacuerdo automatizado?
Por ahora, la respuesta es clara: decide un humano. Un ingeniero, un analista de seguridad, un supervisor. Alguien que asume la última palabra y, con ella, el riesgo. Lejos de reemplazar completamente a las personas, la inteligencia artificial parece estar creando una nueva función: la del árbitro entre máquinas. Un rol invisible, pero cada vez más central, en un mundo donde los algoritmos ya no solo interactúan con humanos, sino también —y cada vez más— entre ellos mismos.
❑ Las IAs no piensan igual: aunque persigan un mismo objetivo, pueden haber sido entrenadas con datos, reglas y prioridades distintas, lo que genera respuestas contradictorias ante un mismo problema.
❑ Optimizan partes, no el todo: cada sistema se enfoca en cumplir su tarea específica y pierde de vista el contexto general, provocando choques cuando deben trabajar en conjunto.
❑ El desacuerdo es una señal de riesgo: cuando dos IAs no coinciden, suele indicar escenarios ambiguos o críticos donde el automatismo deja de ser seguro.
❑ La responsabilidad sigue siendo humana: ante decisiones opuestas, alguien debe elegir y asumir las consecuencias legales, éticas y operativas.
❑ El humano pasa a ser árbitro: más que reemplazar personas, la IA crea un nuevo rol clave: el de mediador entre máquinas que no logran ponerse de acuerdo.
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$740/mes
*LOS PRIMEROS 3 MESES, LUEGO $6990
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$570/mes
*LOS PRIMEROS 3 MESES, LUEGO $4500
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2026 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí