La incidencia de Rusia y otros países
Edición Impresa | 20 de Octubre de 2024 | 03:08

La inteligencia artificial (IA) ha irrumpido con fuerza en las elecciones presidenciales de Estados Unidos, y países como Rusia, Irán y China no han tardado en aprovechar su potencial para desinformar. A través de la creación de contenido falso utilizando herramientas de IA generativa, como deepfakes, estas naciones buscan influir en la percepción de los votantes. Desde imágenes surrealistas de los candidatos hasta audios falsos con la voz de Joe Biden, la tecnología se está convirtiendo en un arma de manipulación informativa, erosionando la confianza en lo que los ciudadanos ven y oyen en las redes sociales.
Rusia, en particular, ha intensificado sus esfuerzos en desestabilizar el proceso electoral estadounidense, tal como lo ha señalado la Inteligencia Nacional de EE.UU. Se han identificado operaciones rusas que utilizan IA para crear perfiles falsos en redes sociales, con el objetivo de influir en la opinión pública y generar divisiones políticas. A esta campaña de desinformación se suman también Irán y China, quienes han utilizado herramientas como ChatGPT para generar comentarios engañosos en plataformas digitales. Estas acciones demuestran que la IA no solo es una herramienta tecnológica, sino también un campo de batalla en la arena política global.
Mientras tanto, dentro de Estados Unidos, las campañas electorales han comenzado a explorar el uso de IA para movilizar votantes, aunque con resultados mixtos. Sin embargo, la preocupación crece entre los estadounidenses, ya que, según un estudio del Pew Research Center, más del 50 % de la población teme que la IA sea utilizada para crear y difundir información falsa. Este panorama resalta el desafío que enfrentan las democracias modernas en medio del auge de la inteligencia artificial, con países como Rusia liderando la manipulación informativa en las elecciones, amenazando la autenticidad y transparencia del proceso electoral.
Las noticias locales nunca fueron tan importantes
SUSCRIBITE