

Provincia: con el desempate de Magario, el Senado aprobó las reelecciones indefinidas
El Lobo de Orfila sale a la cancha frente a Defensa y Justicia: formaciones, hora y TV
Operativo central: el Pincha se arma desde el pie y avanza firme por Rogel
El papelón de Boca en el Mundial de Clubes 2025: le hizo un gol un profesor de escuela
Oportunidad para vender su auto usado publicando GRATIS sábado y domingo
Se retira: “este año es el último de Mirtha en la tevé, ya está preparando su despedida”
Cayó el petróleo pero... ¿por qué los combustibles no bajan?
Globant, el unicornio con raíces platenses, despide a mil empleados
Con chicanas cruzadas por Cristina, el Concejo local retoma las sesiones
La venta de inmuebles subió 25% en un año, pero bajó en el mes
Actividades: café literario, fiesta del sol, folclore, taekwondo, odontología gratis
Una sentencia puso de relieve la crisis de las entidades platenses de bien público
Los desafíos de viajar a través de una app en tiempos de violencia
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
La inteligencia artificial (IA) ha transformado múltiples aspectos de la vida moderna, desde la salud hasta la justicia, la conducción autónoma y más. Sin embargo, no está exenta de controversias. Aquí se describen diez casos reconocidosen los que la IA ha tenido problemas, ha falseado información o tergiversado la realidad, generando diversos dramas
1 ALGORITMOS SESGADOS EN LA JUSTICIA PENAL
Uno de los casos más preocupantes es el uso de algoritmos en la justicia penal. Sistemas como COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) han mostrado sesgos raciales significativos. Este sistema, utilizado en Estados Unidos para evaluar el riesgo de reincidencia de los delincuentes, ha sido criticado por ser más severo con los afroamericanos que con los blancos. Este sesgo puede resultar en decisiones judiciales injustas y discriminatorias.
2 ERRORES EN LA DETECCIÓN TEMPRANA DE CÁNCER
La IA también ha sido aplicada en el campo de la salud para mejorar la detección temprana de enfermedades como el cáncer. Sin embargo, han surgido casos donde los diagnósticos automáticos han fallado, produciendo falsos positivos y falsos negativos. Por ejemplo, un estudio realizado por Google Health y la Universidad de California demostró que, aunque los algoritmos eran capaces de detectar cáncer de mama con una precisión superior a la humana en ciertos casos, también omitían tumores en algunos exámenes, lo que podría tener graves consecuencias para los pacientes.
3 MANIPULACIÓN DE DATOS FINANCIEROS
La inteligencia artificial en el sector financiero ha tenido momentos oscuros. Un caso notable es el uso de IA para manipular datos financieros. Algunas empresas han utilizado algoritmos para crear impresiones falsas de demanda en el mercado de valores, lo que llevó a la caída o al aumento artificial de los precios de las acciones. Esta manipulación no solo es ilegal, sino que puede causar pérdidas financieras significativas para los inversores y desestabilizar los mercados.
LE PUEDE INTERESAR
Qué se viene para el cabello
LE PUEDE INTERESAR
Piel bronceada en minutos
4 SESGO EN LA CONTRATACIÓN
Amazon intentó utilizar un sistema de IA para mejorar su proceso de contratación, pero tuvo que abandonar el proyecto cuando descubrió que su algoritmo mostraba un sesgo de género. El sistema, entrenado con datos de currículums enviados a la empresa durante diez años, tendía a favorecer a candidatos masculinos sobre las mujeres. Este sesgo surgió porque la mayoría de los currículums históricos pertenecían a hombres, reflejando un problema estructural más amplio en la industria tecnológica.
5 PROBLEMAS EN VEHÍCULOS AUTÓNOMOS
Los vehículos autónomos han prometido revolucionar el transporte, pero también han enfrentado desafíos críticos. En marzo de 2018, un coche autónomo de Uber atropelló y mató a una mujer en Tempe, Arizona. La investigación reveló que el sistema de IA del vehículo no había identificado correctamente a la peatón como un peligro potencial y no frenó a tiempo. Este trágico incidente subraya la necesidad de mejorar la seguridad y fiabilidad de la tecnología de vehículos autónomos.
6 ERRORES EN LA TRADUCCIÓN AUTOMÁTICA
Aunque los traductores automáticos han mejorado significativamente, aún hay casos en los que producen traducciones incorrectas o incoherentes. Google Translate, por ejemplo, ha sido criticado por ofrecer traducciones literales que no capturan el contexto o matices del lenguaje, lo que puede llevar a malentendidos en comunicaciones importantes.
7 MANIPULACIÓN DE REDES SOCIALES
La inteligencia artificial ha sido utilizada para crear bots y cuentas falsas en redes sociales, con el fin de influir en la opinión pública y difundir desinformación. Un ejemplo prominente es el uso de bots durante las elecciones presidenciales de 2016 en Estados Unidos, donde se cree que agentes rusos utilizaron IA para crear y operar cuentas falsas que difundieron noticias falsas y divisivas.
8 ERRORES EN LA PREDICCIÓN DEL CLIMA
Los modelos de IA también se utilizan para predecir eventos climáticos, pero no son infalibles. Ha habido ocasiones en las que las predicciones del clima han sido incorrectas, lo que puede afectar la planificación de actividades y la respuesta a emergencias. Un ejemplo es cuando los sistemas de predicción no lograron prever tormentas severas, causando daños imprevistos y dificultades en la gestión de recursos.
9 PROBLEMAS EN LA ATENCIÓN AL CLIENTE
Los chatbots de atención al cliente impulsados por IA han proporcionado respuestas incorrectas o irrelevantes a las consultas de los clientes. Empresas como Microsoft y Facebook han tenido que enfrentar críticas cuando sus chatbots fallaron en entender preguntas complejas o brindaron información incorrecta, afectando la satisfacción del cliente y la reputación de la empresa.
10 FALSIFICACIÓN DE NOTICIAS
La creación de noticias falsas mediante IA es una preocupación creciente. Los algoritmos pueden generar artículos que parecen auténticos pero que están llenos de información falsa, confundiendo a los lectores y contribuyendo a la desinformación. Un ejemplo es el uso de GPT-3, un modelo de lenguaje desarrollado por OpenAI, que ha sido capaz de generar textos realistas y convincentes que podrían ser mal utilizados para difundir noticias falsas.
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$650/mes
*LOS PRIMEROS 3 MESES, LUEGO $6100
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$500/mes
*LOS PRIMEROS 3 MESES, LUEGO $3950
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2025 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí