Robo, abuso sexual y drama: investigan un brutal ataque a un joven en el Bosque
Robo, abuso sexual y drama: investigan un brutal ataque a un joven en el Bosque
Con otra vuelta de tuerca, el Gobierno ya apura la reforma laboral: los cambios y el impacto
Eduardo Domínguez y el récord de las seis finales en dos años con Estudiantes
¿Sigue Zaniratto en Gimnasia? Primera reunión positiva pero no se habla de acuerdo total
Advierten sobre el impacto de la contaminación plástica en La Plata
La movilización de los hinchas de Estudiantes será terrestre por el colapso: el Club saca micros
“Estable”: parte médico del hincha de Gimnasia que cayó de la tribuna en el clásico
Cayeron en una estafa y perdieron los ahorros destinados a sus hijos
Acaramelado: Demichelis viajó hasta Mendoza para besarse con otra mujer en pleno divorcio
El Consejo Escolar platense también estrena su nueva integración
Cazas de EE UU ingresaron al espacio aéreo venezolano durante 40 minutos
Cuando el verano pide aire: de $500 mil a 1.3 millón por algo de fresco
Presentación del libro “Topos”, del periodista Hugo Alconada Mon
“Tené tu mejor bebé”: la selección de embriones reenciende un viejo debate
Los números de la suerte del miércoles 10 de Diciembre de 2025, según el signo del zodíaco
VIDEO. Un partido de fútbol infantil en La Plata terminó en escándalo
Pese a las obras en 44 y 1 garantizan el servicio del Tren Universitario
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
En un artículo publicado en la revista Science, científicos e investigadores muestran los grandes riesgo que puede representar el uso de esta tecnología en diversas áreas
Un jugador de tenis de mesa compite contra un robot en una feria tecnológica enmarcada en la Inteligencia Artificial / EFE / Jens Schlueter
Científicos de numerosos centros de investigación y universidades de varios países alertaron -en un artículo que publica la revista Science- sobre los elevados riesgos a los que la humanidad queda expuesta con la Inteligencia Artificial (IA) y las consecuencias catastróficas que los fallos que esta tecnología puede causar.
Subrayaron que los sistemas de Inteligencia Artificial ya se han puesto a prueba en una amplia gama de aplicaciones, desde el diagnóstico médico hasta la navegación de coches autónomos, pero alertaron que éstos son escenarios “de alto riesgo” en los que los márgenes de error son escasos y las consecuencias de un fallo pueden ser fatales.
La publicación en Science llega apenas quince días después de que 5.500 expertos de todo el mundo publicaran una carta abierta en la que abogaban por pausar durante un tiempo los experimentos con la IA más potente y avanzada -la llamada “generativa” y que es capaz de crear textos o imágenes a partir de datos ya existentes- ante los riesgos que puede entrañar para la sociedad.
Firmaron en Science investigadores de varias instituciones académicas y científicas, entre las que están las universidades de Cambridge, Harvard, Stanford, Shandong (China), la Politécnica de Valencia, el Imperial College London, el Instituto Tecnológico de Massachusetts (MIT), y varias empresas, entre ellas Google o la británica DeepMind, una de las mayores multinacionales del sector de la Inteligencia Artificial.
Los científicos que suscribieron en la revista incidieron en la necesidad de que todas las publicaciones sobre esta materia incluyan de forma pormenorizada todos los datos que son vitales para comprender y abordar los errores intermedios que pueden conducir a los posibles fallos, y que todos esos datos estén a disposición de la comunidad científica que evitar que se reproduzcan los mismos errores.
Describieron por ejemplo un escenario hipotético en el que un algoritmo de reconocimiento facial alcanza la “impresionante” tasa de precisión del 90 por ciento al distinguir rostros masculinos de femeninos; sin embargo, un examen detallado podría revelar que clasifica erróneamente los rostros de mujeres de piel oscura en el 35 por ciento de los casos; y que ese porcentaje de error sólo se produce en el 0,8 por ciento de los hombres de piel clara.
LE PUEDE INTERESAR
Historias de adopción y de amor en La Plata
LE PUEDE INTERESAR
El Niño despiadado: más sequías y picos de calor
Reclamaron por lo tanto informes mucho más detallados y una mayor disponibilidad de todos los datos que se han utilizado para los análisis, y consideraron que de esa manera la investigación sobre IA se aproximaría a los protocolos que ya se registran en otras disciplinas, como la medicina o la física.
Entre los firmantes del artículo está el español Fernando Martínez-Plumed, científico y profesor en el Instituto Valenciano de Investigación en Inteligencia Artificial (Universidad Politécnica de Valencia), quien aseguró que tratar de poner freno a la IA “es una tarea muy difícil, si no imposible”, y observó que la investigación y el desarrollo implica a la industria, a la academia o a la sociedad y que cada una tiene sus intereses distintos “y a veces contrarios”.
Pero sí es crucial, a su juicio, reducir y mitigar los riesgos y garantizar un uso responsable y seguro, y entre las diferentes estrategias que se deben seguir destacó la de que los investigadores y los desarrolladores trabajen juntos para crear tecnologías “ más seguras, éticas, transparentes y justas” y que las empresas y los gobiernos establezcan regulaciones y estándares.
Martínez-Plumed precisó que unas tecnologías de IA pueden tener más riesgos que otras, como las que involucran la toma de decisiones críticas o el acceso a información privada, los sistemas de vigilancia o los algoritmos de contratación; o los más modernos, capaces de generar de texto, imágenes, audios o videos.
“Son capaces de crear obras de arte y textos impresionantes, pero también presentan nuevos riesgos para la sociedad: la creación de contenidos falsos, engañosos o incluso peligrosos, como noticias falsas, contenidos ofensivos, discriminatorios e ilegales”, manifestó el investigador.
Pero al final, reflexionó, los sistemas de IA se entrenan y aprenden a partir de conjuntos de datos que reflejan, y amplifican, los mismos prejuicios y las desigualdades que existen en la sociedad (el machismo, el racismo, el clasismo u otros).
Y citó los ejemplos ya contrastados de sistemas para la contratación de personal que se entrenan con datos históricos de contratación de empleados que muestran sesgos de género o raza, de métodos de detección de rostros que no reconocen a las mujeres negras, algoritmos de búsqueda con estereotipos negativos sobre las niñas negras; y hasta prejuicios lingüísticos al mostrar preferencias por determinados acentos o dialectos.
“Los sesgos en los sistemas de IA no son intrínsecos a la tecnología, sino que reflejan los prejuicios en los datos y decisiones humanas utilizados para entrenar los modelos”, aseveró el investigador, e incidió en la importancia de identificarlos y tratarlos para avanzar hacia sistemas de IA “más equitativos y justos”, guiados por valores éticos y sociales, y no sólo por consideraciones técnicas o económicas.
Martínez-Plumed concluyó que la Inteligencia Artificial puede ser una herramienta poderosa para abordar algunos de los problemas más apremiantes de la sociedad, “pero sólo puede ser eficaz si se utiliza de manera responsable y reflexiva”.
ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES
HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS
Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales
¿Ya tiene suscripción? Ingresar
Full Promocional mensual
$690/mes
*LOS PRIMEROS 3 MESES, LUEGO $6470
Acceso ilimitado a www.eldia.com
Acceso a la versión PDF
Beneficios Club El Día
Básico Promocional mensual
$530/mes
*LOS PRIMEROS 3 MESES, LUEGO $4190
Acceso ilimitado a www.eldia.com
Diario El Día de La Plata, fundado el 2 de Marzo de 1884.
© 2025 El Día SA - Todos los derechos reservados.
Registro DNDA Nº RL-2024-69526764-APN-DNDA#MJ Propietario El Día SAICYF. Edición Nro. 6986 Director: Raúl Kraiselburd. Diag. 80 Nro. 815 - La Plata - Pcia. de Bs. As.
Bienvenido
Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
Bienvenido
Estimado lector, con sólo registrarse tendrá acceso a 80 artículos por mes en forma gratuita. Para más información haga clic aquí
DATOS PERSONALES
Ante cualquier inconveniente durante el inicio de sesión, por favor escribanos a sistemas@eldia.com
¿Querés recibir notificaciones de alertas?
Para comentar suscribite haciendo click aquí