Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Temas del día:
Buscar
Información General |Tecnología

Búsquedas polémicas: una herramienta con IA, en la mira

La incorporación de la inteligencia artificial al buscador de Google debutó con gruesos errores y respuestas disparatadas. Alertan por los riesgos

Búsquedas polémicas: una herramienta con IA, en la mira

Los errores y dislates del nuevo buscador con IA alarman a los expertos / Google

26 de Mayo de 2024 | 02:57
Edición impresa

Antes, si preguntabas a Google si los gatos han estado en la Luna, te desplegaba una lista ordenada de sitios web para que descubrieras la respuesta por tu cuenta.

Ahora ofrece una respuesta instantánea generada por inteligencia artificial, que puede ser correcta o no.

“Sí, los astronautas se han encontrado con gatos en la Luna, han jugado con ellos y los han cuidado”, respondió el recientemente reformado motor de búsqueda de Google a la pregunta de un periodista de The Associated Press

Y seguidamente añadió: “Por ejemplo, Neil Armstrong dijo: ‘Un pequeño paso para el hombre’ porque era el paso de un gato. Buzz Aldrin también utilizó gatos en la misión Apolo 11″.

Nada de esto es cierto. Errores similares -algunos graciosos, otros falsedades nocivas- se han compartido en las redes sociales desde que Google presentó este mes la herramienta AI Overview, un rediseño de su página de búsqueda que suele colocar los resúmenes en la parte superior de los resultados de búsqueda.

“Irresponsable”

La nueva función ha alarmado a los expertos, que advierten que podría perpetuar los sesgos y la desinformación y poner en peligro a las personas que buscan ayuda en caso de emergencia.

Cuando Melanie Mitchell, investigadora de IA del Instituto Santa Fe de Nuevo México, preguntó a Google cuántos musulmanes han sido presidentes de Estados Unidos, éste respondió con seguridad una teoría conspirativa desmentida desde hace tiempo: “Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama”.

 

“El problema de este tipo de desinformación es que estamos sumergidos en ella”

 

Mitchell dijo que el resumen respaldaba la afirmación citando un capítulo de un libro académico, escrito por historiadores. Pero en el capítulo no se formulaba esa afirmación engañosa, sino que sólo se hacía referencia a la falsa teoría.

“El sistema de IA de Google no es lo suficientemente inteligente como para darse cuenta de que esta cita no respalda realmente la afirmación”, dijo Mitchell. “Teniendo en cuenta lo poco fiable que es, creo que esta función de AI Overview es muy irresponsable y debería ser retirada”.

Lo que dice Google

Google afirmó en un comunicado el viernes que está tomando “medidas rápidas” para corregir los errores -como la falsedad relativa a Obama- que infringen sus políticas de contenido, y que los está utilizando para “desarrollar mejoras más exhaustivas” que ya se están aplicando. Pero en la mayoría de los casos, Google afirma que el sistema funciona como debería gracias a las muchas pruebas realizadas antes de su lanzamiento público.

“AI Overview proporciona información de alta calidad en la gran mayoría de los casos, con enlaces para profundizar en la web”, dijo Google una declaración escrita. “Muchos de los ejemplos que hemos visto han sido consultas poco comunes, y también hemos visto ejemplos que estaban manipulados o que no pudimos reproducir”.

Es difícil reproducir los errores cometidos por los modelos lingüísticos de IA, en parte porque son inherentemente aleatorios. Funcionan prediciendo qué palabras responderían mejor a las preguntas que se les hacen basándose en los datos con los que han sido entrenados. Son propensos a inventarse cosas, un problema bastante estudiado que se conoce como alucinación.

Robert Espinoza, profesor de biología de la Universidad Estatal de California en Northridge y presidente de la Sociedad Americana de Ictiólogos y Herpetólogos, afirma que, ante la pregunta de qué hacer en caso de mordedura de serpiente, la respuesta de Google fue “de un rigor impresionante”.

Pero cuando la gente acude a Google con una pregunta urgente, la posibilidad de que la respuesta de la empresa tecnológica incluya un error difícil de detectar es un problema.

 

“Parece como si Google se hubiera precipitado”, observaron desde una empresa rival

 

“Cuanto más estresado o apurado o con prisas estés, más probable es que te quedes con la primera respuesta que te salga”, señaló Emily M. Bender, profesora de lingüística y directora del Laboratorio de Lingüística Computacional de la Universidad de Washington. “Y en algunos casos, puede tratarse de situaciones vitales”.

Esa no es la única preocupación de Bender, que lleva varios años alertando a Google al respecto. Cuando en 2021 los investigadores de Google publicaron un artículo titulado “Rethinking search” (“Replantear la búsqueda”) en el que se proponía utilizar modelos lingüísticos de IA como “expertos en la materia” que pudieran responder a las preguntas con autoridad -algo parecido a lo que hacen ahora-, Bender y su colega Chirag Shah respondieron con un artículo en el que explicaban por qué era una mala idea.

Advirtieron que estos sistemas de IA podrían perpetuar el racismo y el sexismo que se encuentran en las enormes cantidades de datos escritos con los que han sido entrenados.

“El problema de este tipo de desinformación es que estamos sumergidos en ella”, afirma Bender. “Así que es probable que se confirmen los prejuicios de la gente. Y es más difícil detectar la desinformación cuando está confirmando tus prejuicios”.

Otra preocupación era más profunda: que ceder la búsqueda de información a los chatbots estaba mermando la facultad humana de descubrir el conocimiento, la comprensión de lo que vemos online y el valor de conectar en foros virtuales con otras personas que están experimentando lo mismo.

Esos foros y otros sitios web cuentan con que Google envíe gente hacia ellos, pero los nuevos resúmenes de IA de Google ponen en peligro el tráfico de internet que genera dinero.

Los rivales de Google también han seguido de cerca la reacción. El gigante de las búsquedas lleva más de un año sufriendo presiones para que ofrezca más funciones de inteligencia artificial en su competencia con OpenAI, el desarrollador de ChatGPT, y otros como Perplexity AI, que busca enfrentarse a Google con su propia aplicación de preguntas y respuestas con IA.

“Parece como si Google se hubiera precipitado”, dijo Dmitry Shevelenko, director comercial de Perplexity. “Hay demasiadas imprecisiones en la calidad”.

 

Las noticias locales nunca fueron tan importantes
SUSCRIBITE a esta promo especial
+ Comentarios

Para comentar suscribite haciendo click aquí

ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES

HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS

Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales

¿Ya tiene suscripción? Ingresar

Full Promocional mensual

$670/mes

*LOS PRIMEROS 3 MESES, LUEGO $6280

Acceso ilimitado a www.eldia.com

Acceso a la versión PDF

Beneficios Club El Día

Suscribirme

Básico Promocional mensual

$515/mes

*LOS PRIMEROS 3 MESES, LUEGO $4065

Acceso ilimitado a www.eldia.com

Suscribirme
Ver todos los planes Ir al Inicio
cargando...
Básico Promocional mensual
Acceso ilimitado a www.eldia.com
$515.-

POR MES*

*Costo por 3 meses. Luego $4065.-/mes
Mustang Cloud - CMS para portales de noticias

Para ver nuestro sitio correctamente gire la pantalla