Ahora dicen que los asistentes virtuales son víctimas del machismo
Edición Impresa | 23 de Mayo de 2019 | 02:01

Si bien la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) no suele involucrase en temas relacionados con la tecnología, en las últimas horas acaba de lanzar un duro informe contra los asistentes virtuales de las grandes compañías tecnológicas por considerarlos sexistas, sumisos y representar así lo peores estereotipos de la desigualdad de género. ¿Para tanto?
Concretamente, el informe del organismo internacional - titulado “I’d blush if I could”, es decir “me sonrojaría si pudiera”, que es la frase que los asistentes dicen cuando se los insulta- no hace foco en ningún programa puntual sino que critica a los más importantes como Siri (de Apple), Alexa (de Amazon) o Cortana (de Microsoft) y los califica de esclavos diseñados para seguir órdenes y para ser vistos como femeninos, desde sus nombres hasta sus voces y personalidades.
Además, dice el informe, lo más cuestionable es que están programados para ser sumisos y serviles, incluso para responder de forma cortés a los insultos, lo que significa que refuerzan los prejuicios de género y normalizan el acoso sexista.
Como ejemplo, el estudio destacó que Siri estaba programado previamente para responder a los usuarios que la llamaban “puta” diciendo “Me sonrojaría si pudiera” -como se dijo la frase que toma el estudio para su título-. “La sumisión de Siri ante el abuso de género, así como el servilismo expresado por muchos otros asistentes digitales proyectados como mujeres jóvenes, proporciona una potente muestra sobre los sesgos de género codificados en los productos tecnológicos”, apunta el trabajo de la Unesco.
“Estos algoritmos perpetúan los estereotipos de género y reflejan las desigualdades”
Ante esto, un vocero de Microsoft dijo que la compañía evaluó las opciones de voz para Cortana y halló que “una voz femenina respalda mejor nuestro objetivo de crear un asistente digital”.
Como tal vez se sepa, los asistentes de voz se vienen integrando rápidamente en la vida cotidiana y ya “representan casi una quinta parte de todas las búsquedas en Internet”, según el informe, cuyos autores argumentan que pueden tener un impacto cultural significativo y hasta ahora no tenido muy en cuenta.
“A medida que la tecnología de voz llega a más comunidades en todo el mundo, la feminización de los asistentes digitales puede ayudar a que los sesgos de género se afiancen y propaguen”, precisan. “El mundo debe prestar mucha más atención a cómo, cuándo y si las tecnologías de IA (inteligencia artificial) tienen género y, lo que es más importante, quién lo define”, dijo Saniye Gulser Corat, directora de la Unesco para la igualdad de género.
Así las cosas, el trabajo del organismo internacional instó a las compañías a tomar medidas, como dejar de poner voz femenina por defecto a los asistentes digitales, explorando opciones de género neutras y programaciones que desalienten el uso de insultos y lenguaje abusivo basados en el género. A principios de este año, de hecho, un equipo de creativos ideó la primera voz de asistente digital neutral de género en un intento por evitar reforzar los estereotipos sexistas.
“Estos algoritmos perpetúan los estereotipos de género y el comportamiento sexista y misógino, y reflejan las desigualdades estructurales de género más amplias en la tecnología”, cerró el estudio.
Las noticias locales nunca fueron tan importantes
SUSCRIBITE