¿Las voces femeninas detrás de Siri de Apple, Alexa de Amazon y Cortana de Microsoft están amplificando la discriminación de género en el mundo? Según un informe de la Organización de Naciones Unidas la respuesta es «sí».
Las populares voces femeninas de asistentes virtuales que están en los celulares y otros aparatos para ayudar a los usuarios están reforzando los estereotipos sexistas, pues millones de personas se acostumbran a darles órdenes y estas «siempre responden con cortesía», incluso cuando los seres humanos las «acosan», de acuerdo con el estudio «Me sonrojaría si pudiera» publicado por la Unesco.
El nombre del documento hace referencia a un ejemplo que incluye, en el que un usuario llama »puta» a Siri de Apple y la asistente virtual contesta: «Me sonrojaría si pudiera». En abril pasado, sin embargo, se adaptó esa respuesta a «No sé cómo responder a eso», mostrando una actitud sumisa hacia la violencia de género.
A pesar de que estas voces pueden ser modificadas por cada usuario, la gran mayoría está diseñada para que por defecto la respuesta venga de una «mujer». A juicio de los investigadores, las asistentes virtuales están programadas para ser sumisas y serviciales, incluso para responder de forma amable a los insultos, lo que refuerza los prejuicios de género y normalizan el acoso sexista.
«La sumisión de Siri ante el abuso de género, así como el servilismo expresado por muchos otros asistentes digitales proyectados como mujeres jóvenes, proporciona una potente muestra sobre los sesgos de género codificados en los productos tecnológicos», señaló el informe.
Y el problema crece, pues cada vez son más las personas que utilizan esta tecnología alrededor del mundo. Aclaró el reporte que representan casi una quinta parte de todas las búsquedas en Internet, por lo que el impacto cultural es significativo. Es por esto que, de acuerdo con el informe, la masificación de estas plataformas que por defecto vienen programadas con voces femeninas, ayuda a que los sesgos de género continúen aumentando y propagándose alrededor del mundo.
A partir de estas reflexiones, el estudio recomendó a las compañías tecnológicas que dejen de hacer que sus asistentes virtuales sean femeninas de fábrica, y las programen para desalentar los insultos basados en el género y el lenguaje abusivo, publicó Infobae. Además, instó a que exploraran nuevas opciones de voces neutras, y programaciones que desalienten los insultos y el lenguaje abusivo.