22 de mayo 2019 | 8:46 pm
Los cada vez más populares asistentes digitales que responden con voz de mujer y están diseñados como ayudantes femeninas están reforzando los estereotipos sexistas, según un informe de Naciones Unidas publicado este miércoles.
La gran mayoría de los asistentes –como Siri de Apple, Alexa de Amazon y Cortana de Microsoft– están diseñados para ser vistos como femeninos, desde sus nombres hasta sus voces y personalidades, reveló el estudio.
Estos asistentes están programados para ser sumisos y serviles, incluso para responder de forma cortés a los insultos, lo que significa que refuerzan los prejuicios de género y normalizan el acoso sexista, de acuerdo a investigadores del órgano científico y cultural de la ONU, la Unesco.
Como ejemplo, el estudio destacó que Siri estaba programada para responder a los usuarios que la llamaban “zorra” diciendo “me sonrojaría si pudiera”.
La sumisión de Siri ante el abuso de género, así como el servilismo expresado por muchos otros asistentes digitales proyectados como mujeres jóvenes, proporciona una potente muestra sobre los sesgos de género codificados en los productos tecnológicos,
indicó el estudio de Naciones Unidas.
Una portavoz de Microsoft declaró anteriormente que la compañía evaluó las opciones de voz para Cortana y halló que “una voz femenina respalda mejor nuestro objetivo de crear un asistente digital”.
Los asistentes de voz se han integrado rápidamente en la vida cotidiana de muchas personas y ahora representan casi una quinta parte de todas las búsquedas en Internet, señaló el informe, que argumenta que pueden tener un impacto cultural significativo.
A medida que la tecnología de voz llega a más comunidades en todo el mundo, la feminización de los asistentes digitales puede ayudar a que los sesgos de género se afiancen y propaguen, agregaron.
El mundo debe prestar mucha más atención a cómo, cuándo y si las tecnologías de inteligencia artificial tienen género y, lo que es más importante, quién lo define,
comentó la directora de la Unesco para la igualdad de género, Saniye Gulser Corat.
El informe instó a las compañías a tomar medidas, como dejar de poner voz femenina por defecto a los asistentes digitales, explorando opciones de género neutras y programaciones que desalienten el uso de insultos y lenguaje abusivo basado en el género.
Un equipo de creativos ideó la primera voz de asistente digital neutral de género a principios de este año en un intento por evitar reforzar los estereotipos sexistas.
El informe fue bien recibido por los grupos de mujeres y la portavoz de Womankind, Maria Vlahakis, afirmó que prestó una “atención más que necesaria” al sesgo de género en los algoritmos.
“Estos algoritmos perpetúan los estereotipos de género y el comportamiento sexista y misógino y reflejan las desigualdades estructurales de género más amplias en la tecnología”, dijo.
‘Hola, Siri: eres sexista’, advierte informe de la Unesco sobre tecnología y género
Reuters
Comparte
22 de mayo 2019 | 8:46 pm
Los cada vez más populares asistentes digitales que responden con voz de mujer y están diseñados como ayudantes femeninas están reforzando los estereotipos sexistas, según un informe de Naciones Unidas publicado este miércoles.
La gran mayoría de los asistentes –como Siri de Apple, Alexa de Amazon y Cortana de Microsoft– están diseñados para ser vistos como femeninos, desde sus nombres hasta sus voces y personalidades, reveló el estudio.
Estos asistentes están programados para ser sumisos y serviles, incluso para responder de forma cortés a los insultos, lo que significa que refuerzan los prejuicios de género y normalizan el acoso sexista, de acuerdo a investigadores del órgano científico y cultural de la ONU, la Unesco.
Como ejemplo, el estudio destacó que Siri estaba programada para responder a los usuarios que la llamaban “zorra” diciendo “me sonrojaría si pudiera”.
indicó el estudio de Naciones Unidas.
Una portavoz de Microsoft declaró anteriormente que la compañía evaluó las opciones de voz para Cortana y halló que “una voz femenina respalda mejor nuestro objetivo de crear un asistente digital”.
Los asistentes de voz se han integrado rápidamente en la vida cotidiana de muchas personas y ahora representan casi una quinta parte de todas las búsquedas en Internet, señaló el informe, que argumenta que pueden tener un impacto cultural significativo.
A medida que la tecnología de voz llega a más comunidades en todo el mundo, la feminización de los asistentes digitales puede ayudar a que los sesgos de género se afiancen y propaguen, agregaron.
comentó la directora de la Unesco para la igualdad de género, Saniye Gulser Corat.
El informe instó a las compañías a tomar medidas, como dejar de poner voz femenina por defecto a los asistentes digitales, explorando opciones de género neutras y programaciones que desalienten el uso de insultos y lenguaje abusivo basado en el género.
Un equipo de creativos ideó la primera voz de asistente digital neutral de género a principios de este año en un intento por evitar reforzar los estereotipos sexistas.
El informe fue bien recibido por los grupos de mujeres y la portavoz de Womankind, Maria Vlahakis, afirmó que prestó una “atención más que necesaria” al sesgo de género en los algoritmos.
“Estos algoritmos perpetúan los estereotipos de género y el comportamiento sexista y misógino y reflejan las desigualdades estructurales de género más amplias en la tecnología”, dijo.
Comparte
Reuters
Comparte
Twitch: ¿quién es el dueño de la plataforma de transmisiones más popular?
Neuralink, de Elon Musk, obtuvo la aprobación de la FDA para iniciar el estudio de implantes cerebrales en humanos
JPMorgan utilizará IA similar a la de ChatGPT para recomendar inversiones a sus clientes