La dernière mise à jour Siri d’Apple provoquera-t-elle un changement dans la façon dont les assistants IA sont souvent des voix féminines par défaut?
Hier (31 mars), il a été révélé qu’Apple ne définirait plus de voix par défaut pour Siri. Au lieu de cela, les utilisateurs iOS seraient invités à décider s’ils préfèrent une voix masculine ou féminine lors de la configuration.
Alors que la voix par défaut de Siri était masculine dans certaines régions, la voix de Siri qui a été popularisée est celle d’une femme. Pendant de nombreuses années, c’était probablement la voix de Susan Bennett. Apple n’a jamais officiellement confirmé Bennett comme la voix originale de Siri, mais de nombreuses sources crédibles et vos propres oreilles vous feront croire.
Une mise à jour iOS en 2013 a introduit la possibilité de passer d’une voix sexuée à une autre et a quelque peu modifié la voix d’origine pour qu’elle sonne un peu plus naturaliste. La mise à jour de cette semaine sur Siri offre deux nouvelles voix qui poussent encore plus loin ce réalisme. Le traitement accru vise à rendre les réponses générées par ordinateur, qui combinent des éléments d’enregistrements d’acteurs vocaux, un son plus proche de celui d’une personne réelle. Matthew Panzarino de TechCrunch a déclaré: «Ils ont un son assez fantastique, avec une inflexion naturelle et des transitions en douceur.»
Et alors que les fabricants d’assistants vocaux s’efforcent de créer des voix toujours plus humaines, ils ont suscité des questions sur le genre de la technologie d’assistance, ce que cela dit des préjugés sexistes existants dans la société et comment ces outils peuvent exacerber ou résoudre ces problèmes.
En 2019, un groupe de linguistes, de technologues et de concepteurs sonores a cherché à répondre à certaines des préoccupations liées à l’IA genrée avec Q, une voix sans genre pour les technologies d’assistance.
Le Dr Julie Carpenter, une chercheuse basée en Californie qui a travaillé sur Q, a déclaré à NPR: «L’un de nos grands objectifs avec Q était de contribuer à une conversation mondiale sur le genre, le genre, la technologie et l’éthique, et comment être inclusif pour les gens. qui s’identifient de toutes sortes de manières différentes. »
Cela correspond à la déclaration d’Apple sur l’abandon des valeurs par défaut de genre en ce qui concerne son assistant vocal. « Il s’agit d’une continuation de l’engagement de longue date d’Apple en faveur de la diversité et de l’inclusion, et des produits et services conçus pour mieux refléter la diversité du monde dans lequel nous vivons », a déclaré la société cette semaine.
« Parce que le discours de la plupart des assistants vocaux est féminin, cela envoie un signal que les femmes sont des aides serviables, dociles et désireuses de plaire »
– RAPPORT DE L’UNESCO
Selon TechCrunch, Siri traite 25 milliards de demandes chaque mois. L’assistant vocal Apple est disponible dans 36 pays et a donc été équipé de 21 langues et d’une gamme d’accents – y compris l’irlandais – pour optimiser la familiarité.
Donc, Siri n’a pas besoin de ressembler à Susan Bennett ou à toute autre femme nord-américaine anglophone, bien que ce soit souvent la valeur par défaut pour les assistants vocaux. Voir Google Assistant, Alexa d’Amazon et Cortana de Microsoft pour compléter l’ensemble des meilleurs exemples technologiques.
Un rapport publié par l’UNESCO en 2019 a déclaré à propos de cette tendance: «Parce que le discours de la plupart des assistants vocaux est féminin, il envoie un signal que les femmes sont des aides serviables, dociles et désireuses de plaire, disponibles sur simple pression d’un bouton ou avec une commande vocale directe comme « hey » ou « OK ». «
Ce rapport s’intitulait «Je rougirais si je pouvais», emprunté à l’une des réponses programmées de Siri pour être traité de «salope». C’est Quartz qui a mené cette expérience d’assistants vocaux harcelants sexuellement en 2017. Non seulement pour appuyer sur les boutons d’une technologie sans émotion, mais parce que l’on sait que les utilisateurs ont tendance à être abusifs envers les assistants d’IA et comment ces assistants réagissent à de tels abus. peut avoir des implications plus larges.
Ce n’est pas à Apple, Google, Amazon ou Microsoft de résoudre les raisons sociologiques pour lesquelles les êtres humains seraient si inutilement cruels envers un outil, mais la programmation de réponses à des abus qui peuvent être déduites comme flirteuses n’aide pas le problème plus large.
Le rapport de l’UNESCO a affirmé que la nature subalterne de la technologie qui est féminine par défaut «renforce les préjugés sexistes communément admis selon lesquels les femmes sont soumises et tolèrent un mauvais traitement». Il a en outre averti: «La féminisation des assistants numériques peut aider les préjugés sexistes à s’implanter et à se propager.» Ce qui est particulièrement préoccupant à mesure que les enfants s’habituent à utiliser la technologie vocale.
«Selon Calvin Lai, un chercheur de l’Université de Harvard qui étudie les préjugés inconscients, les associations de genre que les gens adoptent dépendent du nombre de fois où les gens y sont exposés. Au fur et à mesure que les assistantes numériques se répandent, la fréquence et le volume des associations entre «femme» et «assistante» augmentent considérablement », indique le rapport de l’UNESCO.
Dirigée par les innovations de Big Tech dans cet espace, la technologie vocale est en passe de devenir une interface plus courante pour les interactions, non seulement avec les appareils, mais avec le support client et d’autres services. Tout comme les chatbots textuels sont couramment utilisés dans ce travail, une technologie vocale suffisamment avancée peut également être déployée.
Quiconque a déjà travaillé dans le service à la clientèle (moi y compris) saura que les personnes ayant des problèmes peuvent être abusives même lorsqu’elles ont affaire à un autre être humain. Et donc la perspective de fournir aux clients une voix sexuée mais sans âme comme un sac de frappe probable exigera une rumination supplémentaire sur ce que cela signifie pour nous en tant que société. La codification, dans le code réel, de l’assistant en tant que femme aux côtés de l’assistant en tant que caisse de résonance virtuelle pour les abus peut avoir des répercussions réelles dont les éthiciens de la technologie doivent être conscients.