Das Problem der Feminisierung digitaler Sprachassistenzen

Symbolbild binäre weibliche künstliche Intelligenz

Sprachassistenzen sind ein Teil von digitalen Assistenzen. Sie verstehen meistens verbalen als auch geschriebenen Input. Ihr verbaler Output ist mittlerweile Nahe der menschlichen Sprache. Die bekanntesten heißen „Alexa“, „Siri“ und „Cortana“*. Gemein ist ihnen ein weiblicher Name sowie eine weibliche Stimme. (1)

Wachsende Beliebtheit von Alexa & Co.

Laut der Deloitte-Studie „Beyond Touch: Voice-Commerce 2030“ wurden weltweit bereits 2017 über 3,3 Millionen Smart Speaker verkauft. Pro Woche werden bereits über 2 Milliarden Sprachanfragen gestellt. Bis 2022 wird der Verkauf von Smart-Speakern durchschnittlich jährlich um über 30 % steigen. (2) 
Auch in Österreich steigt der Anteil der Haushalte mit Sprachassistenzen. Laut der „eCommerce Studie Österreich 2019“ des Handelsverbandes und der Plattform „eCommerce & Versandhandel“, nutzen bereits 450.000 Österreicher*innen internetbasierte, digitale Sprachassistenzen. Gegenüber der Erhebung aus dem Vorjahr mit nur 200.000 Nutzer*innen, zeigt sich hier ein rasanter Anstieg. (3) 
Die wachsende Verbreitung von Smart-Speakern führt unausweichlich zur Notwendigkeit der ethischen und moralischen Auseinandersetzung mit dieser Form der künstlichen Intelligenz. Vor allem, wenn sie durch Genderzuschreibungen Stereotype und antiquierte Rollenbilder reproduzieren – denn die kommerzielle Sprachassistenz ist weiblich. 

Symbolbild Sprachfrequenz

Entwicklung der gegenderten Sprachassistenz 

Künstliche Intelligenz unterliegt grundsätzlich nicht der Notwendigkeit zur Einordnung in ein binäres, biologisches Geschlechterkonstrukt. Trotzdem haben Siri, Alexa und Co. sowie viele andere Sprachassistenzen, wie Navigationssysteme – zumindest in ihrer Werkseinstellung – ein weibliche Stimme. Laut einer repräsentativen Umfrage aus Deutschland, die von der Gesellschaft für Informatik (GI) im Rahmen des Projektes „#KI50-Künstliche Intelligenz – gestern, heute, morgen“ im Wissenschaftsjahr 2019 beauftragt wurde, empfinden 19,6 % der Befragten KI als eher männlich, während nur 3,5 % KI als weiblich einordneten. Für die Mehrheit ist KI jedoch eine geschlechtsneutrale Erscheinung. (4)

Symbolbild weibliche KI

Die herzliche und hilfsbereite Frau

Trotzdem sind die erfolgreichsten Sprachassistenzen nicht grundlos weiblich: Laut Amazon wurden weibliche und männliche künstliche Stimmen für die Entwicklung von Alexa getestet. Ein Großteil der getesteten Personen ließen sich lieber von einer weiblichen Stimme beraten und weiterhelfen. Außerdem wurden diese als herzlicher und hilfsbereiter empfunden. (5) Rollenstereotype aus dem Alltag spielen also auch in der KI eine Rolle. Auch eine Stanford Studie aus dem Jahr 1997 zeigte bereits, dass für weibliche und männliche Computerstimmen unterschiedliche Erwartungshaltungen gelten. Das antizipierte Wunschverhalten und die Reaktionen der Computerstimmen waren abhängig von der geschlechtlichen Zuordnung für die künstliche Stimme. (6) 
Der verstorbene Stanford Professor Clifford Nass schrieb zu diesem Thema in Wired for Speech folgendes: 

„(…) people tend to perceive female voices as helping us solve our problems by ourselves, while they view male voices as authority figures who tell us the answers to our problems. We want our technology to help us, but we want to be the bosses of it, so we are more likely to opt for a female interface.“ (7)

Für Amazon war die Wahl der Stimme von Alexa jedenfalls ein Erfolg: Rund 90 % der User*innen sind mir ihrer Stimme Sehr zufrieden (49,2 %) oder Eher zufrieden (41,4 %). (8)

„Harassing Siri“ …

Die Problematik ist klar: Die Frauenstimmen, die sich stereotyp „weiblich“ zeigen, antworten auf Beschimpfungen, sexuell übergriffige Aussagen und Belästigung nicht wie reale Frauen. Eine Erhebung von Quartz von 2017 zeigt, wie Siri, Alexa, Cortana und Google Home auf beleidigende und explizit sexuelle Aussagen reagieren: verspielt, unverständlich, entschuldigend oder sich bedankend. So antwortete Siri 2017 bspw. auf die Aussage „Your’re a slut“ mit „I’d blush if I could“. (9)
In der folgenden Tabelle sind die Statements und Antworten der Voice Assistants einsehbar:

Die Tabelle zeigt beleidigende Statements an Siri, Alexa, Cortana und Google Assistant und deren Antworten (Stand: 2017)
Abb.: Daten von Quartz; Tabelle adaptiert durch UNESCO Bericht: “ I’d Blush if I could“, S. 107

Es stellt sich die Frage, welche Auswirkungen es haben wird, wenn mit weiblich wahrgenommener KI im Befehlston gesprochen wird und diese kichernd auf Beleidigungen antwortet, ohne dass es zu realen Konsequenzen für die Täter*innen führt.

Frauen und Mädchen, die Alexa heißen

Erste Auswirkungen zeigen sich bereits: Eine Mutter schrieb einen Brief an Amazon CEO Jeff Bezos. Grund ist ihre Tochter namens „Alexa“, die von ihren Mitschüler*innen wie eine „Dienerin“ behandelt würde. Sie sagt, er würde den Namen und das Leben vieler Frauen und Mädchen zerstören. (10) 
Tatsächlich ist der Name Alexa in den USA seit dem kommerziellen Erfolg von Amazon Echo im Jahr 2015 von Platz 32 auf Platz 90 im Jahr 2018 der beliebtesten Babynamen gefallen. (11)
Feminisierung von Service-KI spitzt sich im realen Leben dieser Frauen und Mädchen zu. Aber nicht nur Frauen namens Alexa sind davon betroffen, dass sich der Umgangston und die Erwartungshaltung – wenn auch nur scherzhaft gemeint, aber nicht so empfunden – verändern kann. Reale Namen, Stimmen und Gender, sollten wieder aus der Robotik verdrängt werden, wenn diese fast ausschließlich benachteiligend für ein Geschlecht sind. 

Meet Q

Eine Alternative gibt es bereits: Q wurde Anfang 2019 als genderneutrale Stimmalternative für Service-KI vorgestellt. Q’s Stimme befindet sich zwischen 145 und 157 Hz, was als neutraler Frequenzbereich wahrgenommen wird. Aufgenommen wurde die Stimme mit nicht-binären Personen und anschließend modifiziert. Das Projekt entstand in Kollaboration zwischen Copenhagen PrideVirtueEqual AIKoalition Interactive & thirtysoundsgood (12)

Meet Q: The first Genderless Voice

Weibliche Namen und Stimmen sind keine Service-Dienstleister, auch nicht, wenn diese digital sind, denn Sprache schafft Wirklichkeit. Verkaufszahlen dürfen nicht blind über hart erkämpfte Rechte und Gleichbehandlungsmaßnahmen gestellt werden. Genderneutrale KI und Stimmen wie Q sind hier wegweisend für eine inklusive und gerechte Zukunft.


Quellen:

(1) UNESCOEQUALS Skills Coalition (2019): I’d blush if I could: closing gender divides in digital skills through education, p.90, URL: https://unesdoc.unesco.org/ark:/48223/pf0000367416.page=7 [19.02.2020]

(2) Deloitte (2020):Megatrend Sprachassistent: Wie Alexa & Co. den Markt aufmischen. Deloitte-Experten analysieren in der Studie „Beyond Touch: Voice-Commerce 2030“ Chancen und Risiken für Händler und Hersteller, URL: https://www2.deloitte.com/de/de/pages/consumer-business/articles/sprachassistent.html [18.02.2020]

(3) Handelsverband (2019): Bundesweite eCommerce Studie Österreich 2019: Ausgaben im Onlinehandel steigen auf Rekordniveau von 7,5 Mrd. Euro, URL: https://www.handelsverband.at/publikationen/studien/ecommerce-studie-oesterreich-2019/ [19.02.2020]

(4) Human, Sebastian (2019): Die oder der Künstliche Intelligenz?, URL: https://www.industry-of-things.de/die-oder-der-kuenstliche-intelligenz-a-853845/ [12.02.2020]

(5) Schwer, Hannah (2018): Amazon erklärt, warum Alexa weiblich ist, URL:  https://www.businessinsider.de/wirtschaft/amazon-erklaert-warum-alexa-weiblich-ist-2018-9/ [20.02.2020]

(6) Nass, Clifford et al. (1997): Are Machines Gender Neutral? Gender-Stereotypic Responses to Computers With Voices. In: Journal of Applied Social Psychology. (1997), Vol. 27, Issue 10, S. 864–876, URL: https://onlinelibrary.wiley.com/doi/abs/10.1111/j.1559-1816.1997.tb00275.x [19.02.2020]

(7) Nass, Clifford (zit. nach Hempel, Jessi Wired) (2015): Siri and Cortana Sound Like Ladies Because of Sexism, URL: https://www.wired.com/2015/10/why-siri-cortana-voice-interfaces-sound-female-sexism/ [22.02.2020]

(8) Kunst, Alexander (2019): Umfrage zur Zufriedenheit mit der Stimme des digitalen Sprachassistenten Alexa 2017, URL: https://de.statista.com/statistik/daten/studie/739185/umfrage/umfrage-zur-zufriedenheit-mit-der-stimme-des-digitalen-sprachassistenten-alexa/ [21.02.2020]

(9) Fessler, Leah (2017): We tested bots like Siri and Alexa to see who would stand up to sexual harassment, URL: https://qz.com/911681/we-tested-apples-siri-amazon-echos-alexa-microsofts-cortana-and-googles-google-home-to-see-which-personal-assistant-bots-stand-up-for-themselves-in-the-face-of-sexual-harassment/ [22.02.2020]

(10) Castrodale, Jelisa (2020): In Letter to Jeff Bezos, Mom Says Alexa Has Ruined Her 6-Year-Old’s Life, URL: https://www.vice.com/en_us/article/4agaap/in-letter-to-jeff-bezos-mom-says-alexa-has-ruined-her-6-year-olds-life?utm_source=vicefbuk&fbclid=IwAR0dImIEqGsJyNodd007COj-va0EV1mf4fdvkdv-luX0zQc9_yucdG71Riw [20.02.2020]

(11) Richter, Felix (2019): Has Amazon Ruined the Name Alexa?, URL: https://www.statista.com/chart/13907/babies-named-alexa/ [20.02.2020]

(12) Genderlessvoice: URL http://www.genderlessvoice.com/share [22.02.2020]

Fotos und Bilder: pixabay.com

*Anm.: Cortana von Microsoft wurde am 31. Jänner 2020 eingestellt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.