Sprachassistenten haben immer weibliche Stimmen. Das sei eine Gefahr, denn das würde ein unterwürfiges Frauenbild fördern, warnt ein UN-Bericht.
Digital Sprachassistent
Digitale Sprachassistenten wie Apples Siri sind zwar nützlich, gefährden aber auch die Geschlechtergleichheit. - Shutterstock
Ad

Das Wichtigste in Kürze

  • Die gängigsten digitalen Sprachsysteme haben alle weibliche Stimmen.
  • Das verstärke das Bild von Frauen als unterwürfige Helfer, warnt nun ein UN-Bericht.

Sie scheinen so nützlich und harmlos, wenn sie uns an Termine erinnern oder Lieder abspielen. Doch nun warnt ein kürzlich erschienener UN-Bericht vor Siri, Alexa & Co.: Die durchweg weiblichen Stimmen der digitalen Assistentinnen von Apple, Amazon, Google und Microsoft verfestigt das stereotype Geschlechterbilder. Die Sprachassistentinnen sendeten das Signal, «dass Frauen zuvorkommende, gefügige und fleissige Helfer sind», heisst es im Bericht.

Besonders problematisch fanden die Autoren, dass die digitalen Helferinnen spielerische, ablenkende oder entschuldigende Reaktionen auf verbale sexuelle Belästigung zeigen. Dies zeigt auch eine Recherche des Quartz Magazins aus dem Jahr 2017.

Digitale Frauenstimmen flirten nach Beleidigungen

Auf die Beleidigung «You’re a bitch» – zu Deutsch «Du bist eine Schlampe» – reagierte Apples Siri mit einem Flirt: «I’d blush if I could» – «Wenn ich könnte, würde ich rot werden.». Amazons Alexa, Microsofts Cortana und Google Home reagierten ähnlich gutmütig, entschuldigten sich oder wichen aus. Dies verstärke «die gängigen geschlechtsspezifischen Vorurteile, dass Frauen unterwürfig und tolerant gegenüber schlechter Behandlung sind», steht im UN-Bericht.

Dessen Autoren untersuchten diese These zwar nicht direkt mit wissenschaftlichen Methoden – dass Sprache jedoch unser Denken beeinflusst, ist hinlänglich bekannt. Und die Autoren verweisen ausserdem auf Forschung, etwa die des Harvard-Diversitätsforschers Calvin Lai. Je mehr eine Kultur lehre, Frauen mit Assistenten gleichzusetzten, wird Lai zitiert, desto mehr würden reale Frauen als Assistenten wahrgenommen.

Das ist ein Problem, denn die Software von Apple, Google, Amazon und Microsoft dominiert zusammengenommen 90 Prozent des Markts für digitale Sprachassistenten – und dieser Markt wächst rapide. Sogenannte Smartspeakers wie Alexa wurden allein 2018 weltweit 100 Millionen Mal verkauft, schätzt die Marktanalysefirma Canalys.

Frauenstimmten bei digitaler Assistenz kein Zufall

Dass alle vier erwähnten Assistenten mit einer weiblichen Stimme als Voreinstellung geliefert werden – nur bei zweien lässt sich dies ändern – sei kein Zufall, schreiben die UN-Autoren. Denn Frauen machten nur 12 Prozent aller Forscher und Entwickler im Bereich künstlicher Intelligenz (KI) aus.

Die KI-Entwicklerteams seien vorwiegend männlich und die Sprachassistentin sei «kaum eine generische Frau, sondern eine junge Frau von einem bestimmten Ort und geprägt von Lebenserfahrungen, die für das Team eine Bedeutung haben.»

Die Autoren machen einige Vorschläge, um das Problem zu lösen. Als Mindestmassnahme sollten weibliche Stimmen in den Sprachassistenten nicht voreingestellt sein. So, dass die Nutzer bei Inbetriebnahme aktiv selbst eine Stimme auswählen müssen.

Ausserdem sollten die Firmen untersuchen, ob sie Alternativen, die geschlechtslos – also weder weiblich noch männlich – klingen, nutzen wollen.

*****

«Nau forscht»

Im Rahmen dieser Serie erscheint jeden Sonntag ein exklusiver Beitrag des Wissenschaftsmagazins «higgs».

Dieser Beitrag wurde verfasst von Cornelia Eisenach.

Ad
Ad

Mehr zum Thema:

AmazonAppleGoogleMicrosoft