Apple-Mitarbeiter können Kunden beim Sex zuhören

Apple-Mitarbeiter können Kunden über Siri beim Sex hören. Der Schock über die Meldung schockt viele.

Ein Mann spricht zu Siri. - Keystone

Das Wichtigste in Kürze

  • Apple stösst mit ihrer Siri-Auswertungsmethode auf starke Kritik.
  • Als Reaktion stoppt das Unternehmen die Praxis vorläufig.
  • Auch beim Sex können die Mitarbeiter zuhören.

Apple hat angekündigt, die Nutzer ausdrücklich um eine Erlaubnis zum nachträglichen Anhören von Mitschnitten durch Mitarbeiter zu fragen. Das Unternehmen ist damit der erste Anbieter von Sprachassistenten, der diese Massnahme ergreift.

Die Funktion solle in einem späteren Software-Update umgesetzt werden, teilte der iPhone-Konzern dem Tech-Blog «TechCrunch» mit. Bis dahin werde das Vorgehen vorübergehend auf der ganzen Welt eingestellt und überprüft.

Apple lässt Mitarbeitende seit Jahren mithören

Bei Assistenzsoftware wie Alexa, dem Google Assistant und Siri wurden Fragmente von Mitschnitten teils von Menschen angehört und abgetippt. Und das seit Jahren. Ziel war die Verbesserung der Qualität der Spracherkennung.

Es geht dabei zum Beispiel um Fälle, in denen die Sprachassistenten den Befehl nicht verstanden haben. Der Umgang mit neuen Sprachen und Dialekten war auch betroffen. Die Anbieter betonen, dass die Aufnahmen davor anonymisiert würden.

Den Nutzern war die Praxis allerdings weitestgehend nicht bewusst, bis vor einigen Monaten erste Medienberichte dazu auftauchten.

Apple machte zwar deutlich, dass auch «eine geringe Anzahl von Transkriptionen» für die Verbesserung des Dienstes eingesetzt werden könne. Das verwiesen sie seit längerem auf einem Sicherheitsdokument. Aber nach dem Papier im Bereich für Entwickler müsste man allerdings erst suchen. Und die Nutzer werden bei der Einrichtung von Siri bisher nicht explizit auf diese Möglichkeit hingewiesen.

Weniger als ein Prozent ausgewertet

In einem Bericht erzählte der Mitarbeiter eines Apple Dienstleisters, auf den Aufnahmen seien zum Teil sehr private Details zu hören. Dies erschien in der «Guardian».

So schnappe Siri auch Fragmente von Gesprächen mit medizinischen oder geschäftlichen Inhalten. Mögliche kriminelle Aktivitäten oder auch Nutzer beim Sex auf sind auch dabei, sagte er. Die fehlerhaften Aktivierungen, bei denen die Software glaubt, die Weckworte «Hey, Siri» gehört zu haben, sind dabei ein besonderes Problem.

Nach früheren Angaben von Apple wurde weniger als ein Prozent der Aufnahmen ausgewertet.

Auswertung in der EU schon länger gestoppt

Google hat bereits Anfang Juli das Anhören der Mitschnitte durch Menschen in der EU ausgesetzt. Diese Massnahme ist allerding erst seit Donnerstag bekannt. Dieser Stopp gilt noch mindestens bis Ende Oktober, wie der Hamburger Datenschützer Johannes Caspar mitteilte.

Er leitete wegen der Praxis ein Verwaltungsverfahren gegen den Internet-Konzern ein. Er will das Anhören der Mitschnitte durch Google-Mitarbeiter oder Dienstleister untersagen. Laut Google werden nur rund 0,2 Prozent aller Sprachbefehle an den Assistant auf diese Weise abgetippt.

Die Assistenten starten die Aufzeichnung grundsätzlich erst, wenn sie das Aktivierungswort «Hey, Google», «Alexa» oder «Hey, Siri» hören. Allerdings müssen die Mikrofone ständig aktiv sein, um das Weckwort nicht zu verpassen.