Sprachassistenten und Datenschutz

Amazon lässt Alexa-Mitschnitte im Homeoffice auswerten

| Autor / Redakteur: dpa-afxp / Peter Schmitz

Seit kurzem können Alexa-Nutzer der Auswertung von Mitschnitten durch Amazon-Mitarbeiter widersprechen.
Seit kurzem können Alexa-Nutzer der Auswertung von Mitschnitten durch Amazon-Mitarbeiter widersprechen. (Bild: Amazon)

In der Debatte um die Auswertung von Nutzerdaten aus Sprachassistenten ist Amazons Dienst Alexa erneut in den Fokus geraten. Laut einem Bericht der „Welt am Sonntag“ sollen befristete Angestellte teilweise von zu Hause aus Daten aus Amazons Sprachassistentin Alexa auswerten.

In den vergangenen Wochen hatte es zunehmend Kritik an Amazon gegeben, dass sich auch Menschen aufgezeichnete Fragmente von Unterhaltungen der Nutzer mit dem digitalen Sprachassistenten Alexa anhören und abtippen, um die Spracherkennung zu verbessern. Die jahrelange Praxis war den Nutzern bis vor wenigen Monaten weitestgehend unbekannt. Laut einem Bericht der „Welt am Sonntag“ sollen sogar befristete Angestellte teilweise von zu Hause aus Daten aus Amazons Sprachassistentin Alexa auswerten. „Einigen Mitarbeitern ist es gestattet, von anderen Orten aus zu arbeiten“, erklärte Amazon dazu. „Dabei gelten strenge Sicherheitsmaßnahmen und Richtlinien, an die sich jeder Mitarbeiter halten muss.“ Es sei auch eindeutig festgelegt, „dass Mitarbeiter niemals an öffentlichen oder nicht-autorisierten Orten arbeiten dürfen“.

Alexa, hör mal bitte weg!

Menschliche Lauscher und HIPAA-konforme Umgebung

Alexa, hör mal bitte weg!

17.04.19 - Anfang des Monats präsentierte Amazon eine HIPAA-konforme Umgebung für seine Sprachassistentin Alexa und nährte damit Zweifel an Compliance und Privatsphäre der regulären Version. Genau diese wurden nun durch spätere Enthüllungen verstärkt. lesen

Seit kurzem weist Amazon in der Alexa-App im Bereich „Einstellungen / Alexa Datenschutz“ Nutzer erstmals ausdrücklich darauf hin, dass Amazon die Sprachaufnahmen „möglicherweise bei der Entwicklung neuer Funktionen verwendet und hierbei manuell überprüft, um unsere Services zu verbessern“.
Seit kurzem weist Amazon in der Alexa-App im Bereich „Einstellungen / Alexa Datenschutz“ Nutzer erstmals ausdrücklich darauf hin, dass Amazon die Sprachaufnahmen „möglicherweise bei der Entwicklung neuer Funktionen verwendet und hierbei manuell überprüft, um unsere Services zu verbessern“. (Bild: VIT)

Seit diesem Wochenende bietet Amazon Alexa-Nutzern, die sich um ihre Daten sorgen, eine neue Option an: Sie können die Auswertung von Mitschnitten durch Mitarbeiter des Konzerns verhindern. In der Alexa-App findet sich nun ein Schalter dafür. Die Alexa-App weis die Nutzer in einem Punkt in den Datenschutz-Einstellungen jetzt auch erstmals ausdrücklich darauf hin, die Sprachaufnahmen werden „möglicherweise bei der Entwicklung neuer Funktionen verwendet und hierbei manuell überprüft, um unsere Services zu verbessern“. Davon sei nur ein „sehr kleiner Anteil“ der Mitschnitte betroffen. Über dem Software-Schalter, der das ablehnt, platzierte Amazon einen Warnhinweis, dass das Ausschalten möglicherweise Funktionen einschränkt.

In Polen bewarb ein Zeitarbeits-Dienstleister die Jobs zur Auswertung von Alexa-Aufnahmen in inzwischen gelöschten Anzeigen der „Welt am Sonntag“ zufolge als „Telearbeit im ganzen Land“. Ein Zeitarbeiter sagte dem Blatt, er und viele seiner Kollegen arbeiteten vom Küchentisch aus. Amazon betonte: „Der Zugang zu internen Systemen wird streng kontrolliert und wir verfolgen eine Null-Toleranz-Politik wenn unsere Prozesse nicht befolgt werden.“ Alle Mitarbeiter nutzten „sichere, proprietäre Tools, um Alexa zu verbessern“.

Dass Fragmente von Alexa-Aufnahmen auch von Menschen ausgewertet werden, war im Frühjahr durch einen Bericht des Finanzdienstes Bloomberg bekanntgeworden. Damals ging es um das Anhören der Aufnahmen bei einem Dienstleister in Rumänien.

Schnell kam heraus, dass dies auch bei den beiden anderen vielgenutzten Sprachassistenten - Apples Siri und dem Google Assistant - der Fall ist. Bei Apple gab es zumindest einen Hinweis auf solche Transkriptionen in einem Sicherheitsdokument für Entwickler. Keiner der Anbieter wies aber bei der Einrichtung der Assistenten ausdrücklich darauf hin, dass auch ihre Mitarbeiter oder Dienstleister die Aufnahmen zu hören bekommen könnten.

Anfang Juli kam eine neue Welle der Kritik, nachdem Mitschnitte vom Google Assistant aus den Niederlanden geleakt wurden. Das veranlasste den Hamburger Datenschützer Johannes Caspar, ein Verwaltungsverfahren gegen Google einzuleiten. Der Internet-Konzern setzte bereits Anfang Juli die Auswertung der Aufnahmen durch Menschen weltweit aus - wie allerdings erst jetzt bekannt wurde. Apple folgte mit einem weltweiten Stopp am vergangenen Freitag - und versprach zudem, die Nutzer ausdrücklich um eine Erlaubnis zum nachträglichen Anhören von Mitschnitten durch Mitarbeiter zu fragen. Die Funktion solle in einem späteren Software-Update umgesetzt werden, hieß es.

Nutzen und Risiko von Sprachassistenten

Alexa, Siri und Cortana im Unternehmen

Nutzen und Risiko von Sprachassistenten

28.09.18 - Sprachgestützte Assistenzsysteme erobern derzeit den privaten Markt. Alexa, Siri und Co. wollen die Kommunikation zwischen Mensch und Maschine vereinfachen und den Anwender unterstützen. Jetzt gibt es erste Business-Ver­si­on­en dieser Assistenten. Die haben zwar einen unbestreitbaren Nutzen, bringen aber auch neue Sicherheitsrisiken mit sich, auf die kaum eine IT-Abteilung vorbereitet ist. lesen

Sprachassistenz-Software wie Alexa oder Siri reagiert auf Sprachbefehle des Nutzers. Ein Beispiel: Auf „Alexa, wie spät ist es?“ antwortet der Assistent mit der Uhrzeit. Die Alexa-Software wird vor allem auf den Echo-Lautsprechern des Konzerns genutzt. Amazon arbeitet aber - genau wie Google bei seinem Assistant - daran, sie in möglichst vielen Geräten verschiedener Hersteller unterzubringen. Siri kann man nur auf Apple-Geräten aufrufen.

Die Assistenten starten die Aufzeichnung grundsätzlich erst, wenn sie das Aktivierungswort - „Hey, Google“, „Alexa“ oder „Hey, Siri“ - hören. Allerdings müssen die Mikrofone ständig aktiv sein, um das Weckwort nicht zu verpassen.

Die fehlerhaften Aktivierungen, bei denen die Software glaubt, ihr Weckwort gehört zu haben, sind dabei ein besonderes Problem. Denn dabei können Sätze und Unterhaltungen aufgezeichnet werden, die nicht an die Sprachassistentin gerichtet waren. Beim nachträglichen Anhören sollen die Mitarbeiter auch herausfinden, welche Worte oder Geräusche die versehentliche Aktivierung auslösten, um die Software entsprechend anzupassen. Laut Google werden rund 0,2 Prozent der Aufzeichnungen nachträglich angehört, Apple und Amazon zufolge sind es weniger als ein Prozent.

Kommentare werden geladen....

Kommentar zu diesem Artikel

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46062760 / Compliance und Datenschutz )