Es hat in den letzten Tagen einige Diskussionen darüber gegeben, dass sich “echte Menschen” Audioschnipsel aus digitalen Assistenten anhören. Apple, Amazon, Google und Microsoft beschäftigen für ihre jeweiligen Assistenzsysteme (zumeist externe) Kräfte, die sich stichprobenartig anhören, was wir den Assistenten so anvertrauen. “Alexa: Wie wird das Wetter?” “Hey Siri, was läuft hier im Kino?” Aber durchaus auch, was die Assistenten versehentlich so mitschneiden – weil sie davon ausgegangen sind, das jeweilige Schlüsselwort wäre gefallen. Immer wieder werden Gesprächsfetzen irrtümlich aufgezeichnet.
Stichprobenhaftes Anhören soll System verbessern
Offizielle Begründung für diese Abhörpraxis – von der wir im Übrigen nichts mitbekommen, da wir nicht informiert werden: Die Anbieter wollen dazulernen. Die Mitarbeiter sollen herausfinden, ob die KI-Systeme alles richtig verstanden haben – und/oder warum es bei der Verständigung im Einzelfall nicht geklappt hat. Auf diese Weise soll die KI in Zukunft besser verstehen. Auch mit Dialekt oder Akzent gesprochene Sätze richtig einordnen können. Im Grunde eine gute Sache, wenn die Assistenten dann besser werden.
Nur: Wir wurden vorher nicht wirklich darüber informiert. Außerdem weiß keiner, wie gut die Audios tatsächlich anonymisiert werden. Wer sich diese Schnipsel anhört – und unter welchen Umständen. Amazon-Mitarbeiter sollen ihre Arbeit teilweise im Home Office erledigen. Da kann jeder mithören – auch der Nachbar, der gerade zufällig zu Gast ist. Und dann amüsieren sie sich möglicherweise über die Aussprache von Alexa-Nutzern.
Nicht unbedingt beruhigend, finde ich. Und was bringt eine Anonymisierung (der Testhörer erfährt also nicht, von wem der Audioschnipsel ist, der da angehört wird), wenn zum Beispiel Geschäftsgeheimnisse im vertraulichen Gespräch aufgezeichnet werden? Oder wenn ich Krankheiten google, wenn Namen fallen oder Ortsangaben gemacht werden? Da lassen sich schnell folgenreiche Rückschlüsse ziehen…
Anna Biselli von netzpolitik.org im Interview
Die KI kann mehr Schaden anrichten als Menschen
Anna Biselli von netzpolitik.org hat in einem Gespräch mit mir aber einen anderen Aspekt hervorgehoben: Auch wenn wir uns – verständlicherweise! – unwohl fühlen, wenn echte Menschen zuhören – KI ist trotzdem schlimmer. Amazon hat ein Patent darauf, Stimmungen in der Stimme zu erkennen. Und KI hat jede Menge Möglichkeiten, so ziemlich alles zu analysieren. Ein echter Mitarbeiter hat im Schnitt 20 Sekunden pro Analyse. KI kann alle Register ziehen und viel mehr über uns herausfinden. Das ist im Grunde viel bedrohlicher.
So lange digitale Assistenten alles lustig in die Cloud schicken, was wir sagen, wird sich daran auch nichts ändern – das Problem wird zunehmen. Ideal wäre aus Anna Bisellis Sicht daher ein Assistent, der alles lokal – bei mir zu Hause oder im Büro – erledigt, nichts in der Cloud speichert, sondern alles vor Ort. Das wäre diskret – aber wohl eher nicht im Sinne von Amazon, Google, Microsoft und Apple. Die wollen so viel wie möglich über uns wissen – und versuchen mit allen Tricks, an unsere Daten zu kommen.
2 Kommentare
Kommentar Funktionen
Zumindest DIESE Probleme werde ich, so Gott will, NIE haben, weil ich solche Überwachungs-, Kontroll-, Ausspionier- und Manipulationsapparate von vornherein nicht in meine Wohnung lasse und auch nie lassen werde – genau wie mir auch NIEMALS eines von diesen Smartphonen ins Haus bzw. in die Tasche kommen wird.
Diejenigen Menschen, denen solcherlei Gerät wegen Behinderungen und Beeinträchtigungen tatsächlich eine Hilfe sein kann, müssen freilich dringend vor Überwachung, Kontrolle, Ausspionieren und Manipulationen geschützt werden – rechtliche und technisch.
Mit denen, die sich so was freiwillig und ohne Not(wendigkeit) ins Haus stellen und in die Taschen stecken, habe ich allerdings kein Mitleid, wenn sie überwacht, kontrolliert und ausspioniert werden.
Ich war fasziniert von meinem ersten Handy eines damals brühmten finnischen Herstellers mit Sprachsteuerung. Man konnte Kommandos geben wie “Ruf Andreas auf Mobiltelefon an” oder “starte Musik” etc. Das Handy brauchte eine Vorabaufnahme der Kommandos, und erkannte dann das Kommando wieder. Internet brauchte es dafür nicht – hatte auch gar kein Internet.
Mein Handy danach konnte Sprache mit Einträgen aus dem Adressbuch oder den Menüs automatisch erkennen, also keine Vorabaufnahme der Befehle war erforderlich, nur eine Einstellung der Sprache, so dass es wusste wie Buchstabenkombinationen als Wort in der jeweiligen Sprache klingen. Internet hatte das Handy, ging aber nur nach Rückbestätigung über Tasten online, und die Sprachsteuerung braucht die Internetfunktion gar nicht (man konnte im Display erkennen dass es gar nicht online ging).
Wow, dachte ich, das ist die Zukunft!
Nun haben wir x-mal mehr Rechenleistung in unseren Handies, aber für jeden Kleinkram muss ich online sein! Es sollte doch möglich sein, z.B. einen Sprachbefehl lokal auszuwerten, als Weiterentwickung wie es damals war. Wenn ich sage, “ruf Andreas an” und erhalte als Antwort “kann Befehl nicht ausführen – kein Internet”, so frage ich mich schon was das ganze soll.
Absolut kein Verständnis habe ich für Gesundheitsdaten (Puls von einer Pulsuhr etc.), die ich erst in einem Online-Login ins Internet laden muss, um sie über die Zeit grafisch dann darstellen zu können. Ich meine, das Smartphone hat dafür genügend Rechenleistung, um dies ausschließlich lokal bewältigen zu können.
Warum kommt keine Softwareschmiede der Welt eigentlich mal auf die Idee das vernünftig lokal auf dem Telefon zu implementieren?