Nach Unesco-Kritik: Fördern Alexa und Co. Geschlechtervorurteile?

https://blog.wdr.de/digitalistan/unesco-foerdern-alexa-und-co-geschlechtervorurteile/

Nach Unesco-Kritik: Fördern Alexa und Co. Geschlechtervorurteile?

Kommentare zum Artikel: 3

Ob nun Alexa, Siri oder Cortana: Damit wir nur nicht den Eindruck bekommen, mit einem Blechhaufen am anderen Ende der Erde zu sprechen, sondern mit einem zumindest lebendig wirkenden Wesen, haben die Entwickler den digitalen Assistenten von Amazon, Apple und Microsoft weibliche Namen gegeben. Nur Google hat auf einen vermenschlichenden Namen verzichtet. Google ruft man “Google”. So einfach kann das sein.

Microsoft Sprachassistent/in Cortana; Rechte: WDR/Schieb

Microsofts Sprachassistent/in Cortana ist nach einer sexy Filmfigur benannt

Weibliche Stimme – und softe Reaktion

Weil die meisten digitalen Assistenten in der Regel – zumindest in der Standardeinstellung – mit weiblicher Stimme sprechen, ihr ihrer Eigenschaft als Assistent/in zudem einen dienenden Charakter haben und nicht selbstbewusst genug auftreten, hat die Weltkulturorganisation Unesco nun einen Tadel ausgesprochen: Die Assistenzsysteme von Apple, Microsoft, Google und Amazon würden durch ihre (meist verhaltene) Reaktion auf sexuelle Beschimpfungen Geschlechtervorteile fördern, lautet das Urteil einer Studie.

Meint: Wir sprechen mit einem Assistenzsystem, das mit weiblicher Stimme spricht – und wenn der User anzüglich wird, bekommt er keine verbale Ohrfeige. “Du bist eine Schlampe!” kontert Alexa mit “Ich würde erröten, wenn ich könnte.” Mittlerweile kommt die Replik: “Ich weiß nicht, was ich sagen soll.” Ich kenne ehrlich gesagt keine Frau, die so reagieren würde – was zeigt, dass die Alexa-Software aus der Zeit gefallen ist.

Zwar reagiert auch der männliche Siri (lässt sich umstellen) auf den Vorwurf “Du bist ein Hornochse” nur mit einem “Ich mag diese willkürlichen Kategorien nicht!” – was mir auch nicht sonderlich männlich erscheint -, aber das hat man bei der Unesco offensichtlich nicht untersucht.

https://vimeo.com/328806048

Auch KI kann diskriminieren: Gespräch mit Prof. Tobias Matzner

Auch KI kann diskriminierend sein

Es gibt meiner Ansicht ohnehin nach Wichtigeres, als der Frage nachzugehen, ob ein Blechhaufen auf “Anspielungen” angemessen reagiert. Denn das ist nur eine weitere Herausforderung von ganz vielen, denen sich KI-Entwickler dringend stellen müssen. Zwischenmenschliches ist den Systemen ohnehin fremd. Allerdings ist es auch eine Tatsache, dass auch KI zuweilen diskriminierend ist – oder rassistisch, oder sexistisch.

Oft ungewollt, weil unüberlegt programmiert oder weil KI-Systeme nun mal die Wirklichkeit abbilden. Manchmal gewollt und gezielt so entwickelt. Ein Seifenspender, der dunkelhäutigen Menschen keine Seife spendet, ist peinlich – und Ergebnis unzureichender Entwicklung. Ein KI-System hingegen, das Bewerbungen weiblicher Kandidaten benachteiligt (wie bei Amazon geschehen), ist das Ergebnis aus im großen Stil unkritisch übernommener Vorlagen.

Und wenn die KI im autonomen Auto auf dunkelhäutige Passanten schlechter reagiert als auf hellhäutige – was leider nach Untersuchungen auch eine Tatsache ist -, kann diese Schludrigkeit schlimme Folgen haben. KI ist also auch nicht besser als wir Menschen. Hier und da bekommen wir vielleicht eine Chance, auf diese Weise Unzulänglichkeiten zu erkennen  – und zu korrigieren.

Es wäre zweifellos gut, wenn jedes Assistenzsystem bei der Installation fragt: Soll ich mit männlicher oder mit weiblicher Stimme sprechen. Oder von mir aus auch mit einer neutralen. Und wenn das System dann auch noch in bestimmten Situationen anders reagiert, wäre das wohl auch nicht schlecht.

 

Über den Autor

Jörg Schieb ist Internetexperte und Netzkenner der ARD. Im WDR arbeitet er trimedial: für WDR Fernsehen, WDR Hörfunk und WDR.de. In seiner Sendung "Angeklickt" in der Aktuellen Stunde berichtet er seit 20 Jahren jede Woche über Netzthemen – immer mit Leidenschaft und leicht verständlich.

3 Kommentare

  1. Finde diese Bedenken etwas übertrieben. Ich kann mir nicht vorstellen, dass tatsächlich jemand diese Software als “Frau” sieht. Es ist eine Software, nicht mehr und nicht weniger.

  2. Claus Hamacher am

    Zitat: “Ich kenne ehrlich gesagt keine Frau, die so reagieren würde – was zeigt, dass die Alexa-Software aus der Zeit gefallen ist.”

    Nur: Alexa ist keine Frau und wird auch durch noch so raffinierte Programmierung keine werden. Wir sprechen immer noch von einem Konglomerat von Prozessoren und Software. Wer immer meint, solch ein Programm als Schlampe oder Hornochse bezeichnen zu müssen, hat offensichtlich selbst ein Problem.

    Weshalb man daran eine Diskriminierungsdebatte entzünden muss ist mir schleierhaft. Die anderen geschilderten Beispiele haben dagegen eine völlig andere Qualität.

Einen Kommentar schicken

Die mit * gekennzeichneten Felder müssen ausgefüllt werden.

Solve : *
20 × 20 =


Top