Warum ein Online-Lügendetektor keine gute Idee ist

https://blog.wdr.de/digitalistan/warum-ein-online-luegendetektor-keine-gute-idee-ist/

Warum ein Online-Lügendetektor keine gute Idee ist

Kommentare zum Artikel: 3

Forscher von der Stanford und der Florida State University haben ein Machine Learning-Modell entwickelt, das Lügen in Online-Messages erkennen soll. Laut den Wissenschaftlern könnte das Modell in Zukunft zum Schutz unserer Online-Kommunikation beitragen. Das sehe ich kritisch.

Doch zunächst einmal: Wie soll so ein Online-Lügendetektor funktionieren? Hier haben die US-Forscher Ho und Hancock 40 Testpersonen jeweils in Paaren ein dafür designtes Game spielen lassen. Die beiden Spieler sitzen dabei getrennt voneinander und chatten miteinander – ohne zu wissen, wer ihr “Gegenspieler” ist.

Einer bekommt die Rolle des “Speaker“, einer die des “Detector” zugeteilt. Dem “Speaker” wird außerdem noch gesagt, ob er ein “Lügner” oder ein “Heiliger” ist. Die Aufgabe des “Detectors” ist es dann, mit Hilfe von Fragen im Chat herauszufinden, ob der “Speaker” ein Lügner ist oder nicht.

Mit Hilfe von Hinweisen den Lügner identifizieren

Anhand der Daten haben die Forscher Machine-Learning-Modelle entwickelt und getestet. Diese Modelle sollten quasi die Aufgabe des “Detectors” aus dem Game übernehmen und herausfinden, ob der “Speaker” ein Lügner ist. Eines der Modelle lag bei 82,5 Prozent der Einschätzungen richtig.

Anhand verschiedener Hinweise wie schnelleren Antworten bei Lügnern oder der Verwendung von Wörtern wie “immer” oder “nie” erkannte der Algorithmus, ob es sich um “Sinner” oder “Saint” handelt. Angaben dazu, wie die menschlichen “Detector” in der Studie abschnitten, gibt es nicht.

Künstliche Situation und “Overtrust”

Zweifelsohne sind die Ergebnisse der Studie für Machine-Learning-Interessierte spannend. Ein großer Kritikpunkt bei dieser Erhebung ist allerdings die künstliche Situation. Kaum jemand ist nur Lügner oder Heiliger, und im Alltag erzählen wir aus den verschiedensten Gründen nicht (die ganze) Wahrheit.

In einem simulierten Game sollte es außerdem kein Unrechtsbewusstsein für eine Lüge geben – denn die Lüge ist das erwünschte Verhalten. Es ist also anzunehmen, dass die Daten so nicht auf reale Situationen übertragbar sind. Das ist ein Problem, denn ein Machine-Learning-Modell ist immer abhängig von den Daten, mit denen es lernt.

Audioplayer

Bei einem Tech-Konzern hat eine Software Bewerbungen von Frauen aussortiert. KI-Ethik-Forscherin Nushin Yazdani im Gespräch dazu bei WDR 5 Politikum.

Wir sollten uns die Frage stellen, ob es unserem Zusammensein gut tut, wenn wir komplexes menschliches Verhalten scheinbar kategorisierbar machen. Denn Menschen haben wissenschaftlichen Erkenntnissen nach nun mal die Tendenz, Maschinen und maschinelles Lernen zu überschätzen.

Dieses Phänomen heißt in der Forschung auch “Overtrust”. Bezeichnet jemand also einen anderen Menschen als Lügner oder eine Aussage als Lüge, dann betrachten wir dieses Urteil kritischer, als wenn ein Computer-Modell aka ein Online-Lügendetektor uns ein Ergebnis ausgibt.

Lügendetektor goes ….

“Na und, dann wird halt jemand bei Facebook oder Twitter als Lügner bezeichnet”, könnte vielleicht ein erster Impuls darauf sein. Das Problem ist aber: Eine solche Technologie könnte auch noch in ganz anderen Bereichen eingesetzt werden – zum Beispiel bei Bewerbungen oder auch in der Strafverfolgung.

Dabei handelt es sich nicht um Zukunftsfantasien: Städte wie Chicago setzen seit längerem “Predictive-Policing”-Modelle ein. Diese errechnen die Wahrscheinlichkeit, mit der bestimmte Personen straffällig werden oder das Risiko für Verbrechen an verschiedenen Orten in der Stadt. Auch in Deutschland ist mit der Software “SKALA” seit kurzem ein System im Einsatz, das “Hot Spots” für Verbrechen identifizieren soll.

Und wo wir gerade bei der Strafverfolgung sind: Auch die traditionellen Lügendetektor-Tests, die sogar physische Reaktionen auswerten, gelten nicht umsonst vor Gericht als unbrauchbar. Denn sie können ausgetrickst werden, wenn jemand weiß, welche körperlichen Stress-Reaktionen unterdrückt werden müssen. Kaum denkbar also, dass jemand, der bewusst lügt, nicht auch sein Verhalten an Lügendetektor-Algorithmen anpassen würde.

Über den Autor

Ildiko Holderer ist freie Journalistin beim WDR, Digital Native (Jahrgang 1993) und generell für mehr Transparenz im Journalismus. Sie beschäftigt sich vor allem mit Plattformen und Wissenschaftsthemen. Seit ihrem Volontariat beim WDR 2013/14 lebt sie in Köln. Ihre Recherchen veröffentlicht sie bei WDR.de, in Form von (Insta-)Stories, Social Videos – und im Radio.

3 Kommentare

  1. am Ende ist das doch statistische Diskrimanzanalyse…
    das heißt: du hast einen Type I Error (Lügen werden als wahr beurteilt.) und eine Typ II Error (Wahres wird als Lüge beurteilt.)…
    im konkreten Fall kann ich mir nicht vorstellen, dass etwas relevantes bei rauskommt…
    …zumal die “gefährlichen” Lügner eben auch außerordentlich kaltblütig und gekonnt lügen…

  2. Eine andere Kernfrage ist “wieviel Schaden entsteht durch menschliches Verhalten?”, dem menschlichen Glauben einen Lügner erkannt zu haben, obwohl dieser gar nicht gelogen hat. Ferner, dem bewußten Lügen an sich, um unberechtigte Vorteile zu erlangen oder andere zu einer mir genehmen Handlung zu verleiten.
    Ein Algorithmus muss nicht fehlerfrei sein, sondern nur besser als Menschen damit es sich lohnt zu diskutieren ob wir solche Algorithmen einsetzen sollten.
    Ich postuliere das auf lange Sicht die Menschheit vom konsequenten Einsatz von Algorithmen in höchstem Maße positiv profitieren kann. Und das Interessante ist, dass “kann” hängt nicht von den Algorithmen sondern wieder von den Menschen ab.

  3. Off_Leiner am

    “Mit Hilfe von Hinweisen den Lügner identifizieren”:
    Nur “den” Lügner? Die Lügnerin also nicht…?

Einen Kommentar schicken

Die mit * gekennzeichneten Felder müssen ausgefüllt werden.

Top