Software und Algorithmen: Für die meisten eine Ausgeburt an Logik. Hier geht es nüchtern zu. Ja oder Nein. Software ist nicht zickig oder übellaunig, bevorzugt nicht und will auch niemanden ärgern – denken die meisten. Natürlich empfindet Software keine Genugtuung, wenn sie einem Antragsteller den Kredit nicht gewährt oder wenn ein autonomes Auto den einen Passanten erkennt und verschont, den anderen aber einfach anfährt.
Warum auch Software diskriminierend sein kann
Deshalb dieser Weckruf: Auch Software kann diskriminierend sein, die eine Gruppe bevorzugen und die andere benachteiligen. Natürlich nicht aus böser Absicht und schon gar nicht aus Boshaftigkeit, sondern einfach – weil es einprogrammiert ist. Die Algorithmen können gar nicht anders als die Befehle ausführen, die ihnen gegeben wurde. Teilweise aber mit fatalen Konsequenzen.
Laut einer aktuellen Studie die Georgia University sind dunkelhäutige Menschen deutlich mehr gefährdet, von einem autonomen Fahrzeug angefahren als zum Beispiel ich, mit extrem heller Haut. Der Grund: Die zum Einsatz kommende KI-Software wurde trainiert, um Hindernisse zu erkennen. Der Software wurden Millionen Fotos oder Situationen präsentiert – mehrheitlich mit hellhäutigen Menschen. Da kann das KI-System gar nicht anders, als zu unterscheiden (= diskriminieren, nichts anderes bedeutet das Wort).
Wann ist KI diskriminierend? Gespräch mit Prof. Matzner/Uni Paderborn
Nachlässigkeit hat mitunter schwere Folgen
Böse Absicht ist das wohl eher nicht – sie gibt es auch, sagt mit Prof. Tobias Matzian von der Universität Paderborn, aber: Bei der Entwicklung wurde schlichtweg nicht daran gedacht. Das ist auch eine Art von Diskriminierung – im Sinne von erheblicher Benachteiligung. Im Netz kursieren Videos von elektronischen Seifenspendern, die bei einer hellhäutigen Hand Seife geben – bei einer dunkelhäutigen Hand aber keine Flüssigseife herausrücken. Auch ein Fall von Diskriminierung.
Oder Amazon: Der Daten-Riese (siehe meinen Blogpost dazu) hat eine KI-Software entwickelt, um eingehende Bewerbungen vorzusortieren. Hier gibt es Hinweise auf erhebliche Benachteiligung von weiblichen Bewerberinnen. Warum? Weil auch hier mit echten Fällen “trainiert” wurde – und wenn Menschen Menschen diskriminieren, dann lernt das die KI. Sie kennt keine Moral, sondern empfindet das, was früher gemacht wurde, als Regel – und beherzigt diese.
All diese Beispiele zeigen, wie wichtig mehr Ethik in der Entwicklung von KI ist. Es braucht dringend Regeln – und sogar Vorschriften. Denn wer weiß, was als nächstes schief läuft?
2 Kommentare
Kommentar Funktionen
Richtig, KI ist von Menschen erdacht, wird von Menschen kontrolliert und bedient. Wenn Menschen diskriminieren dann diskriminiert zwangsläufig auch eine KI. Regeln für die Entwicklung von KI, ja das soll, nein das muß geschehen, doch global.
Das Grundproblem erscheint aber die Ethik der Menschen. Hier wäre es gut anzusetzen. Ethik als Schulfach, verpflichtende Business Ethik für leitende Personen, begleitende Ethik-Kurse während eines sozialen Jahres, einen verpflichtenden Ethik-Kurs für Berufstätige im Rahmen der Weiterbildungswoche, einen verpflichtenden Ethik-Kurs für Empfänger von Sozialhilfe … .
Ethik bzw. Philosophie als Schulfach gibt es seit 20 Jahren in den meisten Bundesländern, allerdings nur selten als Pflichtfach, meistens als “Ersatzunterricht” zum weggefallenen Pflichtfach Religion, ohne Fachlehrer – kurz: immer noch als “Klotz am Lehrerbein” und “fünftes Rad am Auto”, welches keinerlei Unterstützung und Finanzmittel der Länder bekommt. Zunächst müssen dann wohl erst die Politiker einen langen Pflichtkurs Ethik erhalten.