Die amerikanische Firma OpenAI hat ein KI-System namens GPT-3 entwickelt, das selbst erfahrene Experten vom Hocker haut. “Die größte Sache seit Bitcoin“, schreibt ein Experte. Denn GPT-3 ist ein System, das auf Knopfdruck Texte generiert, die einfach nur “rund” sind. Es gibt keine Hinweise, dass ein KI-System diese Texte geschrieben hat. GPT-3 kann zum Beispiel Artikel schreiben. Oder Rezensionen. Pressetexte. Tweets. Das System weiß genau, welche Regeln in einem Genre gelten.
Es ist zum Beispiel möglich, eine Rezension von einem Buch oder einem Film anzufangen – und die KI bringt das zu Ende. Die KI merkt, ob man eher positiv oder eher kritisch schreiben möchte. Trägt die nötigen Daten zusammen. Und spuckt einen Text aus. Oder ein Märchen – etwa dieses Märchen hier. Nur den ersten Satz hat ein Mensch geschrieben – den Rest die KI.
GPT-3 kann aber auch Fragen beantworten. “Welche Pille schluckt Neo in The Matrix?”. Die KI “versteht” Texte: Man gibt dem System ein Buch zu lesen oder einen Artikel – und kann danach Fragen stellen. „Wer ist der Held der Geschichte?“ „Wieso ist Maria so traurig?“ „Was hat das Ferienhaus gekostet?“ Es ist gespenstisch.
Here are my initial results of integrating #GPT3 with Vector the robot this weekend.
I don't have text to speech working yet, so I have to type my side of the conversation. Feels like there's a lot of fun potential here. pic.twitter.com/X0HT2Uzjzu
— Jon Barber (@BonJarber) August 10, 2020
KI-Systeme lernen durch Beispiele
GPT-3 ist ein neuronales Netzwerk mit 175 Milliarden “Synapsen”. Diese werden ständig nachgebessert und trainiert, das System lernt selbst. Dazu bekommt es jede Menge zu lesen: Wikipedia-Artikel, Zeitungen, Zeitschriften, Radiobeiträge, Tweets, Posts, Literatur – die KI konsumiert massenhaft Texte, analysiert sie, erkennt Muster und lernt daraus.
Auf diese Weise kann GPT3 dann tatsächlich den Stil von Autoren Imitieren oder von bestimmten Medien oder Zeitungen.
Am Ende entsteht keine Intelligenz: Es entsteht ein perfekt analysiertes Abbild der Welt. Und die KI zeigt auch Schwächen auf. Wenn GPT3 Tweets schreiben soll, sind diese häufig rassistisch, antisemitisch oder sexistisch. Warum? Weil das auf Twitter nun mal häufig so besprochen wird.
Missbrauch satt denkbar
Die Risiken liegen im Missbrauch. Wenn solche KI-Systeme einsatzbereit sind, und das wird schon bald der Fall sein, werden mit Sicherheit nicht nur freundliche Bots in Shops zur Verfügung stehen. Es wird auch Bots geben, die Rezensionen fälschen, die auf Drittplattformen twittern und posten, sogar Artikel veröffentlichen. Das Netz lässt sich fluten mit „Content“ jeder Art – und so lässt sich der Diskurs beeinflussen.
Da das neue KI-System sogar den Stil von Autoren nachahmen kann, lassen sich Zitate oder Äußerungen so geschickt fälschen, dass sie glaubwürdig und echt klingen – und es einiger Recherche bedarf, um die Fälschung aufzudecken. In der Zeit, die das braucht, sind 100 weitere Texte generiert und veröffentlicht.
Wir brauchen faire Regeln für KI: Nicht alles was geht, sollte auch gemacht werden
6 Kommentare
Kommentar Funktionen
Ich meine, man muß nicht alles glauben, was einem geschrieben oder angetragen wird. Lieber wähle ich meine Quellen bei Informationsbedarf selbst aus. Facebook und Co., Webseiten mit Tonnenweise Werbung, die tragen mir Informationen an, die mich interessieren könnten (aus deren Sicht interessieren sollte). Will ich aber nicht. Ich bin keine Stopfgans. Aber viele haben sich zu einer gemacht. Man wird mit angeblich journalistisch aufbereiteter Information überhäuft. Will ich garnicht alles wissen und manche/viele Themen sind schon erschöpfend behandelt.
Jetzt über KI zu wettern, ist dümmerlich. Es sind folgenrichtige Schritte der Entwicklung. Und auch notwendig in der Kommunikation Mensch – Maschine.
So manche Erfindung hat dem Menschen kurzfristig das Leben erleichtert, nachhaltig aber seine Umwelt oder Kultur beschädigt. Viele dieser Schäden fallen erst Jahrzehnte oder Jahrhunderte später als solche auf. Die zügellose ethisch unreflektierte Technik- und Fortschrittsglaube der Menschheit wird sie ausrotten. KI wird der Menschheit langfristig Schaden zufügen. Wie gut, dass ich statistisch spätestens in 20 Jahren tot bin, keine Kinder gezeugt habe und diese Computer-Perversion nicht mitgestaltet habe.
Hm, da wurde in dem Video die DSGVO als Beispiel und Grundlage für EU-Weite KI-Regelung genannt.
Kleines Problem, im großen und ganzen ist die DSGVO Zahnlos.
Ja, hier und da trifft es mal ein Unternehmen, doch die Datenschutzbehörden sind chronisch unterbesetzt, um in der Fläche zu wirken.
Trifft der Datenschutz Behörden dann werden schnell Ausnahmeregelungen geschaffen oder gefordert.
Und die Bevölkerung interessiert am Ende Datenschutz auch nicht wirklich, die geringen Marktanteile Datenschutzfreundlicher Alternativen zu den großen amerikanischen Konzernen sind da ein starkes Indiz.
Genau diese DSGVO und vor allem Ihre reale Umsetzung als Grundlage für eine KI-Verordnung zu nehmen, oha, da haben die Konzerne und auch Behörden im großen und ganzen freie Bahn.
Praktisch für alle Schreibfaulen. Aber nu, solange vor der Veröffentlichung nochmal ein Mensch drüberschaut… ;-)
Ja das wird heftig. Zumal Texte in wenigen Sekunden oder Millisekunden erstellt sein. Die breite Masse der Bevölkerung wird dies nicht verstehen. Insbesondere ältere Menschen werden damit Probleme bekommen.
Nach meinem Verständnis haben wir heute schon die Situation das Content im Internet durch billige Click-Worker in der Masse und mit niedriger Qualität erzeugt wird.
Das gleiche gilt für des-informations Kampagnen.
Eine Text-KI perfektioniert dies nur, das Problem existiert heute schon.
Unter anderem weil nur wenige hochqualitative Inhalte bezahlen möchte und die journalistischen Inhalte welche man eh finanziert (Öffentlich-Rechtliche) diskreditiert werden.