Fehler im System: Wenn Suizid-Videos bei TikTok kursieren

https://blog.wdr.de/digitalistan/fehler-im-system-wenn-suizid-videos-bei-tiktok-kursieren/

Fehler im System: Wenn Suizid-Videos bei TikTok kursieren

Kommentare zum Artikel: 16

Ein Mann bringt sich selbst um – und streamt den Suizid live auf Facebook. Was sagt es über unsere Welt aus, wenn Menschen auf eine solche Idee kommen?

Ich möchte nicht über die Motive spekulieren. Wohl aber mein völliges Unverständnis darüber äußern, wieso es immer wieder vollkommen von jeder Verantwortung Entkoppelte gibt, die so ein Video nicht nur anschauen, sondern auch noch weiter verbreiten.

TiKTok ist vor allem bei Kindern und Jugendlichen beliebt; Rechte: WDR/Schieb

TikTok wird vor allem von Minderjährigen genutzt

Live gestreamt und x-fach kopiert

Die Aufzeichnung des Suizids ist dann bei Facebook, Twitter und TikTok gelandet. Nicht einmal, sondern viele, viele Male. Die Netzwerke waren bemüht, das Suizid-Video zu entfernen – auch das immer wieder, weil es viele Verrückte gibt. Viel zu viele.

Angeblich wurden auch die Konten all jener Nutzer/innen gesperrt, die versucht haben, das Suizid-Video erneut hochzuladen. Wobei ich an dieser Stelle anmerken möchte: Diese Personen gleich an die Staatsanwaltschaft und vielleicht auch an die Psychiatrie weiterzuleiten, das wäre auch ein guter Gedanke. Jedenfalls einer, der mir gefallen würde.

Cosmo Tech Podcast: Wie gefährlich ist TikTok wirklich?; Rechte: WDR/Schieb

Cosmo Tech Podcast: Wie gefährlich ist TikTok wirklich?

Peinliches Statement von TikTok

Aber so etwas machen angeblich “Soziale” Netzwerke nicht. Sie stellen lieber nüchtern auf Twitter fest wie das umstrittene TikTok:

“Unsere Systeme haben diese Videoclips automatisch erkannt und markiert, die gegen unsere Community-Regeln verstoßen haben.”

Geschmacklos. Eiskalt. Wie ein Text aus einer seelenlosen Amtsstube. Das Video eines Suizids verstößt also gegen die Community-Regeln. Diese Feststellung ist von “sozial” so weit entfernt wie wir vom anderen Ende der Galaxie.

Jugendschutz wird im Netz grundsätzlich sträflich vernachlässigt

Verstörende Inhalte kursieren viel zu lange

Doch damit nicht genug. Offensichtlich ist es Facebook noch einigermaßen gut gelungen, das Video (und die vielen Kopien) schnell zu identifizieren – und aus dem Netz zu entfernen. Ausgerechnet TikTok aber – dem derzeit liebsten virtuellen Spielplatz für Kinder und Jugendliche – gelingt das nicht.

User berichten darüber, dass ihnen das Suizid-Video immer wieder präsentiert wurde. Einige haben das Video sogar gemeldet – von den überforderten Moderatorinnen und Moderatoren bei TikTok aber den Hinweis erhalten, das ginge schon klar.

Wie kann sowas sein?

Ich frage mich: Wie kann es sein, dass ein Netzwerk, das eindeutig vor allem von Kindern und Jugendlichen genutzt wird, andauernd gegen Gesetze verstoßen kann – und nichts passiert?

Ein Netzwerk, das es ermöglicht, dass Morde oder Selbstmorde live gestreamt und/oder Aufzeichnungen immer wieder online gestellt werden, hat nicht nur ein riesiges Problem, sondern ist vor allem selbst eins.

 

Über den Autor

Jörg Schieb ist Internetexperte und Netzkenner der ARD. Im WDR arbeitet er trimedial: für WDR Fernsehen, WDR Hörfunk und WDR.de. In seiner Sendung "Angeklickt" in der Aktuellen Stunde berichtet er seit 20 Jahren jede Woche über Netzthemen – immer mit Leidenschaft und leicht verständlich.

16 Kommentare

  1. Lars Bauer am

    Die Attraktivität der Live-Übertragung bei TikTok wird mir gerade bewusst, wenn ich sehe, wie Schülerinnen live aus dem Unterricht streamen und dafür größtes Interesse und Anerkennung erhalten. Ich finde, dabei werden wichtige Regeln des Zusammenlebens in der Schule untergraben. Vielleicht sehe ich das zu schwarz, aber ich bin der Meinung hier ist eine neue Dimension der digitalen Regelverstöße im Schulleben erreicht. Den meisten Beteiligten im Klassenraum wird es nicht mal bewusst sein, was geschieht.

  2. In LIVEstreams lässt sich das wohl nur verhindern indem nicht mehr Live sondern nur zeitversetzt gestreamt wird, dabei geht aber jegliche interaktionsmöglichkeit flöten – daher ist das ein wunschdenken. suizid streams lassen sich nicht verhindern.

    • Jörg Schieb am

      Es könnte die Frage gestellt werden, ob jeder live streamen können muss. :) Oder ob nicht wenigstens eine Art Qualifikation nachgewiesen werden muss, zumindest ab einer bestimmten Zahl von Empfängern.

      • Bei großen Portalen sicher, aber was ist wenn ich ein Video über eine eigene Plattform streame? Das ist heutzutage sehr leicht umzusetzen.

      • Hannelore Grub am

        Vorne weg: Ich nutze weder Facebook noch TikTok. Ich bin auch kein Streamer, also betrifft mich das alles nicht wirklich, ABER:

        Ihre Antwort: “Es könnte die Frage gestellt werden, ob jeder live streamen können muss. :) Oder ob nicht wenigstens eine Art Qualifikation nachgewiesen werden muss, zumindest ab einer bestimmten Zahl von Empfängern.”

        Also hängt das Recht meine Meinung zu äußern von meiner Reichweite und von meiner “Qualifikation” ab? Weil live Streamen ist erstmal nichts anderes als mit der eigenen Meinung an die Öffentlichkeit zu gehen.
        Bei einer Demo darf ja auch erstmal jeder sagen was er denkt und wenn er gegen Recht und Gesetz verstößt, dann muss er sich den Folgen stellen und dann wird RE-agiert. Aber im Vorfeld Leute unter Generalverdacht zu stellen ist so unfassbar falsch.

        Ich könnte mir vorstellen, dass man in bestimmten Ländern sehr gerne die Leute die etwas zusagen haben, erstmal kontrollieren möchte ob das Gesagte auch in Ordnung ist. Sowas allerdings von einem Mitarbeiter zu hören, der auch von der freien Presse profitiert, verwundert mich über alle Maße.

        • Jörg schieb am

          Die freie Presse ist wichtig. Keine Frage. Ich will sie auch nicht missen. Doch hier gibt es Regeln — und eine Ausbildung. Und es gibt Kontrollinstanzen, etwa in einer Redaktion.

          Wer auto fahren will, muss einen Führerschein machen. Warum nicht auch, wer live streamen will? Denn auch hier kann erheblicher Schaden angerichtet werden.

  3. TechnicalRealist am

    Moderatorinnen und Moderatoren??? Sie glauben wirklich dort sitzen echte Menschen? Diese Datenmenge kann niemand manuell bewältigen. Das Flagging der Videos wird Bots bearbeitet, Lernende Systeme in zusammenspiel mit Content-ID, die auf bestimmte thresholds reagieren. Sollte ein Video tatsächlich mal große Mediale Aufmerksamkeit bekommen, ja dann gibt es Supervisor die für solche Fälle tatsächlich mal einen Blick drauf werfen. Selbst die sind bei einer Massiven App wie TickTock oder einer Plattform wie Youtube völlig überfordert. Man munkelt das bei Youtube die Menschlichen Reviews, hauptsächlich von Stay at Home Moms durchgeführt werden, die keine Ahnung von irgendwelchen Kontexten haben und beim Video skimming im Bruchteil einer Sekunde entscheiden ob weg, oder bleibt.
    Zu dem Statement der Plattform: Was haben sie denn erwartet. Ein zu Tränen rührenden Text? Dieses Statement ist genau das was man erwartet. Eine nüchterne Beschreibung des Vorgangs. Alles weitere beschreiben die meisten Plattformen in ihren FAQ. Oder haben sie erwartet, das dort weitere Maßnahmen zum Schutz stehen. Welche haben sie denn Erwartet? Zensierung der Videos bevor sie hochgeladen werden precensoring? Hellsichtigkeit ist etwas das man den Neuronalen Netzen noch nicht beibringen kann.

    Zu dem Inhalt: Ja das ist abartig, das sich manche Leute daran ergötzen. Aber die Menschheit ist halt abartig. Social Media zeigt mir, das die meisten Menschen nicht stark genug sind ihren dunkleren Trieben zu widerstehen.
    Ich sehe daring ganz klar: Angebot und Nachfrage. Der Selbstmörder hat was er wollte. Letztendlich Aufmerksamkeit von vielen. Die Zuschauer stillen ihre Morbide Lust nach dem Grotesken/ Abartigen. Die Leute die es verbreiten tun das um andere Menschen absichtlich zu schocken und psychisch zu schaden. Die höchste Stufe des “trollings”

    Am besten wäre es, wenn Eltern wieder zu Eltern werden und TickTock und Co ihren Kindern verbieten und Kontrolle über den Medienkonsum übers Smartphone erlangen. Das geht. Und kommen sie nicht mit , oh dann mobben alle das Kind, weil es die Trend App xy nicht hat. Das ist egal, da muss es durch. Da müssen die Eltern Überzeugungsarbeit bei anderen Eltern liefern.

  4. Carsten Mohr am

    Früher (vor 30 Jahren) mußte man ins Fernsehen, in die Zeitung oder zum Radio, um sich einem größeren Publikum zuwenden zu können. Heute kann einer alleine größere Aufmerksamkeit erzielen, ohne den jeweiligen Kontrollinstanzen (Kontrolle im Sinne von Ethik, Moral und dem gesetzlich Erlaubtem). Das liegt aber in der Natur der Sache mit den sozialen Netzwerken. Und das ist auch gut so. Denn sowohl abwertende als auch aufwertende Meinungen können weite Verbreitung finden. Wahrheiten ebenfalls, siehe gerade Beiträgen aus Krisengebieten und unterdrückten Regionen. Das es Menschen gibt, die ihren Suizid möglichst vielen “zeigen” wollen, ist traurig, aber nicht erst seit den sozialen Netzwerken so. Schüler, die ganze Klassen erschießen. Menschen, die sich vor Züge werfen, von Brücken springen. Hilfeschrei ja, Gesellschaft aufrütteln…nein. Würde man die vielen elendig verhungernden, von eigentlich leicht zu behandelnden, schwerst gezeichneten Kindern aus Afrika, jeden Tag, in den Netzwerken zeigen wie einen Hund aus Albanien, der völlig verwahrlost ist und große Betroffenheit und Spendenbereitschaft auslöst. Der Mensch ist auch Voyeur. Facebook, Tiktok und was sonst die Bühne. Oder das Schlüsselloch. Mir geht es gut, wenn ich von solchen Geschehnissen erfahre. Ich ordne mein Leben zwischen denen der gescheiterten und den supererfolgreichen täglich neu ein. Und finde, mir geht es doch gut. Ist auch eine Folge der schieren Informationsflut, die auf einen einwirkt. Eine heile Welt vorzuspiegeln, indem alles schlechte weggelassen wird, ist Zensur und mindestens so gefährlich, als wenn alles gezeigt werden würde und man daheraus sich jeder Illusion auf eine bessere Gesellschaft beraubt fühlte.

    • Interessante Gedanken. Nur in einem Punkt würde ich widersprechen wollen: Es geht nicht darum, “Schlechtes” zu filtern, sondern das, was dysfunktional, zerstörerisch und gesetzeswidrig ist. Vor allem in einem Netzwerk, das für Kinder und Jugendliche gedacht ist.

      • Carsten Mohr am

        Mit diesen Argumenten versuchen Diktaturen die Meinungs-/Äußerunds-/Ausdrucksfreiheit ihrer Bürger einzuschränken. Ich verstehe aber, worauf Ihr Gedanke letzlich abzielt. Allein die Realisierbarkeit macht einem Sorgen. Denn wieder stehen Menschen dahinter, die entweder in Unkenntnis der Zusammenhänge oder gerade in Kenntnis derer ihre Entscheidungen bezüglich der von Ihnen genannten Aspekte treffen.

        • Nun, bei aller Sympathie für Freiheit denke ich nicht, dass wirklich alles gesagt, geschrieben oder gezeigt werden darf. Es gibt aus gutem Grund Einschränkungen.

Einen Kommentar schicken

Die mit * gekennzeichneten Felder müssen ausgefüllt werden.

Solve : *
24 − 13 =


Top