Gewalt, Hass, Gemeinschaftsstandards, Nippelgate: Wie Facebook wirklich mit Beitragsmeldungen umgeht

Digitalien

Die Facebook Gemeinschaftsstandards sorgen immer dann für Diskussionen, wenn ästhetische Aktfotos gelöscht, Pornoprofile, Gewaltdarstellungen, Hatespeech aber nicht gelöscht werden. Warum Facebook wann was löscht, und was warum nicht.

August 2016. Medial gesehen liegen schlimme Wochen hinter uns. Es gab Wochen, in denen es fast täglich neue Schockmeldungen über Anschläge und Amokläufer gab. In Europa, unserem wohlbehüteten. Manche Medien waren dabei oft gefühlt zu live, zu nah dran, selbst Chefredakteurinnen von Boulevardmedien retweeteten undifferenziert Augenzeugen-Szenen von Anschlagsopfern, ohne sich sicher sein zu können, ob sie sich damit nicht zum Handlanger der Terroristen machen, die genau diese Bühne haben wollen und diese schockierenden Bilder selbst verbreiten.
ZEIT online Chefredakteur Jochen Wegner erklärte nachvollziehbar, zwischen welchen Mahlsteinen der Zwickmühle sich die journalistischen Medien zerreiben, wenn sie aus akuten Krisensituationen berichten und Gewaltszenen veröffentlichen – oder es eben nicht tun. Die Bilder und Videos in der offiziellen Berichterstattung der Medien bewegen uns zwar sehr, selten aber werden wir durch drastische, schreckliche Detail- und Nahaufnahmen von Opfern konfrontiert.

Bilder in unserer Wahrnehmung, die unser Weltbild erschüttern

Neben dieser aufbereiteten und sanft gefilterten Berichterstattung traditioneller Medien und mal mehr, mal weniger verifizierten Tweets, Fotos, Videos und Beiträgen von Augenzeugen der letzten Anschläge schwappen in dieser Zeit auch immer mal wieder Bilder und Videos von Terror und Folter aus anderen Ecken dieser Welt in unsere Newsfeeds. Bilder, die für uns hier schier unvorstellbar, vor allem aber unerträglich sind. Bilder, die uns drastisch illustrieren, dass wir hier immer noch wohlbehütet sind. Bilder, die unvorstellbar grausam sind und etwas mit uns machen. Sie erschüttern unser Weltbild.

Wir wollen diese Bilder nicht sehen. Wir wollen nicht zusehen, wie ein verzweifelt um sein Leben bettelnder Mann, der bereits bis zu den Schultern im Dreck eingegraben ist, so lange weiter mit Schutt und Erde überschüttet wird, bis nichts mehr von ihm zu sehen ist.

Wir wollen nicht Zeugen von Hinrichtungen durch Köpfung oder Kehlschnitt oder Kopfschuss sein, wie im Oktober bei den mutmaßlich von türkischen Soldaten erschossenen PKK-Kämpferinnen in den türkischen Bergen.

Und während im September 2015 das Bild von Aylan aus Syrien, dessen kleiner toter Körper an den Strand von Bodrum gespült wurde, zum traurigen Sinnbild der Flüchtlingstragödie wurde, weil der kleine Junge wie schlafend sanft in den Wellen gewiegt wurde und alle Mütter, alle Väter ihre eigenen kleinen Kinder darin erkannten. Während dieses Bild uns vor allem furchtbar traurig machte und unsere Herzen berührte, erreichten einige unserer Newsfeeds auch andere Bilder von toten Babies am Strand, die nicht nur berührten, sondern zutiefst schockierten. Und die die ganze Wahrheit zeigten. Babyleichen, die uns aus toten Augen anstarrten, mit vollgesogenen Windeln oder nackt, an den kleinen Körpern Spuren der Brandung und des Salzwassers. Bilder, die uns ungeschönt deutlich machten: Diese Babies schlafen nicht. Diese Babies haben einen furchtbaren Tod gefunden.

Was wir tun um diese Bilder loszuwerden

All diese drastischen Bilder lösen bei vielen Menschen – auch bei mir – den gleichen Reflex aus: Löschen! Weg klicken! Jemand muss etwas tun! Ich will das nicht sehen! Ich will nicht, dass meine Kinder das sehen! Ich will nicht, dass andere das sehen! Das muss weg! Sofort!

Wir klicken dann oben rechts im Beitrag auf „Beitrag melden“, klicken uns durch den Dialog, klicken „Dieser Beitrag sollte meiner Meinung nach nicht auf Facebook sein.“ überlegen genervt, ob der Punkt „Er ist bedrohlich, gewalttätig oder suizidal“ es trifft, oder ob wir „Etwas anderes“ anklicken, nur um dort im nächsten Dialog zu landen, in dem beide Punkte („Mein geistiges Eigentum“ oder „Drogen- und Waffenhandel“) nicht passen. Klicken zurück, wählen den Punkt mit „gewalttätig“ aus, und dann nochmal „Gewaltdarstellung“, und dann – endlich – können wir die Meldung „An Facebook zur Überprüfung senden.“

Zwischen Erlösung und Ohnmacht?

Und fühlen uns ein kleines bisschen erlöst. Vorerst. Weil wir getan haben, was wir in diesem Moment tun konnten. Dafür sorgen, dass es unsichtbar wird. Als könnten wir das Grausame, das Schreckliche ungeschehen machen, wenn wir es nicht mehr sehen müssen. Eine sehr menschliche Reaktion.

Umso unverständlicher ist es dann für viele, wenn Facebook auf unsere so umsichtige und dringende Meldung folgende Antwort sendet: „Wir haben das von dir im Hinblick auf Gewaltdarstellungen gemeldete Video geprüft und festgestellt, dass es nicht gegen unsere Gemeinschaftsstandards verstößt.“

In diesem Augenblick fühlt man sich dann wieder vollkommen ohnmächtig und hilflos. Wie vor den Kopf geschlagen. Und wir stellen uns die Frage: „Wie kann es sein, dass solch fürchterliche Bilder nicht gegen die Gemeinschaftsstandards verstoßen?“

Was passiert, wenn ich einen Inhalt melde? Sitzen da wirklich Menschen?

Bei der schieren Masse an Inhalten, die mit großer Wahrscheinlichkeit jeden Tag bei Facebook und auch Instagram gemeldet werden, war ich einst davon ausgegangen, dass es Algorithmen sind, die zumindest klar identifizierbare Regelverstöße automatisiert filtern und die Rückmeldung an den Nutzer schicken, der den Inhalt gemeldet hat.

Es ist jedoch so, dass jede einzelne Meldung von einem Menschen gecheckt wird. Durch den Meldungsdialog, durch den sich ein Nutzer klicken muss, bis er die Meldung abschicken kann, werden die Inhalte schon vorsortiert und so an die für dieses Thema zuständigen und geschulten Teams geschickt.

Dabei landen gemeldete Inhalte, die in Deutschland von einem deutschsprachigen Profil gemeldet wurden, die Bildunterschrift des gemeldeten Beitrags aber zum Beispiel auf kyrillisch, indonesisch oder arabisch geschrieben wurden, auch bei einem Muttersprachler dieser Sprachen, der den Kontext der Inhalte eindeutig einordnen kann.

Es kommt auf den Kontext an: Gewaltverherrlichung oder Dokumentation

Denn es ist dieser Kontext, der so wichtig ist und zur Entscheidung führt, ob ein Inhalt gelöscht wird, oder ob er – unter bestimmten Einschränkungen, dazu komme ich später – bleiben kann. Es wird ein Unterschied gemacht zwischen Gewaltverherrlichung und Dokumentation.

Wird zum Beispiel das oben beschriebene Video von dem Mann, der auf so grausame Art gefoltert und getötet wird, geteilt mit der Nachricht: „Er hat es verdient, er muss sterben, und das ist die beste Art Leute wie ihn zu töten!“ Dann ist das Gewaltverherrlichung und wird sofort von den Facebook-Supportern gelöscht.

Steht im Begleittext zum gleichen Video bei einem anderen User, der es veröffentlicht hat: „Hier wurde ein Mann getötet, indem er eingegraben wurde.“ dann ist das keine Gewaltverherrlichung, sondern die Dokumentation von Gewalt.

Facebook ist nicht untätig und schützt Jugendliche und auch uns Erwachsene

Das mag einigen Nutzern nicht gefallen, doch genau genommen kann es tatsächlich nicht die Aufgabe eines Netzwerks sein, die Dokumentation von Gewalt, die ganz real in unserer Welt stattfindet, auszublenden. Denn diese Gewalt verschwindet nicht, nur weil wir sie nicht mehr sehen. Sie ist Teil dieser Zeit. Und sie betrifft auch uns.

Facebook-WarnungFacebook ist zudem nicht untätig, wenn drastische Darstellungen im dokumentarischen Kontext gezeigt werden. Der Supporter legt dann einen ‚Graphic Layer‘ über das Foto oder das Video, das den Betrachter warnt: Dieser Inhalt enthält möglicherweise verstörende Inhalte.

So kann jeder selbst entscheiden, ob er sich das Bild oder Video tatsächlich anschauen möchte. Jeder, der über 18 ist. Mit dem Graphic Layer versehene Inhalte werden nämlich auch nur noch in Profilen von Erwachsenen angezeigt. Jugendliche unter 18 Jahren bekommen diesen Inhalt, wenn er einmal gemeldet wurde, nicht mehr zu sehen.

Wichtig zu wissen: Hat jemand bereits den Inhalt angesehen, sieht er keinen Graphic Layer mehr. Das führt häufig zu Missverständnissen und die Nutzer, die den Inhalt gemeldet haben zürnen dann: „Aber ich sehe das Video direkt, es läuft sofort los!“

Hier könnte Facebook den Layer besser einfach immer anzeigen, denn auch jemand, der schon mal – vielleicht zufällig – ein solches Video im Stream gesehen hatte, möchte später weiterhin gewarnt werden, wenn es wieder auftauchen sollte.

Wer diesen Inhalt nie wieder sehen möchte, klickt im Beitragsdialog oben rechts auf „Beitrag verbergen.“ Dann ist er wenigstens für einen selbst gesperrt.

Und warum keine Layer bei Aktfotografie?

Ja, das ist ein Punkt, über den man diskutieren könnte, denn wenn Facebook diese Technologie der Layer zur Verfügung steht, so wäre es doch ein Leichtes, diese Filter-Möglichkeit auch bei Nacktheit einzusetzen.

Nippelgate
Wollen wir in einer Welt leben, die Bilder wie das linke verbannt? Weil dort Nippel erkennbar sind. Und uns Bilder wie das rechte zumutet? Weil dort keine Nippel erkennbar sind. Facebook ist derzeit diese Welt. Foto links: Vernon Trent Video-Ausschnitt rechts: Melissa Ede

Mehr noch: Akt- und Nudefotografen könnten dann einfach bei jedem ihrer Fotos voreinstellen, dass diese Nacktheit enthalten. Und damit selbst aktiv etwas dafür tun, dass die Fotos Jugendlichen nicht gezeigt werden.
Und Facebook könnte diese Fotos dann auch gleich in allen Ländern ausblenden, in denen die Darstellung von nackten Menschen verboten ist. Denn das ist der Grund für das rigide Löschen selbst von ästhetischsten Aktfotos: Facebook wird in etlichen Kulturen genutzt, in denen das Zeigen von Nacktheit ein gesetzlicher Verstoß ist.

Damit würde Facebook nicht nur die über das Löschen von Busenbildern äußerst erbosten Nude-Fotografen glücklich machen, sondern natürlich auch deren Fans, die sich bereits seit Jahren sehr darüber ärgern, dass selbst künstlerisch ästhetische Aktfotos nur eine Chance auf Facebook haben, wenn die Nippel gepixelt oder mit Sternchen oder Balken versehen sind. Zu nah am Hintern sollte der Fotograf auch nicht gewesen sein. Man könnte sagen:
Nippel, Schritt und Pos sind Facebooks No-Gos. Punkt.

Ausnahmen gibt es übrigens: Wenn die Fotos nachweislich unter „Weltkunst“ fallen oder historisch begründet sind, kann es sogar zu Nacktdarstellungen auf Facebook kommen. Die Big Nudes von Helmut Newton könnten dann – theoretisch – unverpixelt im Newsfeed auftauchen. Ausprobiert habe ich das noch nicht.

Und so ist es jetzt auch möglich, dass das weltberühmte ikonische Foto der jungen Vietnamesin Kim Phuc auf der Flucht vor Napalm-Bomben auf Facebook gezeigt werden kann.
Allerdings erst nach massivem Druck der User, allen voran Espen Egil Hansen, Chefredakteur der norwegischen Zeitung Aftenposten, der einen offenen Brief an Marc Zuckerberg formulierte: Das historisch bedeutende Foto aus dem Vietnamkrieg 1972 war vom Facebook-Support zuvor wegen kindlicher Nacktheit (nicht wegen Gewaltdarstellung) gelöscht worden. Dazu ein Statement von Justin Osofsky, Vice Presiedent Global Operations & Media Partnerships bei Facebook.

Und die ganzen Porno-Profile, gegen die (scheinbar) niemand was macht?

Wenn Nacktheit so ein Problem für Facebook darstellt, mag man sich wundern, warum es doch immer wieder so viele Porno-Spam-Profile schaffen, sich durchzumogeln. Vor allem männliche Facebook-User bekommen tägliche Freundschaftsanfragen von überaus attraktiven Ladies mit eindeutig zweideutigem Inhalt, der sich beim Profilcheck dann bestätigt: Links auf Pornovideos mit explizitem Vorschaubild sind unmissverständlich interpretierbar.

Doch der Klick auf „Profil melden“ hilft nicht immer. Mit großem Erstaunen quittieren die Meldenden nicht selten die Facebook-Support-Nachricht, dass das gemeldete Profil nicht gegen die Gemeinschaftsstandards verstoßen würde. Ein weiterer Klick auf das gemeldete Profil zeigt aber häufig bereits neue pornografische Inhalte. Oder vielleicht auch mal gar keine Inhalte.

Vermutlich handelt es sich hierbei um Profilbots oder fleißige Pornoverbreiter im Auftrag von Linkwerbern, die sich eine besonders perfide Strategie ausgedacht haben: Nach der ersten Freundschaftsanfragenwelle und den ersten Reaktionen löschen sie innerhalb eines gewissen Zeitraums alle explizite Inhalte aus ihrem Profil.

So kann es sein, dass die Gründe für die Meldung verschwunden sind, wenn das Profil zum Sichten beim Supporter angekommen ist. Hat er das Profil einmal wieder als „clean“ freigegeben, kann es zwar sein, dass es zu einem späteren Zeitpunkt wieder gemeldet wird, dass der Facebook-Check aber diesmal länger dauert, weil das Profil ja erst kürzlich gemeldet und als harmlos gecheckt wurde.

Ich bin sicher, dass es auch hier technische Möglichkeiten gäbe wie Screenshots, die dem Supporter zeigen, in welchem Zustand sich das Profil während der Meldung befunden hat. Und ich bin auch sicher, dass Facebook die Möglichkeiten zu einer solchen Lösung hätte.

Bis dahin ist es wohl effektiver, wenn die einzelnen expliziten Inhalte gemeldet werden.

Hass, ich bin der Hass: Die Facebook Gemeinschaftsstandards

Das wohl komplizierteste und komplexeste Thema, das uns in diesem bewegten Jahr am häufigsten beschäftigt hat, scheint das Phänomen Hassrede auf Facebook zu sein. Das Jahr 2016 war leider von hasserfüllten Aussagen, beleidigenden und herabwürdigenden Ansagen und auch Gewalt- und sogar Todesdrohungen geprägt: Besonders aus dem rechten Lager gab es immer wieder unbegreiflich hasserfüllte Aussagen gegen geflüchtete Menschen und jene, die ihnen helfen.

Jeder Gastgeber, der etwas von Respekt, Würde und Anstand hält, würde von seinem Hausrecht gebrauch machen und solche Menschen kompromisslos auf die Straße setzen. Doch Facebook agiert hier häufig weniger wie ein Gastgeber, denn wie ein altersmilder Gastwirt, der weiß, dass seine Gäste halt ab einem bestimmten Pegel mal übers Ziel hinaus schießen: Es duldet etliche verbale Ausfälle, statt sie zu maßregeln und bezieht sich selbst bei Beleidigungen auf die Meinungsfreiheit und auf seine Gemeinschaftsstandards. Denn schließlich sind ja auch die Pöbler Kunden.

Die Besuche der Grünen-Politikerin Renate Künast bei ihren Internet-Trollen, die sie bei Facebook beleidigen und beschimpfen, scheint ihnen recht zu geben: Das scheinen „völlig normale“ Leute zu sein, die einfach ab und an die Sau raus lassen wollen, es aber eigentlich „gar nicht so meinen.“

Hatespeech: Aber kann man das einfach so stehen lassen?

Immer wieder gibt es Stimmen gegen Facebook zu diesem Vorgehen, wie erst kürzlich von der Autorin und Social Media Expertin Christa Goede. In ihrem Artikel „Fünf Gründe, warum ich Facebook nicht mehr sooo mag“ führt sie als ersten die lasche Haltung des Supports an: „1. Dein mangelhafter Einsatz gegen Hate-Speech und besorgte Wutbürger.“

Und sie appelliert an die gesellschaftliche Verantwortung des Netzwerk-Riesen: „Ich weiß, du kannst nichts für diese Irren – aber du bist dafür verantwortlich, dass sie so laut geworden sind. Denn du, Facebook, kümmerst dich nicht um geltendes Recht und Gesetz. Du hast einfach deine eigene „Gemeinschaftsstandards“ erfunden, in der Nacktheit sofort bestraft, Volksverhetzung, Verleumdung, Beleidigung und (Mord-)Drohungen aber akzeptiert werden. Merkste was, SCHNÄUZELCHEN?“

Das geltende Recht sieht so aus:

“Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern … Diese Rechte finden ihre Schranken in den Vorschriften der allgemeinen Gesetze, den gesetzlichen Bestimmungen zum Schutze der Jugend und in dem Recht der persönlichen Ehre.”

(Grundgesetz Artikel 5)

und

“Wer … gegen eine nationale, rassische, religiöse oder durch ihre ethnische Herkunft bestimmte Gruppe … zum Hass aufstachelt … oder … die Menschenwürde anderer dadurch angreift, dass er … einen Einzelnen wegen seiner Zugehörigkeit zu einer vorbezeichneten Gruppe … beschimpft, böswillig verächtlich macht oder verleumdet, … wird mit Freiheitsstrafe von drei Monaten bis zu fünf Jahren bestraft.“

(Strafgesetzbuch § 130)

Facebook GemeinschaftsstandardsAutor und Sozialwissenschaftler Stanley Vitte, viele Jahre Community Manager eines großen Bürgerportals, zeigt in seinem Artikel „Hatespeech – Wie wir dem Hass begegnen können“ auf, wie man auf Hetze und Verbalgewalt reagieren kann – und auch muss. Und er führt auch auf, welche reale Gefahr davon ausgeht: „Viele Hassreden enthalten Halbwahrheiten, Fehlmeldungen und konstruierte Zusammenhänge […]. Und je häufiger Menschen in ihrem eigenen sozialen Umfeld Informationen wahrnehmen, desto höher ist laut wissenschaftlichen Studien die Chance, dass sie diese Informationen irgendwann für “die Wahrheit” halten.“

Völlig eindeutig also, Facebook müsste viel mehr dagegen tun, viel rigider eingreifen, wenn Hass verbreitet wird. Müsste es das? Denn diese Gesetze gegen Volksverhetzung und Aufwiegelung sind deutsche Gesetze. Und Facebook ist ein amerikanisches Unternehmen. In Amerika, dem Land der unbegrenzten Möglichkeiten, darf tatsächlich jeder alles sagen, ohne dafür belangt werden zu können. Außer „Fuck“ im Fernsehen.

Andererseits verbannt Facebook Busen-Nippel, weil es in einigen Ländern verboten ist, Nacktheit zu zeigen. Warum verbannt es dann keine Hassreden, weil es in einigen Ländern verboten ist, Hass zu verbreiten?

Zudem ist in Facebooks Gemeinschaftsstandards, auf die sich der Facebook-Support hinter dem Meldesystem beruft, wenn er behauptet, dass ein gemeldeter Beitrag nicht gegen sie verstößt, genau das festgelegt. Unter dem Punkt „Respektvollen Umgang fördern“ findet sich unter dem Unterpunkt „Hassbotschaften“ alles aufgeführt, was mit unseren Gesetzen und unseren Werten konform ist:

„Facebook entfernt sämtliche Hassbotschaften, d. h. Inhalte, die Personen aufgrund der folgenden Eigenschaften direkt angreifen:

  • Rasse,
  • Ethnizität,
  • Nationale Herkunft,
  • Religiöse Zugehörigkeit,
  • Sexuelle Orientierung,
  • Geschlecht bzw. geschlechtliche Identität oder
  • Schwere Behinderungen oder Krankheiten.

Die Präsenz von Organisationen und Personen, die Hass gegen diese geschützten Gruppen schüren, ist auf Facebook nicht zulässig. Wie bei allen unseren Standards vertrauen wir darauf, dass unsere Gemeinschaft uns entsprechende Inhalte meldet.“

Gemeldet wird viel. Trotzdem verschwindet scheinbar nur ein geringer Anteil der eindeutigen Hassbeiträge in Facebooks Nirvana. Und etliche Hetz- und Gewaltseiten bleiben trotz eindeutiger Inhalte bestehen.

Warum das so ist, darüber schweigt Facebook sich aus. Vielleicht ist der Support einfach überfordert? Sicher ist: Der schmale Grad zu beurteilen, was noch unter Meinungsfreiheit abgedeckt ist und was bereits unter Hass und Gewalt einzuordnen ist, ist nicht leicht begehen.

Stellen wir uns einfach mal vor, Facebook hätte die ganzen hasserfüllten Beiträge aus Donald Trumps Profil gelöscht, die er dort abgelassen hat. Okay, ich hätte das wirklich cool gefunden 😉 Aber was wäre dann wohl los gewesen? Hillary war häufig nicht viel diplomatischer. Wahlkampf ohne Facebook? Für viele sicher ein Traum. Aber ist das realistisch?

Hat Facebook wirklich alles falsch und schlecht gemacht?

Facebook hat noch viel zu tun.

Was wir in unserer eigenen Social Bubble aber gern übersehen: Wir sind nicht alle. Facebook ist ein international agierendes Netzwerk, das sich mit seinen höchsteigenen Gemeinschaftsstandards an die schwierigste Aufgabe der Menschheit, nämlich einheitliche Kommunikation und Werte, gewagt hat.

Wäre Facebook ein neuer Staat auf der Erde, so wäre dieser innerhalb von 12 Jahren von 0 auf fast 1,8 Milliarden Menschen aus allen Kulturkreisen der Welt gewachsen. Dass dieser Kommunikationsturm noch nicht unter babylonischer Sprachverwirrung zusammengefallen ist, grenzt durchaus an ein Wunder. Vor allem vor dem Hintergrund, dass ein großer Teil der deutschen nicht mal die Sachsen versteht.

Auf der Suche nach dem kleinsten gemeinsamen Nenner aller beteiligter Kulturen werden noch viele holprige Wege zu beschreiten sein und viele Kompromisse gefunden werden müssen. Was in Deutschland ein nett gemeinter Joke ist, kann in einer anderen Kultur schon eine Beleidigung sein. Und umgekehrt.

Alles was wir derzeit für eine schönere Facebook-Welt tun können ist, uns immer wieder zu empören, wenn wir das Gefühl haben, dass Unrecht in diesem Sprach- und Wertewirrwarr passiert.

Denn aus unserer eigenen deutschen und europäischen Geschichte wissen wir um die Macht der Worte, um die Kraft des Aufwiegelns, um den Sog des Hasses, der wie ein Buschfeuer alles vernichten könnte, was viele Generationen nach dem Krieg mühsam aufgebaut haben: Der respektvolle Umgang miteinander, Toleranz, Neugier, Hilfsbereitschaft, eine offene, wandelbare Gesellschaft, Werte, auf die wir stolz sein können. Werte, die aus uns gemacht haben, was wir heute sind: Das Land mit der höchsten Lebensqualität der Welt.

Facebook sollte ein dringendes Interesse daran haben, es uns virtuell gleich zu tun, klare Kante zu zeigen und Stellung zu beziehen. Denn wenn das einstige Wohlfühlnetzwerk, das unser virtuelles Wohnzimmer geworden ist, sich zu einem Moloch aus Hass, Drohungen und Gewalt wandelt, werden die Guten dieses Wohnzimmer verlassen, weil sie es einfach nicht mehr ertragen können.

Und die Werbenden werden mit ihnen gehen.

Mark Zuckerberg und seine Anwälte werden sich in nächster Zeit jedenfalls eingehender mit dem Thema auseinandersetzen müssen: Die Staatsanwaltschaft München I hat nach Informationen des SPIEGEL gegen führende Verantwortliche des Internetkonzerns ein Ermittlungsverfahren wegen Beihilfe zur Volksverhetzung eingeleitet.

UPDATE 15. November 2016: Nach der Wahl von Donald Trump zum US-Präsidenten am 8. November 2016 wurden Stimmen aus der Öffentlichkeit und den Medien laut, dass Fake-News von sogenannten Social Bots und Kommentardiensten in den sozialen Netzwerken gezielt verbreitet und gepusht und die Meinungen der Wähler so massiv beeinflusst wurden. Sehenswert dazu ist eine Doku auf  ZDFzoom+: Alles nur Lüge? Wie im Netz getäuscht wird.

Nun hat Mark Zuckerberg verlauten lassen, dass an Maßnahmen gegen gefälschte Meldungen gearbeitet wird. Außerdem  entwicklen Studenten eine Browsererweiterung, die mithilfe von Machine Learning Fake-Meldungen kennzeichnen soll. Quelle: Wired – Facebook und die Fake-News: Rebellieren die Mitarbeiter? 

UPDATE 24. November 2016: Carsten Drees von MOBILEGEEKS konnte mit einem ehemaligen Facebook-Reviewer sprechen, der Einblicke in die Arbeit des Support-Teams gegeben hat, die täglich in zwei Schichten Meldungen abarbeiten. Dabei wird nochmal deutlich, wie komplex es ist, bei Hatespeech zu entscheiden, ob sie gelöscht wird oder nicht: Die Mitarbeiter stehen unter großem Zeitdruck und jeder hat die Vorgabe, 1.800 Meldungen am Tag abzuarbeiten, wegen der Komplexität der Themen und auch wegen des unflexiblen Regelwerks, das von Facebook vorgegeben wurde, wird diese Vorgabe aber selten erreicht, und viele gemeldete Beiträge werden nach Prüfung auch dann nicht gelöscht, wenn uns die Intention des Autors eindeutig erscheint.

Hier könnt Ihr die den ganzen Artikel mit vielen interessanten Insider-Informationen von Carsten Drees nachlesen.

UPDATE 16. Dezember 2016: Till Krause und Hannes Grasseger vom Süddeutsche Zeitung Magazin haben Interviews mit Facebook-Reviewern geführt, hatten Einblick in die Löschregeln und erzählen von den schlechten Arbeitsbedingungen der Mitarbeiter bei Arvato in Berlin! Unter #InsideFacebook finden sich weitere Artikel auf #Twitter und #Facebook

Das Facebook-Meldesystem, gezeichnet von Sandra Martin, Doodle Junkie

 

YouTube

Mit dem Laden des Videos akzeptierst Du die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Dieser Artikel ist am 8. November 2016 zunächst auf dem Technik-Blog Smart & Heart erschienen und wurde bis zum hiesigen Erscheinen über 1.300x geteilt.

Schreibe einen Kommentar