Facebook, Fakten-Checker und Zensur – wie unsere Infor­ma­ti­ons­wahr­nehmung mani­pu­liert wird

Vor genau einem Jahr wurde mit großem PR-Brim­borium ver­kündet, dass wir deut­schen Facebook-User von nun an unsere eigenen Fakenews-Agenten hätten: Das „Recher­chebüro“ Correctiv.
(Von Ines Laufer)
Ich gebe zu, dass ich seitdem unge­duldig darauf wartete, endlich einmal #Fakenews in meinem Newsfeed als solche mar­kiert zu sehen – rein inter­es­se­halber. Doch es pas­sierte NICHTS. Aus einem ein­fachen Grund:
Während in Amerika und in einigen anderen Ländern Face­book­nutzer die Mög­lichkeit hatten, ver­dächtige Mel­dungen als mög­liche #Fakenews zu melden, damit an externe Fak­ten­checker zur Über­prüfung zu senden und dann – wenn min­destens zwei externe Checker eine Infor­mation als ein­deutig „falsch“ (=Fakenews) bewer­teten – die News mit einer dicken roten Flagge als „dis­puted“ („umstritten“) zu sehen bekamen, blieben wir in Deutschland davon völlig unberührt.
Laufer2-1
Der simple Grund ist., dass sich in Deutschland außer Cor­rectiv niemand finden ließ, der die Rolle der Fakenews-Checker über­nehmen wollte.
Das Vier-Augen-Prinzip, ein Posting erst dann als mög­liche #Fakenews zu mar­kieren, wenn min­destens zwei „unab­hängige“ Checker es als falsch iden­ti­fi­zierten, konnte also mangels eines zweiten Prüfers gar nicht ange­wandt werden.
Facebook schafft die Warn­hin­weise für #Fakenews kom­plett ab
Das erklärt auch, warum die Meldung, dass Facebook die #Fakenews-War­nungen zu Ende 2017 wieder abschafft von den deut­schen Facebook-Nutzern kaum wahr­ge­nommen wurde. Schließlich waren diese War­nungen hier nie ein­ge­führt worden ?
Mit einem beacht­lichen Maß an Amu­sement lese ich jedoch die Begrün­dungen für die Abschaffung dieser Hin­weise – denn die waren mühelos vorhersehbar:
So dauert es natürlich seine Zeit, bis zwei Fak­ten­checker eine Meldung als #Fakenews bewerten und ent­spre­chend kenn­zeichnen. Das heißt, ehe die Mar­kierung „Achtung, #Fakenews!“ ankommt, können Tage ver­gehen – und bis dahin ist die Meldung bereits viral ver­breitet und von tau­senden Nutzern gelesen. Es bringt also wenig, einen viralen Artikel stark zeit­ver­setzt als „Fakenews“ zu kennzeichnen.
Dann – und das weiß jedes Kind – sind es gerade die „ver­pönten“ Dinge, die besondere Auf­merk­samkeit auf sich ziehen. Die rot mar­kierten „Fakenews“-Artikel wären ohne diese Mar­kierung wahr­scheinlich schnell in den Feeds und damit aus den Augen der User ver­schwunden. Aber durch ihre Mar­kierung zogen sie nun gerade die Auf­merk­samkeit auf sich und erhöhten die Zahl der User, die sie anklickten, lasen – und glaubten.
Fazit: Mit der Mar­kierung von #FakeNews wurde oft das Gegenteil erreicht.
Algo­rithmus und neues „Fake-News-Tool“ als wirksame Zensurwaffe
Schon im Mai 2017 kün­digte Facebook an, künftig Links zu „uner­wünschtem, stö­rendem Content“ in den News­feeds zu unter­drücken und Mel­dungen, die als „Fakenews“ iden­ti­fi­ziert wurden, über den Algo­rithmus so abzu­werten, dass ihre Sicht­barkeit in den Feeds ein­ge­schränkt wird. 80% ihrer Reich­weite sollen sie auf diese Weise ver­lieren.
Zu diesem Zweck wurde u.a. „künst­liche Intel­ligenz“ mit einer „schwarzen Liste“gefüttert, die nach einer Über­prüfung von „hun­dert­tau­senden ver­linkten Web­Seiten“ erstellt worden war. Welche Web­Seiten auf dieser „schwarzen Liste“ stehen, hält Facebook geheim – aber es liegt auf der Hand, dass dort zu jedem Zeit­punkt auch Web­Seiten landen können, die poli­tisch nicht genehm sind.
Ein wei­teres wich­tiges UpDate gab es im August 2017, wo zunächst zu Test­zwecken ein neues Fakenews-Tool „an eine Großzahl der deut­schen Nutzer aus­ge­spielt wird.“ Wie viele User das betrifft, verrät Facebook nicht.
Ich gehöre leider nicht zu den Aus­er­wählten, denn in meinem Feed gibt es diese neue „Mehr zum Thema“-Funktion („related articles“) bislang nicht.
Viel Arbeit für die Fakten-Checker vom Correctiv
Ein Reporter des Vice-Online-Magazins Mother­board schaute sich die Funk­ti­ons­weise dieses neuen Tools genauer an, mit dem vier Mit­ar­beiter von Cor­rectiv soge­nannte #Fakenews iden­ti­fi­zieren und kenn­zeichnen sollen.
Laufer2-2
In eine ein­fache Tabelle (siehe Screenshot von Mother­board) werden von Facebook 600 Artikel ein­ge­spielt, die von Cor­rectiv auf ihren Wahr­heits­gehalt zu prüfen sind, die Prio­rität wird ver­mutlich über die Vira­lität berechnet, d.h. wie schnell und wie oft wird ein Artikel geteilt und kommentiert.
Das Urteil „wahr“ oder „falsch“ wird einfach ange­kreuzt, ein Link zu einem „rich­tig­stel­lenden Artikel“, z.B. direkt aus der Cor­rectiv-Redaktion ein­gefügt, fertig! Im Newsfeed wird den Usern dann die „Rich­tig­stellung“ unter dem ver­linkten Beitrag ange­zeigt, wie dieses Bei­spielfoto zeigt:
Laufer2-3Inter­essant ist, dass Facebook streng geheim hält, welcher Algo­rithmus bestimmt, was für Artikel über­haupt in diese Tabelle ein­ge­spielt werden!
Denn im Gegensatz zum bis­he­rigen Ver­fahren, handelt es sich nicht um Bei­träge, die von Usern als mög­liche Fakenews gemeldet wurden, sondern sie werden von Face­books „künst­licher Intel­ligenz“ eigen­ständig aus­ge­sucht, z.B. auf­grund von Trigger-Wörtern oder der Her­kunft (d.h. von welcher Web­seite stammt der Link), die beliebig von Facebook vor­ge­geben werden können!
Auf diese Weise könnten auch pro­blemlos poli­tische Reiz­wörter“, wie z.B. „Islam“, „Flücht­linge“, „Flücht­lings­kri­mi­na­lität“, sowie regie­rungs- und islam­kri­tische Web­seiten sys­te­ma­tisch in den Algo­rithmus ein­ge­speist und dann mit einem ein­fachen „Kreuzchen“ abge­wertet oder „unsichtbar“ gemacht werden. Das per­fekte Zensur-Tool!
Welche Sorgfalt auf­ge­bracht werden kann, wenn pro Mit­ar­beiter innerhalb kür­zester Zeit 150 Artikel auf ihren Wahr­heits­gehalt zu prüfen und das Kreuzchen an der rich­tigen Stelle zu setzen haben, kann sich jeder vor­stellen – und auch, wie sich die poli­tische Aus­richtung des Cor­rectivs auf die Ent­schei­dungen aus­wirken wird.
Ähn­liches Prinzip in den Facebook-Löschzentren
Im Oktober 2017 führte Hanno Vollenweider/die Unbe­stech­lichen ein bemer­kens­wertes Interview mit Melanie C., einer ehe­ma­ligen Mit­ar­bei­terin des Facebook-eigenen-Lösch­zen­trums in Berlin, aus dem her­vorgeht, dass dort mit ähn­lichen Tools gear­beitet wird.
Denn, so Melanie, die poten­ti­ellen „Hate-Speech“-Beiträge, die gelöscht werden sollten, wurden nicht etwa durch Mel­dungen von Usern an die Lösch­zen­trale geliefert, sondern eben­falls maschinell, durch Algo­rithmen auf­grund von Trigger-Wörtern vorgegeben!
„Da ist es dann auch schon mal vor­ge­kommen, dass die einen ange­raunzt haben, wenn man Bei­träge nicht ent­fernt hat, die das System – also der Algo­rithmus – auf­grund der benutzen Wörter als poten­tielle Fake oder Hass­nach­richt raus­ge­sucht hat, die man aber per­sönlich für eigentlich eher harmlos oder halt einfach normale Bericht­erstattung hielt.“
Die Aufgabe von Melanie bestand darin, die vor­ge­ge­benen Bei­träge weit­gehend unge­prüft (!) zu löschen bzw. „unsichtbar zu machen“ durch algo­rith­mische Abwertung.
Drei Viertel der gelöschten Inhalte waren keine FakeNews
Um echte Hassrede, echte Ver­stöße gegen die Gemein­schafts­stan­dards oder gar echte rechts­widrige Äuße­rungen ging es jedoch nur am Rande – sondern vielmehr um die Durch­setzung einer poli­ti­schen Agenda, z.B. zu ver­hindern, dass die AfD ein hohes Wahl­er­gebnis bei der Bun­des­tagswahl erzielt. Und den Kampf gegen die AfD haben sich „zufällig“ auch die Fakten-Checker vom Cor­rectiv auf die Fahnen geschrieben…
„Da ging es dann eigentlich auch nicht um irgend­welche Fake-News, sondern um Sachen, die wirklich pas­siert sind.
Wir mussten dann z.B. die Bericht­erstattung von rechten Seiten über so Sachen wie den Mord und den Prozess an der Stu­dentin aus Stuttgart, also der Maria, die von dem Flüchtling umge­bracht und ver­ge­waltigt wurde, oder den Macheten-Ver­ge­wal­tiger aus Bonn und all diese krassen Sachen, die Flücht­linge ange­stellt haben, zurück­halten, damit sich nicht noch mehr auf die Seite der Rechten stellen.
Auch Sachen, die Kritik z.B. an der Euro­päi­schen Union waren und auch Kritik an der Regierung, nicht nur wegen der Flücht­lings­po­litik, sollten wir, so gut es geht, filtern

Mir sind viele der Sachen, die wir zen­sieren mussten, auch am Abend noch durch den Kopf gegangen. Dann habe ich ange­fangen zu recher­chieren. Ich bin selber auf „Die­Un­be­stech­lichen“, „Jour­na­lis­ten­Watch“, „Opposition24“ – und wie sie alle heißen gegangen – und habe die Sachen nach­re­cher­chiert. Zu mehr als drei Viertel der Artikel habe ich Beweise gefunden, dass das keine Fake-News sind.“
Sys­te­ma­tische Unter­drü­ckung miss­lie­biger poli­ti­scher Mei­nungen – Deutschland am stärksten im Fokus der Facebook-Zensur: 16% der Lösch-Mit­ar­beiter kümmern sich um 1,25% der Nutzer
Wir erfahren von Melanie eben­falls, dass eine Liste mit 300, über­wiegend Seiten, die kri­tisch über die Regierung oder zum Bei­spiel Flücht­linge und Kri­mi­na­lität von Flücht­lingen und Aus­ländern berichten exis­tierte, deren Inhalte „bevorzugt“ zu zen­sieren waren.
Manche dieser Seiten wurden und werden sys­te­ma­tisch mit einem soge­nannten Shadow-Ban belegt, d.h. Bei­träge dieser Seiten werden all­gemein „unsichtbar“ gemacht, indem sie in den News­feeds der User nicht ange­zeigt werden! Das perfide daran ist, dass die User diese Form der Zensur natur­gemäß gar nicht bemerken (können).
Darüber hinaus gibt es eine „schwarze Liste“ mit tau­senden deut­schen Usern, die dadurch auf­ge­fallen sind, dass sie rechte Inhalte pos­teten. Nur ein Bruchteil dieser User hat tat­sächlich gegen die Facebook-Bestim­mungen ver­stoßen, die z.B. eine Löschung des Users recht­fer­tigen könnte. Bei denen, die eigentlich nichts Ver­bo­tenes posten, sondern nur Sachen, die halt rechts sind, werden fol­gende Methoden aufgefahren:
„Wir haben dann diese Leute ver­sucht, sehr aktiv einfach – ich nenne es mal „weg zu mobben“ –, indem wir denen immer wieder das Konto gesperrt haben oder Funk­tionen ein­ge­schränkt wurden, dass sie z.B. mal für 30 Tage gesperrt waren oder 7 Tage nichts mehr posten konnten.
Wenn ich nun bedenke, dass ich zu den ersten deut­schen Facebook-Usern über­haupt gehörte, seit 2008 auf dieser Plattform aktiv bin, während der gesamten Zeit nicht einmal gesperrt wurde – dafür aber seit Mai 2017 ganze vier Monate – also 1/3 des Jahres – „kalt­ge­stellt“ wurde, und zwar stets für Äuße­rungen, die voll­um­fänglich von der Mei­nungs­freiheit gedeckt waren, dann ist mir klar, dass mein Name auf dieser omi­nösen Liste stehen muss, ebenso wie die Namen von anderen kri­ti­schen, befreun­deten Usern.
Eine Auswahl von harm­losen Mei­nungs­äu­ße­rungen, für die User gesperrt werden, sowie ein paar echte Bei­spiele für Volks­ver­hetzung, anti­se­mis­ti­schen Hass und Belei­digung, die wie­derum Facebook nicht löscht, gibt es auf der Wall of Shame des pro­mi­nenten Medi­en­an­walts Joachim Nikolaus Stein­höfel, der gerade gericht­liche Schritte ein­ge­leitet hat gegen Facebook wegen rechts­wid­riger Löschung zuläs­siger Inhalte und wegen einer recht neuen Rechts­wid­rigkeit, nämlich der heim­lichen Löschung von Abon­nenten bei reich­wei­ten­starken, kri­ti­schen Usern.
Fazit: 
Die in dem Artikel beschrieben tech­ni­schen Tools, die von Facebook dafür bereit­ge­stellt werden, eignen sich her­vor­ragend, um staat­liche Zen­surin­ter­essen mit mini­malem Aufwand durchzusetzen.
Durch den gezielten Einsatz von Algo­rithmen, die sich durch die Ein­speisung belie­biger Trig­ger­be­griffe defi­nieren lassen, wird die Sicht­barkeit und damit Wahr­nehmung kri­ti­scher Bei­träge mani­pu­liert, ohne dass die Nutzer es bemerken oder nach­weisen könnten.
Die per­so­nellen Kapa­zi­täten, die Facebook dafür auf dem deut­schen Markt ein­setzt, sprechen für sich:
Die deut­schen Facebook-Nutzer machen mit 25 Mil­lionen monatlich aktiven Usern (2017) gerade einmal 1,25% der weltweit monatlich aktiven Facebook-Nutzer aus (rd. 2 Mil­li­arden).
Um die Löschung deren – oft nur poli­tisch miss­lie­biger – Mei­nungs­äu­ße­rungen kümmern sich aber 16% – der weltweit ein­ge­setzten Facebook-Lösch-Mit­ar­beiter, also mehr als jeder sechste (1.200 von 7.500)!
Da es kei­nerlei Beleg dafür gibt, dass aus­ge­rechnet die Deut­schen über­durch­schnittlich oft gegen die „Facebook-Regeln“ ver­stoßen, sodass so eine ver­hält­nis­mäßig große Lösch-Armada gerecht­fertigt wäre, liegt die Ver­mutung nahe, dass hier lediglich der Druck, den die Regierung ausübt, umso höher ist (z.B. durch das NetzDG).
Und: Die deutsch­landweit einzige Insti­tution, die für Facebook zur Über­prüfung mög­licher #Fakenews her­an­ge­zogen wird, Cor­rectiv, ist weder finan­ziell noch inhaltlich „unab­hängig“, sondern ver­folgt eine klare poli­tische Agenda.
In meinem nächsten Artikel, werde ich deshalb der Frage nach­gehen, wer denn eigentlich die Fakenews Fakten der Fakten-Checker checkt…
***
Fotos: Facebook (2), Screenshot © Motherboard