Wer kann sie noch hören, die ständig wiederholten Klagen über die Bedrohung des „guten“, einfältigen und normalerweise institutionenhörigen Bürgers durch „fake news“, die prinzipiell vom politischen Gegner kommen oder denen, die als solcher konstruiert werden sollen, besonders von angeblich existierenden „Netzwerken“, die angeblich von Privatpersonen, z.B. den Betreibern kleiner, privater blogs, gebildet werden, anscheinend, um Majestäten zu beleidigen, Regierungen zu Fall zu bringen, „das System“ zu zerstören, oder gleich den Weltuntergang herbeizuführen?! Sogar der Ausgang von Parlamentswahlen hängt angeblich von „fake news“ ab, die private „politische Akteure“ in die Welt setzen und verbreiten (oder auch nicht) – selbstverständlich nur dann, wenn der Ausgang nicht den persönlichen Präferenzen derjenigen gefällt, die solche Behauptungen – d.h. „fake news“ ?! – in die Welt setzen und verbreiten.
(von Dr. habil. Heike Diefenbach)
Dieses Narrativ ist alt, abgenutzt, ein Langweiler, bekommt man es doch nun schon seit zehn Jahren unablässig zugemutet. Es ist in diesem Zeitraum nicht intelligenter geworden und nicht plausibler geworden. Es ist auch nicht durch empirische Daten gedeckt (mit Bezug auf die Bundestagswahlen im Jahr 2017 in Deutschland s. Neudert 2017: 9; mit Bezug auf die U.S.-amerikanische Präsidentschaftswahl im Jahr 2016 s. z.B. Allcott & Gentzkow 2017). Aber es wird immer und immer wieder beschworen von denjenigen, die die Konkurrenz durch andere Meinungen oder den Widerspruch angesichts anderer Informationen oder angesichts des Nachweises von logisch Falschem fürchten oder Ausgänge sozialer oder politischer Entscheidungsprozesse nicht mögen und diskreditieren wollen. Kurz: Das Narrativ von den böswilligen privaten Verpestern der Welt der sozialen Medien durch die Erfindung und Verbreitung von „fake news“, die durch gesetzliche Maßnahmen und Regierungs-Spione kontrolliert und gemaßregelt werden müssen, weil sie ansonsten den Fortbestand der „Demokratie“ bedrohen, ist ein rhetorisches Kampfmittel derer, die ihre Deutungshoheit z.B. durch citizen journalism gefährdet sehen.
Dies trifft (derzeit zumindest) besonders auf Mitglieder der mehrere Parteien umfassenden Einheitspartei, die die Regierung bildet, zu, auf Inhaber politischer Positionen, die so genannte Multiplikatoren in eigens geschaffenen PR-Institutionen halten, die sich als solche oft nicht zu erkennen geben, sondern als „Beauftragte“ für partikulare Interessen präsentiert werden oder als „Stiftungen“, und Angestellte in Medienanstalten (die zurecht so genannt werden, aber das zu argumentieren, würde einen eigenen Text erfordern) oder diese Multiplikatoren in anderen Institutionen medialer Inszenierung instrumentalisieren, die ihrerseits u.a. sogenannte Faktenfinder etablieren, die „Fakten“ gewöhnlich erfinden müssen, um eine Konstruktion von vermeintlicher Wahrheit hinzuzimmern, die zu dem passt, was ihre Vorgesetzten als Produkt von ihnen erwarten. Der unablässige Versuch, „fake news“ mit „sozialen Medien“ gleichzusetzen, die ihrerseits als mit „alternativen Medien“ bzw. Privatpersonen gleichzusetzen dargestellt werden, kann schwerlich anders erklärt werden als durch eine regelrechte Kritik-Phobie, und diese wiederum kann schwerlich anders erklärt werden als durch ein zumindest ansatzweises Bewusstsein eigener Unzulänglichkeiten, um nicht zu sagen: eigener Inkompetenz.
Mit einigem guten Willen läßt sich die mehr oder weniger stupide Immer-Wieder-Erzählung von den alternativen bzw. privaten Übel wollenden fake-news-Verbreitern psychologisch verstehen als Gegen-Propaganda in Reaktion auf eine wahrgenommene, weit überwiegend aber bloß herbeiphantasierte,„fake news“-Invasion, die gewöhnlich in nichts anderem besteht als der Äußerung einer abweichenden Meinung oder der Verbreitung von Informationen, die den „Gegen“-Propagandisten nicht gefallen, oder von Argumenten, denen die „Gegen“-Propagandisten nicht argumentativ begegnen können. Tatsächlich sind wir inzwischen in der westlichen Weit so weit im argumentativen Regress angekommen, dass die Präsentation von Gegenargumenten zu einem Narrativ, das Regierung, politische Parteien und alle möglichen Typen von Nutznießern aus deren Politiken als akzeptiertes Faktum oder akzeptierte Wahrheit durchsetzen möchten, von diesen interessierten Parteien als „fake news“ bezeichnet werden, d.h. jedes sachliche Gegenargument wird von vornherein als böswillig erfundene Falsch-Behauptung gebrankmarkt, so dass eine sachliche Diskussion, die nun einmal Argumente und Gegenargumente notwendigerweise involviert, verunmöglicht wird.
Dies klingt, als würde das Narrativ von der großen Gefahr durch „fake news“ in sozialen Medien als Strategie gepflegt, und vermutlich wird es das auch – von Zynikern, aber nicht unbedingt von dem, was man Überzeugungstäter nennt. Es ist durchaus möglich, dass aggressive Maßnahmen wie die Verabschiedung des Netz DG, die Instrumentalisierung von Anbietern sozialer Medien als Hilfs-Polizisten oder die Führung von Listen mit Namen von Personen, durch die sich diejenigen bedroht fühlen, die solche Listen führen oder in Auftrag geben, von der Motivation her betrachtet defensive Reaktionen sind, „Gegen“-Propaganda in Reaktion auf Meinungen, Informationen und Argumente, die von der eigenen Ideologie abweichen und daher unverdaulich sind, so dass sie als „Propaganda“-Angriff abgetan werden müssen, als „fake news“, weil eben einfach nicht wahr sein kann, was nicht wahr sein darf.
Vollkommen überzogen erscheinen solche Verfahrensweisen allen außer eben den Kritik-phobischen, die ahnen, dass sie mit ihrem Stellenprofil überfordert sind. Dementsprechend hält Neudert mit Bezug auf Deutschland fest:
„With the exception of episodic observations on social media and limited methodological research …, the empirical basis of computational propaganda in Germany remains unaddressed. Politicians and the media are scrambling to come up with overblown proposals that might heavily restrict freedom of expression” (Neudert 2017: 5–6).
Und weiter:
“Despite heated discourse on social bots and their potential to manipulate public opinion, there is little empirical evidence on the use of social bots in Germany” (Neudert 2017: 9).
Dies schreibt Neudert in einem Länderbericht über Deutschland, der im Rahmen eines Projektes mit dem Titel „Computational Propaganda: Investigating the Impact of Algorithms and Bots on Political Discourse in Europe“ (COMPROP) angefertigt wurde.
“Computational propaganda” dürfte am besten übersetzt werden mit „computerbasierte Propaganda“ oder „rechnergestützte Propaganda“ und bezeichnet die Verwendung von Algorithmen und automatisierten Prozessen, die zum Einsatz gebracht werden, um die öffentliche Meinung in eine bestimmte Richtung zu manipulieren (vgl. Neudert 2017: 4).
Das Projekt wurde hauptsächlich vom European Research Council, d.h. von den europäischen Steuerzahlern, bezahlt, und das Projekt wird auf den diesbezüglichen web-Seiten der Europäischen Kommission wie folgt begründet:
“Social media can have an impressive impact on civic engagement and political discourse. Yet increasingly we find political actors using digital media and automated scripts for social control. Computational propaganda—through bots, botnets, and algorithms—has become one of the most concerning impacts of technology innovation. Unfortunately, bot identification and impact analysis are among the most difficult research challenges facing the social and computer sciences”
https://cordis.europa.eu/project/id/648311
Man beachte, dass hier von “political actors” die Rede ist, die jedoch unspezifiziert bleiben. Dass gerade diejenigen, die man am ehesten spontan als „political actors“ ansieht und denen man am ehesten Willen und Fähigkeit zur „social control“ zuschreiben würde, also Regierungen, supranationale Institutionen wie die EU, politische Parteien und ihre „Anhängsel“ wie z.B. (bestimmte) Stiftungen und Gewerkschaften, jedoch von dem ausgenommen sind, was für die Europäische Kommission „political actors“ sind, wird sehr deutlich, wenn man die gesamte Projektbeschreibung liest. Dann wird nämlich deutlich, dass die „computational propaganda“ Andersmeinender das Problem ist, das durch eigene Analysen von „big data“ und den Einsatz von Algorithmen zur Entdeckung von „bot“-Aktivitäten in sozialen Netzwerken in seinem Ausmaß festgestellt und gelöst werden soll:
„COMPROP objectives are to advance a) rigorous social and computer science on bot use, b) critical theory on digital manipulation and political outcomes, c) our understanding of how social media propaganda impacts social movement organization and vitality. This project will innovate through i) “real-time” social and information science actively disseminated to journalists, researchers, policy experts and the interested public, ii) the first detailed data set of political bot activity, iii) deepened expertise through cultivation of a regional expert network able to detect bots and their impact in Europe.
COMPROP will achieve this through multi-method and reflexive work packages: 1) international qualitative fieldwork with teams of bot makers and computer scientists working to detect bots [und sie für ihre zahlenden Auftraggeber zu kreieren?!]; 2a) construction of an original event data set of incidents of political bot use [aber nur durch Private oder den politischen Gegner?!] and 2b) treatment of the data set with fuzzy set and traditional statistics [um zu erfahren, wo die “Sünder” zu vermuten sind!?]; 3) computational theory for detecting political bots [Anderer, denn die, die man selbst einsetzt, kennt man schon] and 4) a sustained dissemination strategy [was soll hier strategisch verteilt warden?]. This project will employ state-of-the-art ‘network ethnography’ techniques, use the latest fuzzy set / qualitative comparative statistics, and advance computational theory on bot detection via cutting-edge algorithmic work enhanced by new crowd-sourcing techniques.
Political bots are already being deployed over social networks in Europe. COMPROP will put the best methods in social and computer science to work on the size of the problem and the possible solutions”
https://cordis.europa.eu/project/id/648311 (Hervorhebungen d.d.A.).
Einige Berichte aus diesem Projekt und ihm verwandte Berichte im Auftrag der Europäischen Kommission – eine Zusammenstellung der Berichte aus dem Projekt und anderer thematisch verwandter Berichte findet man unter der Adresse https://comprop.oii.ox.ac.uk/publications/ – bleiben mehr oder weniger stark auf der vorgegebenen ideologischen Linie. Die m.E. unlesenswertesten unter ihnen (wie z.B. derjenige von Neudert und Marchal 2019) räumen unbelegten Prämissen, die ungeklärte – und im konkreten Papier undefinierte – Konzepte wie „Populismus“ einführen und deren – empirisch in jeder Hinsicht ungeklärte – Relevanz als Tatsache behaupten, sehr viel Raum ein oder machen ihr gesamtes Forschungsdesign von vorgefassten Meinungen darüber, was denn nun tatsächlich „fake news“ seien und was nicht, abhängig. Sie sind anscheinend unfähig oder unwillig, zu verstehen, dass in den bei weitem meisten Fällen genau das das Problem ist: von einer Nachricht ist nicht bekannt, ob sie wahr oder falsch ist, ob sie in der Realität zutrifft oder nicht. Es gibt niemanden, der vom Standpunkt der Allwissenheit entscheiden könnte, bei welchen Nachrichten es sich um „fake news“ handelt und bei welchen nicht.
Daher basiert die Behauptung, eine Nachricht sei „fake news“ oder eben nicht, auf einer Geschmacksentscheidung: Steht die Nachricht im Einklang mit dem, was man selbst als wahr akzeptiert, was einem wahrscheinlich oder glaubwürdig vorkommt, vielleicht auch einfach, wie man es selbst gerne hätte, dann wird die Nachricht weiterhin als Nachricht bezeichnet, und wenn nicht, dann wird sie umbenannt in „fake news“.
Forschung über computergestützte Propaganda und insbesondere die Verwendung von bots, die Nachrichten verbreiten, basieren auf der Konstruktion eines Problems, das darin besteht, dass das, was z.B. von bots verbreitet wird, „fake news“ seien, aber eben nur dann, wenn die von bots verbreitete Nachricht unwillkommen ist, unglaubwürdig erscheint oder von jemandem, der den Wahrheitsgehalt der Nachricht beurteilen will, für falsch gehalten wird. Wird eine Nachricht z.B. von Regierungen oder durch politische Parteien mit Hilfe von bots verbreitet, so ist das kein Problem, sondern schlicht die moderne Form der globalen Verbreitung von Nachrichten: Bots
„… track and disseminate breaking news articles on behalf of media outlets, correct typos on Wikipedia, promote matches on social media, and have performed the first census of device networks. But, they can also be deployed for commercial tasks that are rather less positive, such as spamming, carrying out distributed denial-of-service and virus attack, email harvesting, click fraud, and content theft. Networks of such bots are referred to as botnets, which describes a collection of connected computer programs that communicate across multiple devices of jointly perform a task …Political bots, frequently referred to as social bots in Germany, are a subcategory of bots that are active on social media. They are automated social media accounts that mimic human behaviour and interact with other users on social networking sites, where they usually do not reveal their nonhuman nature …” (Neudert 2017: 8–9).
Die besten Möglichkeiten, – menschliche und nicht-menschliche – botnets zu schaffen und zu unterhalten und eine Zahl von “cyber troops” anzuwerben und zu unterhalten, die als Trolle z.B auf blogs Andersmeinender systematisch dieselben links zu denselben Texten mit Inhalten, die sie als die wahren durchsetzen sollen, oder aufgrund der „big data“, über die Regierungen oder große Institutionen, aber nicht einzelne Bürger, verfügen, bestimmte Personen oder Personengruppen gezielt anzusprechen oder zu diskreditieren, haben zweifellos Regierungen, politische Parteien und andere große Institutionen, die mehr als hinreichend und zuverlässig mit Steuergeldern bestückt sind. Sie können technisches Pesonal nach Bedarf anwerben, Netzwerke Abhängiger (und damit Erpressungspotenzial) aufbauen und ihre Spuren im Netz höchst effizient verwischen. Daher verwundert es nicht, wenn Neudert festhält:
„Both state and non-state political actors deliberately manipulate and amplify non-factual information online” (Neudert 2017: 14).
In der etwas weniger politisch korrekten Fassung ihres Artikels über Deutschland, die sie in einem von Woolley und Howard (2019) herausgegebenen Sammelband publiziert hat, in der aber nach wie vor die Formel „both state and nonstate actors“ gewählt wird, um überhaupt im Zusammenhang mit gezielter Mißinformtion im Internet von „state actors“ schreiben zu können, ohne sich bei denjenigen, die das Projekt bezahlt haben, unbeliebt zu machen oder bei ähnlich Interessierten in Ungnade zu fallen, oder vielleicht auch nur, um den formelhaften Vorwurf zu entgehen, man sei ein Verschwörungstheoretiker, wenn man über staatliche Mißinformation berichtet (wo doch jeder „wissen“ soll, dass nur diejenigen Verschwörungstheorien gar keine sind, die Regierungen und politische Parteien pflegen, wie z.B. das Narrativ von den die Demokratie bedrohenden, privaten „fake news“-Kreierern in sozialen Medien),
schreibt Neudert:
“Equipped with big data, both state and nonstate actors leverage technological infrastructures and information networks to propagate propaganda online with the objective of sowing discontent, fomenting uncertainty, and silencing opposition … In light of the German elections of 2017, politicians and the media scrambled to come up with overblown proposals to secure the German cyberspace from threats of computational propaganda, some posing substantial restrictions to the freedom and openness of public discourse online. Episodic instances of computational propaganda were repeatedly blown out of proportion in the media [d.h. den mainstream-Medien, die natürlich ein Interesse an der Diskreditierung der Konkurrenz in den sozialen Medien haben] and served as a frame of reference for regulatory and public assessment of the threats to political stability. Misconceptions and terminological confusions were dominant, blending phenomena such as political bots, chatbots, junk news, hate speech, filter bubbles, micro-targeting, and Russian propaganda into a shadowy picture of looming interference in German democracy” (Neudert 2019: 154; Hervorhebung d.d.A.).
Was Neudert hier beschreibt, ist ein Fall von umfassender staatlicher Propaganda, die mit der angeblichen Bedrohung der Demokratie durch computergestützte Propaganda in den sozialen Medien einen Strohmann aufgebaut hat, der von staatlicher Seite zur Rettung der angeblich gefährdeten Demokratie abgebrannt wurde. Nicht nur eigene Propaganda, vermutlich auch computergestützte, wurde zu diesem Zweck eingesetzt; auch gesetzliche Regelungen., vor allem das NetzDG, wurden geschaffen, die die Freiheitsrechte, die in demokratischen Gesellschaften eigentlich unhintergehbar sind, erheblich einschränken, abweichende Meinungen kriminalisieren und es der Regierung erlauben, Daten großer Technologie-Unternehmen wie facebook oder Google anzuzapfen bzw. diese Unternehmen zu Handlanger-Diensten zu verpflichten. Dies erfolgt u.a. in der Form, dass die Reichweite missliebiger Nachrichten, die in sozialen Medien verbreitet werden, eingeschränkt wird oder missliebige Stimmen gänzlich unhörbar gemacht werden, z.B. durch „denial-of-service“-Attacken, wie dies in in neuerer Zeit häufiger mit Bezug auf bestimmte YouTube-Kanäle der Fall war, bei denen Zehntausende von Abonnenten von YouTube kommentarlos gelöscht wurden oder die Kanäle bei entsprechender thematischer Suche einfach nicht angeboten werden.
Diese Art staatlicher Propaganda kann als Versuch gewertet werden, das ehemalige Propaganda-Monopol, das Regierungen durch Organisation und Kontrolle von “Staatsfunk” oder so genannten öffentlich-rechtlichen Sendern hatten, zurückzugewinnen:
„….computational propaganda is propaganda created or disseminated using computational means. Where once propaganda was the province of the states and other large institutions, the ease of content creation and dissemination in online spaces has led to the creation of propaganda by a wide variety of individuals and groups. The anonymity of the Internet has obscured the producers of information (and thus made the identification of the intent of propaganda producers more opaque). This has allowed state-produced propaganda to be presented as if it were not produced by state actors. It has also facilitated international propaganda campaigns and interference in domestic politics by foreign states”
(Bolsover & Howard 2019: 62–63).
Im Zuge ihrer Untersuchungen zum Aufbau eines „Global Inventory of Organized Social Media Manipulation” haben Bradshaw und Howard (2018) festgestellt:
“Cyber troops [definiert als “government or political party actors tasked with manipulating public opinion online”; S. 4 im Bericht] invest significant funds into organizing online manipulation campaigns. Based on preliminary data from a few specific cases around the world, we have already seen tens of millions of dollars being spent on computational propaganda and social media manipulation. While some cyber troop funds are being spent on research and development in military settings, there are an increasing number of purchases being made by political parties to use similar techniques domestically during elections. Often, these funds are used to hire political communication firms that specialize in data-driven targeting and online campaigning. While there are many legitimate businesses that help political parties identify new constituencies and tailor political advertisements to a voter base, there is a growing industry of non-legitimate businesses that use fake social media accounts, online trolls and commentators, and political bots to distort conversations online, help generate a false sense of popularity or political consensus, mainstream extremist opinions, and influence political agendas”
(Bradshaw & Howard 2018: 7)
Manipulation sozialer Medien durch Cyber troops bzw. von Inhalten, die in sozialen Medien veröffentlicht und verbreitet werden, haben Bradshaw und Howard für das Jahr 2018 in 48 Staaten, darunter Deutschland, festgestellt:
“… We have found evidence of formally organized social media manipulation campaigns in 48 countries, up from 28 countries last year. In each country there is at least one political party or government agency using social media to manipulate public opinion domestically … Much of this growth comes from countries where political parties are spreading disinformation during elections, or countries where government agencies feel threatened by junk news and foreign interference and are responding by developing their own computational propaganda campaigns in response”
(Bradshaw & Howard 2018: 3; Hervorhebung d.d.A.).
Der Bericht für das Jahr 2017 trägt übrigens den Titel „Troops, Trolls and Troublemakers: A Global Inventory of Organized Social Media Manipulation“ und kann hier heruntergeladen bzw. gelesen werden.
Weitere Ergebnisse für 2018 fassen die Autoren wie folgt zusammen:
“… Computational propaganda still involves social media account automation and online commentary teams, but is making increasing use of paid advertisements and search engine optimization on a widening array of Internet platforms … Social media manipulation is big business. Since 2010, political parties and governments have spent more than half a billion dollars on the research, development, and implementation of psychological operations and public opinion manipulation over social media. In a few countries this includes efforts to counter extremism, but in most countries this involves the spread junk news and misinformation during elections, military crises, and complex humanitarian disasters” (Bradshaw & Howard 2018: 3; Hervorhebung d.d.A.).
Die Autoren beobachten, dass seit dem Jahr 2016 mehr als 30 Staaten Gesetze erlassen haben, angeblich
„…designed to combat fake news on the Internet … At the same time, several democracies have established new government agencies or mandated existing organizations to combat fake news and foreign influence operations. The response often involves generating and disseminating counter-narratives or creating reporting, flagging, and fact checking portals to support citizen awareness and engagement. Authoritarian regimes have also developed responses ostensibly to combat the spread of fake news; though they might also be used to stifle speech. In many cases these task forces have become a new tool to legitimize further censorship, and are often used in combination with media law and surveillance capabilities, computational propaganda campaigns, and Internet blocking or filtering to limit freedom of expression and shape online public discourse” (Bradshaw & Howard 2018: 6).
Die Frage ist hier allerdings, ob es sinnvoll ist, Staaten aufgrund ihrer formalen Verfasstheit als demokratisch oder autoriär einzuordnen, bzw. ob es nicht sinnvoller wäre, aufgrund beobachtbarer Zensur-Praktiken zu entscheiden, ob ein Staat tatsächlich gemäß demokratischen Gesellschaftsverständnisses agiert oder sich autoritär gibt. Immerhin dürfte klar sein, dass eine Einrichtung, die ihre „Gegen-Erzählung“ im Staatsdienst verbreitet, dies nicht unbedingt tut, um „fake news“ zu identifizieren, sondern einfach all das zu „fake news“ erklären kann, was nicht im Sinn der jeweiligen Regierung ist, die die Einrichtung bezahlt und kontrolliert. Was ist dann aber die Manipulation von sozialen Medien im Kampf gegen „fake news“ anderes als Manipulation von sozialen Medien zum Zweck der Zensur?!
Als eine beliebtesten Strategien von Cyber-Truppen haben die Autoren das so genannten astrotrufing identifiziert. Es handelt sich dabei um eine „… practice favoured by those with a political agenda to falsify an organic movement by making their whims and preferences seem like common opinion and desire” (Bisnoff 2019: ix‑x).
Bradshaw und Howard beschreiben die digitalen Formen des astroturfing, das sie festgestellt haben:
„Most cyber troops will use online commentators and fake social media accounts to spread pro-government or pro-party messages to populations both domestically and abroad. Political bots are used by cyber troops to flood hashtags with automated messages promoting or attacking particular politicians, or to fake a follower-base on social media. Increasingly they are also used to strategically post particular keywords, in order to game algorithms and cause certain content to trend.” (Bradshaw & Howard 2018: 6),
ganz im Einklang mit den berüchtigten “Wir-sind-mehr”-Kampagnen, dem ganz und gar unwissenschaftlichen Bestehen auf angeblich existierenden wissenschaftlichen Konsens in Sachen Klimawandel und den Aufmärschen von angeblichen Demonstranten, bei denen es sich aber eben nicht um Menschen handelt, denen – unabhängig voneinander – dieselbe Sache am Herzen liegt, sondern um organisierte und teilweise bezahlte Demonstranten-Darsteller, die z.B. als ganze Schulklassen unter Führung ihrer Lehrer zum Auftritt gegen Klimawandel geschickt werden oder z.B. von Gewerkschaften oder anderen Institutionen systematisch angesprochen, rekrutiert und ggf. mit bereitgestellten Bussen zum Ort des Auftritts transportiert werden, um dort die Rolle von Demonstranten zu spielen. Sie sind „[g]rassroots for hire“, wie Edward T. Walker (2014) sagt.
Cyber-Truppen benutzen bots aber auch,
„… to report legitimate content and accounts on a mass scale, so that social media platforms automatically suspend accounts or remove content until it can be reviewed by a human moderator”
(Bradshaw & Howard 2018: 6),
also um bestimmte Nachrichten gänzlich zu unterschlagen oder bestimmte Stimmen auf mehr oder weniger absehbare Zeit unhörbar zu machen.
Wir müssen mit der Tatsache leben, dass
„[s]ocial media have gone from being the natural infrastructure for sharing collective grievances and coordinating civic engagement, to being a computational tool for social control, manipulated by canny political consultants, and available to politicians in democracies and dictatorships alike …” (Bradshaw & Howard 2018: 21; Hervorhebung d.d.A.),
und wir können es uns, wenn wir demokratische Gesellschaften bleiben (oder wieder werden) wollen, nicht leisten, weiterhin das Narrativ von den den Frieden störenden Einzelbürgern, die so zahlreich sein sollen und eine solche Gefahr für die Demokratie darstellen sollen, dass sie mit staatlichen Cyber-Truppen systematisch bekämpft werden müssten, unwidersprochen hinzunehmen. Genau dieses Narrativ erlaubt es Staaten bzw. Regierungen, ihr Monopol auf Propaganda zurückzugewinnen – und dies vorgeblich zum Schutz ihrer Bevölkerungen und unter Verweis auf andere, „feindliche“ Staaten, der die Einfältigen unter uns zur unhinterfragten Solidarität der eigenen Regierung bewegen mag. Es ist noch nicht lange her, dass allgemein bekannt war, dass Desinformation schon systematisch von Regierungen genutzt wurde, als es noch kein Internet gab:
„The term ‚disinformation‘ as a persuasive technique that is based on forgeries and stages events was invented by the KGB, the Soviet secret service. Although disinformation has been used by most states, the Soviets have perfected it as an instrument of public policy”
(Martin 1982: 47).
Ebenso wenig sollten wir dem Fehlschluss aufsitzen, dass Regierungen, die staatliche Zensur in anderen Staaten beklagen, nicht massive Zensur im eigenen Land betreiben könnten. Und schon gar nicht sollten wir uns einbilden, dass wir z.B. durch reine Privatinitiative wie den Erwerb wechselnder IP-Adressen unsere Spuren verwischen oder uns sonstwie der Kontrolle durch computational propaganda unserer Regierungen entziehen könnten. Es wird der gemeinsamen Initiative möglichst vieler Bürger bedürfen, um Freiheitsrechte zu erhalten oder wiederzugewinnen, und denjenigen Personen eine klare Absage zu erteilen, die sich für cyber-Truppen zu Zwecken des Betrugs an der Bevölkerung rekrutieren lassen.
Übrigens:
Verwundert es jemanden, dass die Arbeit von Bradshaw und Howard, obwohl sie – wie die Arbeit von Neudert – im Rahmen des hauptsächlich von European Research Council „Computational Propaganda Research Project“ erstellt wurde und bereits im Jahr 2018 in englischer Sprache, also für den bei Weitem größten Teil der Weltbevölkerung, erschienen ist, bislang so gut wie gar nicht zur Kenntnis genommen worden ist, sofern die Anzahl der Zitationen oder die Anzahl der diesbezüglichen Presseberichte, die die EU doch gewöhnlich nur so auf uns hernieder prasseln lässt, als Indikatoren für die Verbreitung der im Artikel zusammengetragenen Befunde herangezogen werden?
Es ist auch ein Mittel, missliebige Informationen zu unterdrücken, sie sozusagen aktiv nicht weiterzuverbreiten, ein sehr einfaches und kostengünstiges obendrein. Führen Sie sich also, wenn irgend möglich, die in diesem Text zitierten Berichte zu Gemüte, besonders denjenigen von Bradshaw und Howard (2018), der eine Reihe von Tabellen enthält, in denen verschiedene Indikatoren für computergestützte Propaganda für alle 48 Länder, von denen die Studie berichtet, aufgelistet sind. Noch können Bradshaw und Howard (2018: 18, Table 4) für Deutschland eine vergleichsweise kleine „team size“ von cyber-Truppen feststellen, die einen vergleichsweise niedrigen Orangisationsgrad aufweisen – noch.
Regierungen und andere große Institutionen werden ihr Propagandamonopol bzw. ihre Deutungshoheit, die angesichts der Demokratisierung von Information und Diskussion schon teilweise verlorengegangen ist und weiter zu schrumpfen droht, nicht kampflos aufgeben. Als Bürger – gleich welchen Staates – müssen wir uns darüber klar sein, und das bedeutet u.a., „fake news“, Desinformation und bestenfalls halbwahre Narrative auch dann als solche zu identifizieren, wenn sie von Regierungen, politischen Parteien oder anderen großen Organisationen, wie Lobbyisten für NGOS, kommen. Sozial- und speziell Kommunikations- und Medienwissenschaflter, die immerhin auch Bürger sind und daher ein vernünftiges Eigeninteresse daran haben sollten, sich vor Staatspropaganda und cyber-Truppen zu schützen, haben – mit wenigen Ausnahmen, von denen einige in diesem Text zitiert wurden – bedauerlicherweise bis dahin noch einen sehr weiten Weg zu gehen, wie ein Blick in die neuere Literatur zu „fake news“ in sozialen Medien zeigt.
Literatur:
Allcott, Hunt & Gentzkow, Matthew, 2017: Social Media and Fake News in the 2016 Election. Journal of Economic Perspectives 31(2): 211–236).
Bisnoff, Jason, 2019: Fake Politics: How Corporate and Government Groups Create and Maintain a Monopoloy on Truth. New York: Skyhorse Publishing.
Bolsover, Gillian & Howard, Philip, 2019: Computational Propaganda in Europe, The U.S., and China. S. 61–81 in: Vasu, Norman, Ang, Benjamin & Jayakumar, Shashi (Hrsg.): Drums: Distortions, Rumours, Untruths, Misinformation, and Smears. Singapore: World Scientific Publishing.
Bradshaw, Samantha & Howard, Philip N., 2018: Challenging Truth and Trust: A Global Inventory of Organized Social Media Manipulation. Oxford, UK: Oxford University.
https://blogs.oii.ox.ac.uk/wp-content/uploads/sites/93/2018/07/ct2018.pdf
Martin, L. John, 1982: Disinformation: An Instrumentality in the Propaganda Arsenal. Political Communication 2(1): 47–64.
Neudert, Lisa-Maria N., 2019: Germany: A Cautionary Tale. S. 153–184 in: Woolley, Samuel C. & Howard, Philip N. (Hrsg.): Computational Propaganda: Political Parties, Politicians, and Political on Social Media. New York: University Press.
Neudert, Lisa-Maria N., 2017: Computational Propaganda in Germany: A Cautionary Tale. Oxford, UK: Project on Computational Propaganda. Working Paper 2017.7.
https://blogs.oii.ox.ac.uk/politicalbots/wp-content/uploads/sites/89/2017/06/Comprop-Germany.pdf
Neudert, Lisa-Maria N. & Marchal, Nahema, 2019: Polarisation and the Use of Technology in Political Campaigns and Communication. Brussels: European Union.
https://www.europarl.europa.eu/RegData/etudes/STUD/2019/634414/EPRS_STU(2019)634414_EN.pdf
Walker, Edward T., 2014: Grassroots for Hire: Public Affairs Consultants in American Democracy. Cambridge: Cambridge University Press.
Quelle: sciencefiles.org
Du muss angemeldet sein, um einen Kommentar zu veröffentlichen.