Cyber-Truppen im Einsatz: Wie­der­her­stellung des staat­lichen Propaganda-Monopols?

Wer kann sie noch hören, die ständig wie­der­holten Klagen über die Bedrohung des „guten“, ein­fäl­tigen und nor­ma­ler­weise insti­tu­tio­nen­hö­rigen Bürgers durch „fake news“, die prin­zi­piell vom poli­ti­schen Gegner kommen oder denen, die als solcher kon­struiert werden sollen, besonders von angeblich exis­tie­renden „Netz­werken“, die angeblich von Pri­vat­per­sonen, z.B. den Betreibern kleiner, pri­vater blogs, gebildet werden, anscheinend, um Majes­täten zu belei­digen, Regie­rungen zu Fall zu bringen, „das System“ zu zer­stören, oder gleich den Welt­un­tergang her­bei­zu­führen?! Sogar der Ausgang von Par­la­ments­wahlen hängt angeblich von „fake news“ ab, die private „poli­tische Akteure“ in die Welt setzen und ver­breiten (oder auch nicht) – selbst­ver­ständlich nur dann, wenn der Ausgang nicht den per­sön­lichen Prä­fe­renzen der­je­nigen gefällt, die solche Behaup­tungen – d.h. „fake news“ ?! – in die Welt setzen und verbreiten.

(von Dr. habil. Heike Diefenbach)

Dieses Nar­rativ ist alt, abge­nutzt, ein Lang­weiler, bekommt man es doch nun schon seit zehn Jahren unab­lässig zuge­mutet. Es ist in diesem Zeitraum nicht intel­li­genter geworden und nicht plau­sibler geworden. Es ist auch nicht durch empi­rische Daten gedeckt (mit Bezug auf die Bun­des­tags­wahlen im Jahr 2017 in Deutschland s. Neudert 2017: 9; mit Bezug auf die U.S.-amerikanische Prä­si­dent­schaftswahl im Jahr 2016 s. z.B. Allcott & Gentzkow 2017). Aber es wird immer und immer wieder beschworen von den­je­nigen, die die Kon­kurrenz durch andere Mei­nungen oder den Wider­spruch ange­sichts anderer Infor­ma­tionen oder ange­sichts des Nach­weises von logisch Fal­schem fürchten oder Aus­gänge sozialer oder poli­ti­scher Ent­schei­dungs­pro­zesse nicht mögen und dis­kre­di­tieren wollen. Kurz: Das Nar­rativ von den bös­wil­ligen pri­vaten Ver­pestern der Welt der sozialen Medien durch die Erfindung und Ver­breitung von „fake news“, die durch gesetz­liche Maß­nahmen und Regie­rungs-Spione kon­trol­liert und gemaß­regelt werden müssen, weil sie ansonsten den Fort­be­stand der „Demo­kratie“ bedrohen, ist ein rhe­to­ri­sches Kampf­mittel derer, die ihre Deu­tungs­hoheit z.B. durch citizen jour­nalism gefährdet sehen.

Dies trifft (derzeit zumindest) besonders auf Mit­glieder der mehrere Par­teien umfas­senden Ein­heits­partei, die die Regierung bildet, zu, auf Inhaber poli­ti­scher Posi­tionen, die so genannte Mul­ti­pli­ka­toren in eigens geschaf­fenen PR-Insti­tu­tionen halten, die sich als solche oft nicht zu erkennen geben, sondern als „Beauf­tragte“ für par­ti­kulare Inter­essen prä­sen­tiert werden oder als „Stif­tungen“, und Ange­stellte in Medi­en­an­stalten (die zurecht so genannt werden, aber das zu argu­men­tieren, würde einen eigenen Text erfordern) oder diese Mul­ti­pli­ka­toren in anderen Insti­tu­tionen medialer Insze­nierung instru­men­ta­li­sieren, die ihrer­seits u.a. soge­nannte Fak­ten­finder eta­blieren, die „Fakten“ gewöhnlich erfinden müssen, um eine Kon­struktion von ver­meint­licher Wahrheit hin­zu­zimmern, die zu dem passt, was ihre Vor­ge­setzten als Produkt von ihnen erwarten. Der unab­lässige Versuch, „fake news“ mit „sozialen Medien“ gleich­zu­setzen, die ihrer­seits als mit „alter­na­tiven Medien“ bzw. Pri­vat­per­sonen gleich­zu­setzen dar­ge­stellt werden, kann schwerlich anders erklärt werden als durch eine regel­rechte Kritik-Phobie, und diese wie­derum kann schwerlich anders erklärt werden als durch ein zumindest ansatz­weises Bewusstsein eigener Unzu­läng­lich­keiten, um nicht zu sagen: eigener Inkompetenz.

Mit einigem guten Willen läßt sich die mehr oder weniger stupide Immer-Wieder-Erzählung von den alter­na­tiven bzw. pri­vaten Übel wol­lenden fake-news-Ver­breitern psy­cho­lo­gisch ver­stehen als Gegen-Pro­pa­ganda in Reaktion auf eine wahr­ge­nommene, weit über­wiegend aber bloß herbeiphantasierte,„fake news“-Invasion, die gewöhnlich in nichts anderem besteht als der Äußerung einer abwei­chenden Meinung oder der Ver­breitung von Infor­ma­tionen, die den „Gegen“-Propagandisten nicht gefallen, oder von Argu­menten, denen die „Gegen“-Propagandisten nicht argu­men­tativ begegnen können. Tat­sächlich sind wir inzwi­schen in der west­lichen Weit so weit im argu­men­ta­tiven Regress ange­kommen, dass die Prä­sen­tation von Gegen­ar­gu­menten zu einem Nar­rativ, das Regierung, poli­tische Par­teien und alle mög­lichen Typen von Nutz­nießern aus deren Poli­tiken als akzep­tiertes Faktum oder akzep­tierte Wahrheit durch­setzen möchten, von diesen inter­es­sierten Par­teien als „fake news“ bezeichnet werden, d.h. jedes sach­liche Gegen­ar­gument wird von vorn­herein als bös­willig erfundene Falsch-Behauptung gebrank­markt, so dass eine sach­liche Dis­kussion, die nun einmal Argu­mente und Gegen­ar­gu­mente not­wen­di­ger­weise invol­viert, ver­un­mög­licht wird.

Dies klingt, als würde das Nar­rativ von der großen Gefahr durch „fake news“ in sozialen Medien als Stra­tegie gepflegt, und ver­mutlich wird es das auch – von Zynikern, aber nicht unbe­dingt von dem, was man Über­zeu­gungs­täter nennt. Es ist durchaus möglich, dass aggressive Maß­nahmen wie die Ver­ab­schiedung des Netz DG, die Instru­men­ta­li­sierung von Anbietern sozialer Medien als Hilfs-Poli­zisten oder die Führung von Listen mit Namen von Per­sonen, durch die sich die­je­nigen bedroht fühlen, die solche Listen führen oder in Auftrag geben, von der Moti­vation her betrachtet defensive Reak­tionen sind, „Gegen“-Propaganda in Reaktion auf Mei­nungen, Infor­ma­tionen und Argu­mente, die von der eigenen Ideo­logie abweichen und daher unver­daulich sind, so dass sie als „Propaganda“-Angriff abgetan werden müssen, als „fake news“, weil eben einfach nicht wahr sein kann, was nicht wahr sein darf.

Voll­kommen über­zogen erscheinen solche Ver­fah­rens­weisen allen außer eben den Kritik-pho­bi­schen, die ahnen, dass sie mit ihrem Stel­len­profil über­fordert sind. Dem­entspre­chend hält Neudert mit Bezug auf Deutschland fest:

„With the exception of epi­sodic obser­va­tions on social media and limited metho­do­lo­gical research …, the empi­rical basis of com­pu­ta­tional pro­pa­ganda in Germany remains unad­dressed. Poli­ti­cians and the media are scrambling to come up with over­blown pro­posals that might heavily restrict freedom of expression” (Neudert 2017: 5–6).

Und weiter:

“Despite heated dis­course on social bots and their potential to mani­pulate public opinion, there is little empi­rical evi­dence on the use of social bots in Germany” (Neudert 2017: 9).

Dies schreibt Neudert in einem Län­der­be­richt über Deutschland, der im Rahmen eines Pro­jektes mit dem Titel „Com­pu­ta­tional Pro­pa­ganda: Inves­ti­gating the Impact of Algo­rithms and Bots on Poli­tical Dis­course in Europe“ (COMPROP) ange­fertigt wurde.

“Com­pu­ta­tional pro­pa­ganda” dürfte am besten über­setzt werden mit „com­pu­ter­ba­sierte Pro­pa­ganda“ oder „rech­ner­ge­stützte Pro­pa­ganda“ und bezeichnet die Ver­wendung von Algo­rithmen und auto­ma­ti­sierten Pro­zessen, die zum Einsatz gebracht werden, um die öffent­liche Meinung in eine bestimmte Richtung zu mani­pu­lieren (vgl. Neudert 2017: 4).

Das Projekt wurde haupt­sächlich vom European Research Council, d.h. von den euro­päi­schen Steu­er­zahlern, bezahlt, und das Projekt wird auf den dies­be­züg­lichen web-Seiten der Euro­päi­schen Kom­mission wie folgt begründet:

“Social media can have an impressive impact on civic enga­gement and poli­tical dis­course. Yet incre­asingly we find poli­tical actors using digital media and auto­mated scripts for social control. Com­pu­ta­tional propaganda—through bots, botnets, and algorithms—has become one of the most con­cerning impacts of tech­nology inno­vation. Unfort­u­nately, bot iden­ti­fi­cation and impact ana­lysis are among the most dif­ficult research chal­lenges facing the social and com­puter sciences”
https://cordis.europa.eu/project/id/648311

Man beachte, dass hier von “poli­tical actors” die Rede ist, die jedoch unspe­zi­fi­ziert bleiben. Dass gerade die­je­nigen, die man am ehesten spontan als „poli­tical actors“ ansieht und denen man am ehesten Willen und Fähigkeit zur „social control“ zuschreiben würde, also Regie­rungen, supra­na­tionale Insti­tu­tionen wie die EU, poli­tische Par­teien und ihre „Anhängsel“ wie z.B. (bestimmte) Stif­tungen und Gewerk­schaften, jedoch von dem aus­ge­nommen sind, was für die Euro­päische Kom­mission „poli­tical actors“ sind, wird sehr deutlich, wenn man die gesamte Pro­jekt­be­schreibung liest. Dann wird nämlich deutlich, dass die „com­pu­ta­tional pro­pa­ganda“ Anders­mei­nender das Problem ist, das durch eigene Ana­lysen von „big data“ und den Einsatz von Algo­rithmen zur Ent­de­ckung von „bot“-Aktivitäten in sozialen Netz­werken in seinem Ausmaß fest­ge­stellt und gelöst werden soll:

„COMPROP objec­tives are to advance a) rigorous social and com­puter science on bot use, b) cri­tical theory on digital mani­pu­lation and poli­tical out­comes, c) our under­standing of how social media pro­pa­ganda impacts social movement orga­nization and vitality. This project will innovate through i) “real-time” social and infor­mation science actively dis­se­mi­nated to jour­na­lists, rese­ar­chers, policy experts and the inte­rested public, ii) the first detailed data set of poli­tical bot activity, iii) deepened expertise through cul­ti­vation of a regional expert network able to detect bots and their impact in Europe.

Hier bestellen!

COMPROP will achieve this through multi-method and reflexive work packages: 1) inter­na­tional qua­li­tative fieldwork with teams of bot makers and com­puter sci­en­tists working to detect bots [und sie für ihre zah­lenden Auf­trag­geber zu kre­ieren?!]; 2a) con­s­truction of an ori­ginal event data set of inci­dents of poli­tical bot use [aber nur durch Private oder den poli­ti­schen Gegner?!] and 2b) tre­atment of the data set with fuzzy set and tra­di­tional sta­tistics [um zu erfahren, wo die “Sünder” zu ver­muten sind!?]; 3) com­pu­ta­tional theory for detecting poli­tical bots [Anderer, denn die, die man selbst ein­setzt, kennt man schon] and 4) a sus­tained dis­se­mi­nation strategy [was soll hier stra­te­gisch ver­teilt warden?]. This project will employ state-of-the-art ‘network eth­no­graphy’ tech­niques, use the latest fuzzy set / qua­li­tative com­pa­rative sta­tistics, and advance com­pu­ta­tional theory on bot detection via cutting-edge algo­rithmic work enhanced by new crowd-sourcing techniques.

Poli­tical bots are already being deployed over social net­works in Europe. COMPROP will put the best methods in social and com­puter science to work on the size of the problem and the pos­sible solutions”
https://cordis.europa.eu/project/id/648311 (Her­vor­he­bungen d.d.A.).

Einige Berichte aus diesem Projekt und ihm ver­wandte Berichte im Auftrag der Euro­päi­schen Kom­mission – eine Zusam­men­stellung der Berichte aus dem Projekt und anderer the­ma­tisch ver­wandter Berichte findet man unter der Adresse https://comprop.oii.ox.ac.uk/publications/ – bleiben mehr oder weniger stark auf der vor­ge­ge­benen ideo­lo­gi­schen Linie. Die m.E. unle­sens­wer­testen unter ihnen (wie z.B. der­jenige von Neudert und Marchal 2019) räumen unbe­legten Prä­missen, die unge­klärte – und im kon­kreten Papier unde­fi­nierte – Kon­zepte wie „Popu­lismus“ ein­führen und deren – empi­risch in jeder Hin­sicht unge­klärte – Relevanz als Tat­sache behaupten, sehr viel Raum ein oder machen ihr gesamtes For­schungs­design von vor­ge­fassten Mei­nungen darüber, was denn nun tat­sächlich „fake news“ seien und was nicht, abhängig. Sie sind anscheinend unfähig oder unwillig, zu ver­stehen, dass in den bei weitem meisten Fällen genau das das Problem ist: von einer Nach­richt ist nicht bekannt, ob sie wahr oder falsch ist, ob sie in der Rea­lität zutrifft oder nicht. Es gibt nie­manden, der vom Stand­punkt der All­wis­senheit ent­scheiden könnte, bei welchen Nach­richten es sich um „fake news“ handelt und bei welchen nicht.

Daher basiert die Behauptung, eine Nach­richt sei „fake news“ oder eben nicht, auf einer Geschmacks­ent­scheidung: Steht die Nach­richt im Ein­klang mit dem, was man selbst als wahr akzep­tiert, was einem wahr­scheinlich oder glaub­würdig vor­kommt, viel­leicht auch einfach, wie man es selbst gerne hätte, dann wird die Nach­richt wei­terhin als Nach­richt bezeichnet, und wenn nicht, dann wird sie umbe­nannt in „fake news“.

For­schung über com­pu­ter­ge­stützte Pro­pa­ganda und ins­be­sondere die Ver­wendung von bots, die Nach­richten ver­breiten, basieren auf der Kon­struktion eines Pro­blems, das darin besteht, dass das, was z.B. von bots ver­breitet wird, „fake news“ seien, aber eben nur dann, wenn die von bots ver­breitete Nach­richt unwill­kommen ist, unglaub­würdig erscheint oder von jemandem, der den Wahr­heits­gehalt der Nach­richt beur­teilen will, für falsch gehalten wird. Wird eine Nach­richt z.B. von Regie­rungen oder durch poli­tische Par­teien mit Hilfe von bots ver­breitet, so ist das kein Problem, sondern schlicht die moderne Form der glo­balen Ver­breitung von Nach­richten: Bots

„… track and dis­se­minate breaking news articles on behalf of media outlets, correct typos on Wiki­pedia, promote matches on social media, and have per­formed the first census of device net­works. But, they can also be deployed for com­mercial tasks that are rather less positive, such as spamming, car­rying out dis­tri­buted denial-of-service and virus attack, email har­ve­sting, click fraud, and content theft. Net­works of such bots are referred to as botnets, which describes a coll­ection of con­nected com­puter pro­grams that com­mu­nicate across mul­tiple devices of jointly perform a task …Poli­tical bots, fre­quently referred to as social bots in Germany, are a sub­ca­tegory of bots that are active on social media. They are auto­mated social media accounts that mimic human beha­viour and interact with other users on social net­working sites, where they usually do not reveal their non­human nature …” (Neudert 2017: 8–9).

Die besten Mög­lich­keiten, – mensch­liche und nicht-mensch­liche – botnets zu schaffen und zu unter­halten und eine Zahl von “cyber troops” anzu­werben und zu unter­halten, die als Trolle z.B auf blogs Anders­mei­nender sys­te­ma­tisch die­selben links zu den­selben Texten mit Inhalten, die sie als die wahren durch­setzen sollen, oder auf­grund der „big data“, über die Regie­rungen oder große Insti­tu­tionen, aber nicht ein­zelne Bürger, ver­fügen, bestimmte Per­sonen oder Per­so­nen­gruppen gezielt anzu­sprechen oder zu dis­kre­di­tieren, haben zwei­fellos Regie­rungen, poli­tische Par­teien und andere große Insti­tu­tionen, die mehr als hin­rei­chend und zuver­lässig mit Steu­er­geldern bestückt sind. Sie können tech­ni­sches Pesonal nach Bedarf anwerben, Netz­werke Abhän­giger (und damit Erpres­sungs­po­tenzial) auf­bauen und ihre Spuren im Netz höchst effi­zient ver­wi­schen. Daher ver­wundert es nicht, wenn Neudert festhält:

„Both state and non-state poli­tical actors deli­berately mani­pulate and amplify non-factual infor­mation online” (Neudert 2017: 14).

In der etwas weniger poli­tisch kor­rekten Fassung ihres Artikels über Deutschland, die sie in einem von Woolley und Howard (2019) her­aus­ge­ge­benen Sam­melband publi­ziert hat, in der aber nach wie vor die Formel „both state and nonstate actors“ gewählt wird, um über­haupt im Zusam­menhang mit gezielter Miß­in­formtion im Internet von „state actors“ schreiben zu können, ohne sich bei den­je­nigen, die das Projekt bezahlt haben, unbe­liebt zu machen oder bei ähnlich Inter­es­sierten in Ungnade zu fallen, oder viel­leicht auch nur, um den for­mel­haften Vorwurf zu ent­gehen, man sei ein Ver­schwö­rungs­theo­re­tiker, wenn man über staat­liche Miß­in­for­mation berichtet (wo doch jeder „wissen“ soll, dass nur die­je­nigen Ver­schwö­rungs­theorien gar keine sind, die Regie­rungen und poli­tische Par­teien pflegen, wie z.B. das Nar­rativ von den die Demo­kratie bedro­henden, pri­vaten „fake news“-Kreierern in sozialen Medien),

schreibt Neudert:

“Equipped with big data, both state and nonstate actors leverage tech­no­lo­gical infra­struc­tures and infor­mation net­works to pro­pagate pro­pa­ganda online with the objective of sowing dis­content, fomenting uncer­tainty, and silencing oppo­sition … In light of the German elec­tions of 2017, poli­ti­cians and the media scrambled to come up with over­blown pro­posals to secure the German cyber­space from threats of com­pu­ta­tional pro­pa­ganda, some posing sub­stantial rest­ric­tions to the freedom and openness of public dis­course online. Epi­sodic ins­tances of com­pu­ta­tional pro­pa­ganda were repea­tedly blown out of pro­portion in the media [d.h. den main­stream-Medien, die natürlich ein Interesse an der Dis­kre­di­tierung der Kon­kurrenz in den sozialen Medien haben] and served as a frame of refe­rence for regu­latory and public assessment of the threats to poli­tical sta­bility. Mis­con­cep­tions and ter­mi­no­lo­gical con­fu­sions were dominant, blending phe­nomena such as poli­tical bots, chatbots, junk news, hate speech, filter bubbles, micro-tar­geting, and Russian pro­pa­ganda into a shadowy picture of looming inter­fe­rence in German demo­cracy” (Neudert 2019: 154; Her­vor­hebung d.d.A.).

Was Neudert hier beschreibt, ist ein Fall von umfas­sender staat­licher Pro­pa­ganda, die mit der angeb­lichen Bedrohung der Demo­kratie durch com­pu­ter­ge­stützte Pro­pa­ganda in den sozialen Medien einen Strohmann auf­gebaut hat, der von staat­licher Seite zur Rettung der angeblich gefähr­deten Demo­kratie abge­brannt wurde. Nicht nur eigene Pro­pa­ganda, ver­mutlich auch com­pu­ter­ge­stützte, wurde zu diesem Zweck ein­ge­setzt; auch gesetz­liche Rege­lungen., vor allem das NetzDG, wurden geschaffen, die die Frei­heits­rechte, die in demo­kra­ti­schen Gesell­schaften eigentlich unhin­ter­gehbar sind, erheblich ein­schränken, abwei­chende Mei­nungen kri­mi­na­li­sieren und es der Regierung erlauben, Daten großer Tech­no­logie-Unter­nehmen wie facebook oder Google anzu­zapfen bzw. diese Unter­nehmen zu Hand­langer-Diensten zu ver­pflichten. Dies erfolgt u.a. in der Form, dass die Reich­weite miss­lie­biger Nach­richten, die in sozialen Medien ver­breitet werden, ein­ge­schränkt wird oder miss­liebige Stimmen gänzlich unhörbar gemacht werden, z.B. durch „denial-of-service“-Attacken, wie dies in in neuerer Zeit häu­figer mit Bezug auf bestimmte YouTube-Kanäle der Fall war, bei denen Zehn­tau­sende von Abon­nenten von YouTube kom­men­tarlos gelöscht wurden oder die Kanäle bei ent­spre­chender the­ma­ti­scher Suche einfach nicht ange­boten werden.

Diese Art staat­licher Pro­pa­ganda kann als Versuch gewertet werden, das ehe­malige Pro­pa­ganda-Monopol, das Regie­rungen durch Orga­ni­sation und Kon­trolle von “Staatsfunk” oder so genannten öffentlich-recht­lichen Sendern hatten, zurückzugewinnen:

„….com­pu­ta­tional pro­pa­ganda is pro­pa­ganda created or dis­se­mi­nated using com­pu­ta­tional means. Where once pro­pa­ganda was the pro­vince of the states and other large insti­tu­tions, the ease of content creation and dis­se­mi­nation in online spaces has led to the creation of pro­pa­ganda by a wide variety of indi­vi­duals and groups. The anonymity of the Internet has obscured the pro­ducers of infor­mation (and thus made the iden­ti­fi­cation of the intent of pro­pa­ganda pro­ducers more opaque). This has allowed state-pro­duced pro­pa­ganda to be pre­sented as if it were not pro­duced by state actors. It has also faci­li­tated inter­na­tional pro­pa­ganda cam­paigns and inter­fe­rence in domestic politics by foreign states”
(Bol­sover & Howard 2019: 62–63).

Im Zuge ihrer Unter­su­chungen zum Aufbau eines „Global Inventory of Orga­nized Social Media Mani­pu­lation” haben Bradshaw und Howard (2018) festgestellt:

“Cyber troops [defi­niert als “government or poli­tical party actors tasked with mani­pu­lating public opinion online”; S. 4 im Bericht] invest signi­ficant funds into orga­nizing online mani­pu­lation cam­paigns. Based on preli­minary data from a few spe­cific cases around the world, we have already seen tens of mil­lions of dollars being spent on com­pu­ta­tional pro­pa­ganda and social media mani­pu­lation. While some cyber troop funds are being spent on research and deve­lo­pment in military set­tings, there are an incre­asing number of purchases being made by poli­tical parties to use similar tech­niques dome­sti­cally during elec­tions. Often, these funds are used to hire poli­tical com­mu­ni­cation firms that spe­cialize in data-driven tar­geting and online cam­paigning. While there are many legi­timate busi­nesses that help poli­tical parties identify new con­sti­tuencies and tailor poli­tical adver­ti­se­ments to a voter base, there is a growing industry of non-legi­timate busi­nesses that use fake social media accounts, online trolls and com­men­tators, and poli­tical bots to distort con­ver­sa­tions online, help generate a false sense of popu­larity or poli­tical con­sensus, main­stream extremist opi­nions, and influence poli­tical agendas”
(Bradshaw & Howard 2018: 7)

Mani­pu­lation sozialer Medien durch Cyber troops bzw. von Inhalten, die in sozialen Medien ver­öf­fent­licht und ver­breitet werden, haben Bradshaw und Howard für das Jahr 2018 in 48 Staaten, dar­unter Deutschland, festgestellt:

“… We have found evi­dence of for­mally orga­nized social media mani­pu­lation cam­paigns in 48 countries, up from 28 countries last year. In each country there is at least one poli­tical party or government agency using social media to mani­pulate public opinion dome­sti­cally … Much of this growth comes from countries where poli­tical parties are spre­ading dis­in­for­mation during elec­tions, or countries where government agencies feel threa­tened by junk news and foreign inter­fe­rence and are responding by deve­loping their own com­pu­ta­tional pro­pa­ganda cam­paigns in response”
(Bradshaw & Howard 2018: 3; Her­vor­hebung d.d.A.).

Der Bericht für das Jahr 2017 trägt übrigens den Titel „Troops, Trolls and Trou­ble­makers: A Global Inventory of Orga­nized Social Media Mani­pu­lation“ und kann hier her­un­ter­ge­laden bzw. gelesen werden.

Weitere Ergeb­nisse für 2018 fassen die Autoren wie folgt zusammen:

“… Com­pu­ta­tional pro­pa­ganda still involves social media account auto­mation and online com­mentary teams, but is making incre­asing use of paid adver­ti­se­ments and search engine opti­mization on a widening array of Internet plat­forms … Social media mani­pu­lation is big business. Since 2010, poli­tical parties and govern­ments have spent more than half a billion dollars on the research, deve­lo­pment, and imple­men­tation of psy­cho­lo­gical ope­ra­tions and public opinion mani­pu­lation over social media. In a few countries this includes efforts to counter extremism, but in most countries this involves the spread junk news and mis­in­for­mation during elec­tions, military crises, and complex huma­ni­tarian dis­asters” (Bradshaw & Howard 2018: 3; Her­vor­hebung d.d.A.).

Die Autoren beob­achten, dass seit dem Jahr 2016 mehr als 30 Staaten Gesetze erlassen haben, angeblich

„…designed to combat fake news on the Internet … At the same time, several demo­cracies have estab­lished new government agencies or man­dated existing orga­niza­tions to combat fake news and foreign influence ope­ra­tions. The response often involves gene­rating and dis­se­mi­nating counter-nar­ra­tives or creating reporting, flagging, and fact che­cking portals to support citizen awa­reness and enga­gement. Aut­ho­ri­tarian regimes have also deve­loped responses osten­sibly to combat the spread of fake news; though they might also be used to stifle speech. In many cases these task forces have become a new tool to legi­timize further cen­sorship, and are often used in com­bi­nation with media law and sur­veil­lance capa­bi­lities, com­pu­ta­tional pro­pa­ganda cam­paigns, and Internet blo­cking or fil­tering to limit freedom of expression and shape online public dis­course” (Bradshaw & Howard 2018: 6).

Die Frage ist hier aller­dings, ob es sinnvoll ist, Staaten auf­grund ihrer for­malen Ver­fasstheit als demo­kra­tisch oder autoriär ein­zu­ordnen, bzw. ob es nicht sinn­voller wäre, auf­grund beob­acht­barer Zensur-Prak­tiken zu ent­scheiden, ob ein Staat tat­sächlich gemäß demo­kra­ti­schen Gesell­schafts­ver­ständ­nisses agiert oder sich auto­ritär gibt. Immerhin dürfte klar sein, dass eine Ein­richtung, die ihre „Gegen-Erzählung“ im Staats­dienst ver­breitet, dies nicht unbe­dingt tut, um „fake news“ zu iden­ti­fi­zieren, sondern einfach all das zu „fake news“ erklären kann, was nicht im Sinn der jewei­ligen Regierung ist, die die Ein­richtung bezahlt und kon­trol­liert. Was ist dann aber die Mani­pu­lation von sozialen Medien im Kampf gegen „fake news“ anderes als Mani­pu­lation von sozialen Medien zum Zweck der Zensur?!

Als eine belieb­testen Stra­tegien von Cyber-Truppen haben die Autoren das so genannten astrot­rufing iden­ti­fi­ziert. Es handelt sich dabei um eine „… practice favoured by those with a poli­tical agenda to falsify an organic movement by making their whims and pre­fe­rences seem like common opinion and desire” (Bisnoff 2019: ix‑x).

Bradshaw und Howard beschreiben die digi­talen Formen des astro­turfing, das sie fest­ge­stellt haben:

„Most cyber troops will use online com­men­tators and fake social media accounts to spread pro-government or pro-party mes­sages to popu­la­tions both dome­sti­cally and abroad. Poli­tical bots are used by cyber troops to flood hashtags with auto­mated mes­sages pro­moting or attacking par­ti­cular poli­ti­cians, or to fake a fol­lower-base on social media. Incre­asingly they are also used to stra­te­gi­cally post par­ti­cular key­words, in order to game algo­rithms and cause certain content to trend.” (Bradshaw & Howard 2018: 6),

ganz im Ein­klang mit den berüch­tigten “Wir-sind-mehr”-Kampagnen, dem ganz und gar unwis­sen­schaft­lichen Bestehen auf angeblich exis­tie­renden wis­sen­schaft­lichen Konsens in Sachen Kli­ma­wandel und den Auf­mär­schen von angeb­lichen Demons­tranten, bei denen es sich aber eben nicht um Men­schen handelt, denen – unab­hängig von­ein­ander – die­selbe Sache am Herzen liegt, sondern um orga­ni­sierte und teil­weise bezahlte Demons­tranten-Dar­steller, die z.B. als ganze Schul­klassen unter Führung ihrer Lehrer zum Auf­tritt gegen Kli­ma­wandel geschickt werden oder z.B. von Gewerk­schaften oder anderen Insti­tu­tionen sys­te­ma­tisch ange­sprochen, rekru­tiert und ggf. mit bereit­ge­stellten Bussen zum Ort des Auf­tritts trans­por­tiert werden, um dort die Rolle von Demons­tranten zu spielen. Sie sind „[g]rassroots for hire“, wie Edward T. Walker (2014) sagt.

Cyber-Truppen benutzen bots aber auch,

„… to report legi­timate content and accounts on a mass scale, so that social media plat­forms auto­ma­ti­cally suspend accounts or remove content until it can be reviewed by a human moderator”
(Bradshaw & Howard 2018: 6),

also um bestimmte Nach­richten gänzlich zu unter­schlagen oder bestimmte Stimmen auf mehr oder weniger absehbare Zeit unhörbar zu machen.

Hier bestellen!

Wir müssen mit der Tat­sache leben, dass

„[s]ocial media have gone from being the natural infra­structure for sharing coll­ective grie­vances and coor­di­nating civic enga­gement, to being a com­pu­ta­tional tool for social control, mani­pu­lated by canny poli­tical con­sul­tants, and available to poli­ti­cians in demo­cracies and dic­ta­tor­ships alike …” (Bradshaw & Howard 2018: 21; Her­vor­hebung d.d.A.),

und wir können es uns, wenn wir demo­kra­tische Gesell­schaften bleiben (oder wieder werden) wollen, nicht leisten, wei­terhin das Nar­rativ von den den Frieden stö­renden Ein­zel­bürgern, die so zahl­reich sein sollen und eine solche Gefahr für die Demo­kratie dar­stellen sollen, dass sie mit staat­lichen Cyber-Truppen sys­te­ma­tisch bekämpft werden müssten, unwi­der­sprochen hin­zu­nehmen. Genau dieses Nar­rativ erlaubt es Staaten bzw. Regie­rungen, ihr Monopol auf Pro­pa­ganda zurück­zu­ge­winnen – und dies vor­geblich zum Schutz ihrer Bevöl­ke­rungen und unter Verweis auf andere, „feind­liche“ Staaten, der die Ein­fäl­tigen unter uns zur unhin­ter­fragten Soli­da­rität der eigenen Regierung bewegen mag. Es ist noch nicht lange her, dass all­gemein bekannt war, dass Des­in­for­mation schon sys­te­ma­tisch von Regie­rungen genutzt wurde, als es noch kein Internet gab:

„The term ‚dis­in­for­mation‘ as a per­suasive tech­nique that is based on for­geries and stages events was invented by the KGB, the Soviet secret service. Alt­hough dis­in­for­mation has been used by most states, the Soviets have per­fected it as an instrument of public policy”
(Martin 1982: 47).

Ebenso wenig sollten wir dem Fehl­schluss auf­sitzen, dass Regie­rungen, die staat­liche Zensur in anderen Staaten beklagen, nicht massive Zensur im eigenen Land betreiben könnten. Und schon gar nicht sollten wir uns ein­bilden, dass wir z.B. durch reine Pri­vat­in­itiative wie den Erwerb wech­selnder IP-Adressen unsere Spuren ver­wi­schen oder uns sonstwie der Kon­trolle durch com­pu­ta­tional pro­pa­ganda unserer Regie­rungen ent­ziehen könnten. Es wird der gemein­samen Initiative mög­lichst vieler Bürger bedürfen, um Frei­heits­rechte zu erhalten oder wie­der­zu­ge­winnen, und den­je­nigen Per­sonen eine klare Absage zu erteilen, die sich für cyber-Truppen zu Zwecken des Betrugs an der Bevöl­kerung rekru­tieren lassen.

Übrigens:

Ver­wundert es jemanden, dass die Arbeit von Bradshaw und Howard, obwohl sie – wie die Arbeit von Neudert – im Rahmen des haupt­sächlich von European Research Council „Com­pu­ta­tional Pro­pa­ganda Research Project“ erstellt wurde und bereits im Jahr 2018 in eng­li­scher Sprache, also für den bei Weitem größten Teil der Welt­be­völ­kerung, erschienen ist, bislang so gut wie gar nicht zur Kenntnis genommen worden ist, sofern die Anzahl der Zita­tionen oder die Anzahl der dies­be­züg­lichen Pres­se­be­richte, die die EU doch gewöhnlich nur so auf uns her­nieder prasseln lässt, als Indi­ka­toren für die Ver­breitung der im Artikel zusam­men­ge­tra­genen Befunde her­an­ge­zogen werden?

Es ist auch ein Mittel, miss­liebige Infor­ma­tionen zu unter­drücken, sie sozu­sagen aktiv nicht wei­ter­zu­ver­breiten, ein sehr ein­faches und kos­ten­güns­tiges oben­drein. Führen Sie sich also, wenn irgend möglich, die in diesem Text zitierten Berichte zu Gemüte, besonders den­je­nigen von Bradshaw und Howard (2018), der eine Reihe von Tabellen enthält, in denen ver­schiedene Indi­ka­toren für com­pu­ter­ge­stützte Pro­pa­ganda für alle 48 Länder, von denen die Studie berichtet, auf­ge­listet sind. Noch können Bradshaw und Howard (2018: 18, Table 4) für Deutschland eine ver­gleichs­weise kleine „team size“ von cyber-Truppen fest­stellen, die einen ver­gleichs­weise nied­rigen Oran­gi­sa­ti­onsgrad auf­weisen – noch.

Regie­rungen und andere große Insti­tu­tionen werden ihr Pro­pa­gan­da­mo­nopol bzw. ihre Deu­tungs­hoheit, die ange­sichts der Demo­kra­ti­sierung von Infor­mation und Dis­kussion schon teil­weise ver­lo­ren­ge­gangen ist und weiter zu schrumpfen droht, nicht kampflos auf­geben. Als Bürger – gleich welchen Staates – müssen wir uns darüber klar sein, und das bedeutet u.a., „fake news“, Des­in­for­mation und bes­ten­falls halb­wahre Nar­rative auch dann als solche zu iden­ti­fi­zieren, wenn sie von Regie­rungen, poli­ti­schen Par­teien oder anderen großen Orga­ni­sa­tionen, wie Lob­by­isten für NGOS, kommen. Sozial- und spe­ziell Kom­mu­ni­ka­tions- und Medi­en­wis­sen­schaflter, die immerhin auch Bürger sind und daher ein ver­nünf­tiges Eigen­in­teresse daran haben sollten, sich vor Staats­pro­pa­ganda und cyber-Truppen zu schützen, haben – mit wenigen Aus­nahmen, von denen einige in diesem Text zitiert wurden – bedau­er­li­cher­weise bis dahin noch einen sehr weiten Weg zu gehen, wie ein Blick in die neuere Lite­ratur zu „fake news“ in sozialen Medien zeigt.

Lite­ratur:

Allcott, Hunt & Gentzkow, Matthew, 2017: Social Media and Fake News in the 2016 Election. Journal of Eco­nomic Per­spec­tives 31(2): 211–236).

Bisnoff, Jason, 2019: Fake Politics: How Cor­porate and Government Groups Create and Maintain a Mono­poloy on Truth. New York: Sky­horse Publishing.

Bol­sover, Gillian & Howard, Philip, 2019: Com­pu­ta­tional Pro­pa­ganda in Europe, The U.S., and China. S. 61–81 in: Vasu, Norman, Ang, Ben­jamin & Jay­a­kumar, Shashi (Hrsg.): Drums: Dis­tor­tions, Rumours, Untruths, Mis­in­for­mation, and Smears. Sin­gapore: World Sci­en­tific Publishing.

Bradshaw, Samantha & Howard, Philip N., 2018: Chal­lenging Truth and Trust: A Global Inventory of Orga­nized Social Media Mani­pu­lation. Oxford, UK: Oxford University.
https://blogs.oii.ox.ac.uk/wp-content/uploads/sites/93/2018/07/ct2018.pdf

Martin, L. John, 1982: Dis­in­for­mation: An Instru­men­tality in the Pro­pa­ganda Arsenal. Poli­tical Com­mu­ni­cation 2(1): 47–64.

Neudert, Lisa-Maria N., 2019: Germany: A Cau­tionary Tale. S. 153–184 in: Woolley, Samuel C. & Howard, Philip N. (Hrsg.): Com­pu­ta­tional Pro­pa­ganda: Poli­tical Parties, Poli­ti­cians, and Poli­tical on Social Media. New York: Uni­versity Press.

Neudert, Lisa-Maria N., 2017: Com­pu­ta­tional Pro­pa­ganda in Germany: A Cau­tionary Tale. Oxford, UK: Project on Com­pu­ta­tional Pro­pa­ganda. Working Paper 2017.7.
https://blogs.oii.ox.ac.uk/politicalbots/wp-content/uploads/sites/89/2017/06/Comprop-Germany.pdf

Neudert, Lisa-Maria N. & Marchal, Nahema, 2019: Pola­ri­sation and the Use of Tech­nology in Poli­tical Cam­paigns and Com­mu­ni­cation. Brussels: European Union.
https://www.europarl.europa.eu/RegData/etudes/STUD/2019/634414/EPRS_STU(2019)634414_EN.pdf

Walker, Edward T., 2014: Grass­roots for Hire: Public Affairs Con­sul­tants in Ame­rican Demo­cracy. Cam­bridge: Cam­bridge Uni­versity Press.


Quelle: sciencefiles.org