Bild Pixabay

Die Weisheit „nor­maler“ Bürger: Vor­her­sagen von Experten, Bevölkerungsumfrage®n und „nor­malen“ Bürgern im Vergleich

„… quod enim mavult homo verum esse, id potias credit“, d.h. etwa “… was jemand wahr­haben möchte, dem schenkt er Vertrauen/das erkennt er an/das glaubt er]“, so schrieb Francis Bacon im Jahr 1620 in seinem „Novum Organum“, genau: im Apho­rismus XLIX des ersten Buches im „Novum Organum“, und hat damit etwas benannt, was man heute einen kogni­tiven Bias oder eine kognitive Ver­zerrung nennen würde. Dabei handelt es sich um sys­te­ma­tische Denk­fehler, die zu fal­schen Schluss­fol­ge­rungen oder fal­schen Ein­schät­zungen von Dingen führen können. Und obwohl kognitive Ver­zer­rungen heute in aller Munde sind, scheint dies nicht dazu zu führen, dass Men­schen heut­zutage besser darin sind, sie zu ver­meiden, als das in vor­an­ge­gan­genen Jahr­zehnten und Jahr­hun­derten der Fall war.

Dabei haben wir heute jede Menge Experten, von denen man mit Bezug auf ihr Wissens-/In­ter­es­sen­gebiet erwarten würde, dass sie kogni­tiven Ver­zer­rungen mit Bezug auf dieses Gebiet besser erkennen und ver­meiden können als der Durch­schnitts­mensch. Und wir haben die Wis­sen­schaft, die einen Vorrat von Methoden ent­wi­ckelt hat, um Dingen auf den Grund zu gehen, ohne den kogni­tiven Ver­zer­rungen ein­zelner Per­sonen, seien es die­je­nigen von For­schern oder Befragten, zum Opfer zu fallen.

Bei­spiels­weise ist die soge­nannte Delphi-Methode eine Methode, bei der eine im meh­reren Gesprächs­runden orga­ni­sierte struk­tu­rierte Dis­kussion einer Reihe von Experten statt­findet, um mög­lichst gute Vor­her­sagen mit Bezug auf die in Frage ste­henden Ent­wick­lungen oder mit Bezug auf die Wahr­schein­lichkeit des Ein­tretens bestimmter Ereig­nisse zu erreichen. Heut­zutage wird sie auch dazu instru­men­ta­li­siert, um mög­lichst einen Experten-„Konsens“ zu gene­rieren (https://www.rand.org/topics/delphi-method.html), dem wir in der jün­geren Ver­gan­genheit u.a. hin­sichtlich der gen­the­ra­peu­ti­schen Inter­vention wegen SARS-CoV‑2 und hin­sichtlich eines angeblich men­schen­ge­machten Kli­ma­wandels zum Opfer gefallen sind.

Bevöl­ke­rungs­be­fra­gungen, bei denen ver­schiedene Methoden der Stich­pro­ben­ziehung, der Daten­er­hebung anhand stan­dar­di­sierter Fragen und der sta­tis­tische Aus­wertung der gewon­nenen Daten ver­wendet werden, sollen eben­falls Auf­schluss über zu erwar­tende Ent­wick­lungen oder über die Ein­stel­lungen bezüglich der inter­es­sie­renden Sache geben können. Sie werden z.B. zur Vor­hersage der Aus­gänge von Wahlen benutzt oder – wie unlängst hier in Wales mit Bezug auf die Ein­führung einer Höchst­ge­schwin­digkeit vom 20 km pro Stunde in bewohnten Gebieten – dazu, das Ausmaß der Zustimmung in der Bevöl­kerung zu einer bestimmten Politik oder Maß­nahme festzustellen.

Nur – in der Regel liegen die auf der Basis dieser oder anderer Methoden gewonnen Vor­her­sagen mehr oder weniger stark daneben. Ein bekanntes Bei­spiel dafür ist der Ausgang des Brexit-Refe­rendums, also der Abstimmung der Bevöl­kerung über den Aus­tritt oder den Ver­bleib des Ver­ei­nigten König­reiches aus/in der EU, der für Poli­tiker, Medien und pundits glei­cher­maßen uner­wartet kam – und, wäre er erwartet worden, wahr­scheinlich dazu geführt hätte, dass gar keine Abstimmung statt­ge­funden hätte.

“YouGov, Populus, ComRes, ORB, Ipsos-Mori and Sur­vation, all failed to cor­rectly predict the outcome. Of the larger pollsters, only TNS and Opinium cor­rectly called the outcome, alt­hough still unde­re­sti­mating the Leave vote. This general failure, moreover, follows hard on the heels of similar failures in both the 2010 and 2015 General Elec­tions, and public faith in com­mercial polling has taken another serious blow” (Celli et al. 2016: 110).
„YouGov, Populus, ComRes, ORB, Ipsos-Mori and Sur­vation, sie alle haben es nicht geschafft, das Ergebnis richtig vor­her­zu­sagen. Von den grö­ßeren Mei­nungs­for­schungs­in­sti­tuten haben nur TNS und Opinium das Ergebnis richtig vor­her­gesagt, obwohl sie die Anzahl der Leave-Stimmen [Stimmen, die für den Aus­tritt des Ver­ei­nigten König­reiches aus der EU abge­geben wurden] unter­schätzt haben. Dieses all­ge­meine Ver­sagen folgt auf ähn­liche Miss­erfolge bei den Par­la­ments­wahlen 2010 und 2015, und das Ver­trauen der Öffent­lichkeit in die kom­mer­zielle Mei­nungs­for­schung hat einen wei­teren schweren Schlag erlitten“ (Celli et al. 2016: 110).

Dass Vor­her­sagen, die auf Bevöl­ke­rungs­be­fra­gungen basieren, in der Regel falsch sind, hat viele ver­schiedene Gründe, aber welche genau das sind bzw. wie genau sich bestimmte Fak­toren auf die Qua­lität der Vor­hersage aus­wirken, ist unklar. So berichten Celli et al. (2016: 112) mit Bezug auf die Vor­her­sagen des Aus­gangs des Brexit-Refe­rendums durch die Meinungsforschungsinstitute:

“In the days before the refe­rendum, only TNS and Opinium pre­dicted the outcome cor­rectly, both using online polling and a three day time window, or larger. But results are con­tra­dictory: Populus used online polling, and with a larger sample, but they focused on a one-day time window and their pre­diction failed. Moreover, YouGov gave a first correct pre­diction with online polls from June 18 to 19, and then failed using the same method with a larger sample coll­ected between June 20 to 22.”
Vor dem Refe­rendum haben nur TNS und Opinium das Ergebnis richtig vor­her­gesagt. Beide haben Online-Umfragen, die über drei oder mehrere Tage durch­ge­führt wurden, genutzt. Aber die Ergeb­nisse sind wider­sprüchlich: Populus hat Online-Umfragen mit mehr Befragten durch­ge­führt, aber nur einen Tag lang Daten gesammelt, und ihr Vor­hersage war falsch. Schließlich hat YouGov als ersten Umfra­ge­institut den Ausgang richtig vor­her­gesagt, basierend auf einer Befragung vom 18 und 19 Juni [2016]. Und dennoch haben sie mit der­selben Methode und einem grö­ßeren Sample, mit Daten, die sie vom 20. bis zum 22. Juni gesammelt haben, das falsche Ergebnis prognostiziert.

Man kann also nicht einfach davon aus­gehen, dass Vor­her­sagen, die auf einer höheren Zahl von Befragten basieren, immer bessere Vor­her­sagen erbringen als Vor­her­sagen, die auf einer nied­ri­geren Zahl von Befragten basieren, oder dass Online-Befra­gungen immer zuver­lässige und auch nicht immer bessere Ergeb­nisse als tele­fo­nische Befra­gungen erbringen. Allen­falls kann man auf der Basis der Befunde zu den Vor­her­sagen des Aus­gangs des Brexit-Refe­rendums fest­halten, dass Befra­gungen, die innerhalb eines mehr­tä­gigen Zeit­fensters statt­finden, bessere Ergeb­nisse erbringen als Befra­gungen, die an nur einem Tag durch­ge­führt werden. Aber inwieweit sind diese Befunde ver­all­ge­mei­nerbar auf Bevöl­ke­rungs­be­fra­gungen zu anderen Themen?

Niemand weiß es.

Alter­na­tiven zur Vor­hersage mit Hilfe von teuren und mit Bezug auf die Vor­hersage wenig erfolg­reichen Bevöl­ke­rungs­be­fra­gungen sind vor allem solche, die auf dem soge­nannten „data mining“ basieren, d.h. der Sammlung von großen Daten­mengen, um aus ihnen Muster und Trends her­aus­zu­filtern. Beim soge­nannten „Social Opinion Mining“ (SOM) (s. hierzu Cortis & Davis 2021), handelt es sich um

‘‘… the study of user-gene­rated content by a sel­ective portion of society be it an indi­vidual or group, spe­ci­fi­cally those who express their opinion about a par­ti­cular entity, indi­vidual, issue, event and/or topic via social media inter­action’’ (Cortis & Davis 2021: o.S.),

d.h.

„… die Unter­su­chung von durch einen aus­ge­wählten Teil der Gesell­schaft, sei es eine Ein­zel­person oder eine Gruppe, gene­rierten Inhalten, ins­be­sondere die­je­nigen, die ihre Meinung über eine bestimmte Ein­richtung, eine Ein­zel­person, ein Problem, ein Ereignis und/oder ein Thema in den sozialen Medien zum Aus­druck bringen“ (Cortis & Davis 2021: o.S.).

Wie effi­zient das SOM bzw. com­pu­ter­ge­stützte NLP-Tech­niken, d.h. „Natural Lan­guage Processing“-Techniken bzw. Tech­niken zur Ver­ar­beitung natür­licher Sprache, mit Bezug auf Vor­her­sa­ge­kraft sind, ist aller­dings unklar. Es gibt sehr viele Ver­öf­fent­li­chungen, in denen das Potenzial des SOM betont wird und berichtet wird, wie die KI, die im Rahmen von SOM zum Einsatz kommt, opti­miert werden kann, aber ver­gleichs­weise wenige Studien dazu, inwieweit man auf­grund des SOM zu kor­rekten Vor­her­sagen kommt oder zu bes­seren als unter Ver­wendung anderer Ver­fahren, und die dies­be­züg­lichen Studien kommen zu über­wiegend posi­tiven, aber teil­weise wider­sprüch­lichen Ergeb­nissen (s. hierzu Celli et al. 2016; Hou et al. 2022; Jaidka et al. 2018; Skoric et al. 2020). Bislang fragen Medien, poli­tische Par­teien und andere ent­spre­chend inter­es­sierte Par­teien jeden­falls nach wie vor die auf Bevöl­ke­rungs­be­fra­gungen basie­renden Daten der Mei­nungs­for­schungs­in­stitute nach oder lassen „Experten“ unbe­kannter Qua­li­fi­kation zu Wort kommen, so dass auch heute noch gilt, was Celli et al. im Jahr 2016 fest­ge­halten haben:

“[t]o date, however, neither polling orga­niza­tions nor the media have paid much attention to NLP methods for election and refe­rendum fore­casting, …” (Celli et al. 2016: 117),

d.h.

„[b]islang haben jedoch weder Mei­nungs­for­schungs­in­stitute noch die Medien NLP-Methoden für die Vor­hersage von Wahlen und Volks­ab­stim­mungen viel Auf­merk­samkeit geschenkt, …“ (Celli et al. 2016: 117).

Ein grund­sätz­liches Problem, vor dem alle „data mining“-Strategien stehen, ist, dass sie zwar Muster oder Bezie­hungen aus Daten her­aus­filtern können, aber keine Aussage darüber erlauben, ob diese Muster in der realen Welt und nicht bloß sta­tis­tisch als metho­di­sches Artefakt bestehen, welcher Art gefundene Zusam­men­hänge sind – sind sie z.B. als Kau­sal­zu­sam­men­hänge zu werten? – und welche lebens­prak­tische Bedeutung sie haben, falls sie eine haben. Es ist also immer eine Inter­pre­ta­ti­ons­leistung not­wendig (Seifert 2006: 201), und für diese gibt es so gut wie keine ver­bind­lichen Standards.

Die Frage danach, warum Vor­her­sagen durch Experten und Mei­nungs­for­schungs­in­stitute so oft dane­ben­liegen und Algo­rithmen, die riesige Daten­mengen auf Muster hin durch­suchen, bislang auch keinen Königsweg des Ora­kelns bieten, beschäftigt viele For­scher und viele von ihnen dauerhaft.

Gibt man z.B. heute die Such­be­griffe „Brexit refe­rendum fore­casting“ in die Such­ma­schine von Google Scholar ein, dann erhält man 10.900 Ein­träge, wobei unter meinen Favo­riten (allein auf­grund ihres Unter­hal­tungs­wertes) die­je­nigen Texte sind, in denen die Autoren noch Jahre nach dem Refe­rendum die Frage beant­worten wollen, wie sich die hef­tigen Regen­fälle am Tag des Refe­rendums auf die Wahl­be­tei­ligung aus­ge­wirkt haben und ins­be­sondere, ob sie die Wahl­be­tei­ligung derer, die für einen Ver­bleib in der EU waren, und derer, die für einen Aus­tritt aus der EU waren, unter­schiedlich beein­flusst haben, bzw. ob das Ver­ei­nigte König­reich noch in der EU wäre, wenn der Tag des Refe­rendums ein son­niger Tag gewesen wäre (s. z.B. den Text von Patrick A. Leslie und Arı Barış (2018). Immerhin wirft das Interesse hieran ein ganz neues Licht auf das Gerücht, dass es erheb­liche Ver­suche diver­serer Regie­rungen gibt, das Wetter zu beeinflussen ….)

Wenn schon Experten, „Mus­ter­er­kenner“ und pro­fes­sio­nelle Pro­gnos­tiker aller Art mit ihren Vor­her­sagen häufig dane­ben­liegen, gilt dies dann nicht um so mehr für Nicht-Experten bzw. „normale“ Bürger, denn haben Letzere nicht eine größere Wahr­schein­lichkeit, kogni­tiven Ver­zer­rungen zum Opfer zu fallen oder die Bedeutung von Zusam­men­hängen nicht zu erkennen oder falsch zu interpretieren?!

Nein:

“The emergent lite­rature on citizen fore­casting sug­gests that the public, in the aggregate, can often accu­rately predict the out­comes of elec­tions” (Morisi & Leeper 2022: o.S.),

d.h.

„Die bislang vor­lie­gende Lite­ratur über Bür­ger­pro­gnosen deutet darauf hin, dass die Öffent­lichkeit in ihrer Gesamtheit die Ergeb­nisse von Wahlen oft genau vor­her­sagen kann“ (Morisi & Leeper 2022: o.S.).

(Diese Lite­ratur umfasst u.a. Duf­resne et al. 2022; Lewis-Beck & Steg­maier 2011; Miller et al. 2012; Murr 2016; Murr & Lewis-Beck 2021; Murr & Lewis-Beck 2022; Tem­porão et al. 2019; eine Aus­nahme unter den nahezu durchweg posi­tiven Befunden stellt die Studie von Ganser & Riordan 2015 dar, in der die in der Poli­tik­wis­sen­schaft tra­di­tio­nelle Frage nach der Wahl­ab­sicht das Wahl­er­gebnis besser vor­her­sagte als die Frage nach dem erwar­teten Wahl­ausgang, während Murr, Steg­maier und Lewis-Beck 2021 – auf der Basis anderer Daten – ihrer­seits das Gegenteil feststellten.)

Wohl­ge­merkt: es ist die Gesamtheit der Befragten, die Wahl­er­geb­nisse oft genau vor­her­sagen kann; was das bedeutet, beschreibt Sjöberg (2008) in der Zusam­men­fassung seiner Studie:

“Four groups made fore­casts of the outcome of the Swedish Par­lia­mentary election in the fall of 2006. They con­sisted of members of the public, poli­tical sci­en­tists, jour­na­lists writing about domestic politics in Swedish daily news­papers, and jour­na­lists who were editing sec­tions of readers’ letters in daily news­papers. They esti­mated, using a 12-step category scale, which per­centage of the votes that they believed 7 parties would get in the election. Data were then obtained on the outcome of the election, and on the two opi­nions polls closest in time to it. When median forecast were com­pared across groups, it was found that the group from the public was most suc­cessful in fore­casting the outcome of the election. This was in spite of the fact that the median error made by indi­vidual members of that group was about 50 percent larger than the median error made by members of other groups. The two polls were less effi­cient than the group from the public and ove­re­sti­mated the span between the incumbent government and the oppo­sition by a factor of 2. The members of the public and jour­na­lists showed some wishful thinking in their fore­casts. There were large and con­sistent indi­vidual dif­fe­rences in fore­casting ability. Men per­formed better than women, as did those who expressed more interest and know­ledge in politics” (Kur­siv­set­zungen d.d.A.).
„Vier Gruppen gaben Pro­gnosen zum Ausgang der schwe­di­schen Par­la­ments­wahlen im Herbst 2006 ab. Sie bestanden aus Bürgern, Poli­tik­wis­sen­schaftlern, Jour­na­listen, die in schwe­di­schen Tages­zei­tungen über Innen­po­litik schreiben, und Jour­na­listen, die in Tages­zei­tungen Leser­brief­spalten redi­gieren. Sie schätzten anhand einer 12-stu­figen Kate­go­rien­skala, wie viel Prozent der Stimmen ihrer Meinung nach 7 ver­schiedene Par­teien bei der Wahl erhalten würden. Anschließend wurden Daten zum Wahl­er­gebnis und zu den beiden zeitlich am nächsten lie­genden Mei­nungs­um­fragen erhoben. Beim Ver­gleich der Zen­tral­werte [oder Median: der Wert, der in einer sta­tis­ti­schen Ver­teilung, in der alle gemes­senen Werte in eine (nor­ma­ler­weise) auf­stei­gende Rang­folge gebracht worden sind, in der Mitte der Ver­teilung liegt] für die Vor­her­sagen der ver­schie­denen Gruppen wurde fest­ge­stellt, dass die Gruppe der Bür­ge­rinnen und Bürger den Wahl­ausgang am besten vor­her­sagen konnte. Und das, obwohl der Medi­an­fehler der ein­zelnen Mit­glieder dieser Gruppe etwa 50 % größer war als der Medi­an­fehler der Mit­glieder der anderen Gruppen. Die beiden Mei­nungs­for­schungs­in­stitute waren weniger effi­zient als die Gruppe der Bürger/Mitglieder der Öffent­lichkeit und über­schätzten den Abstand zwi­schen der amtie­renden Regierung und der Oppo­sition um den Faktor 2. Die Mit­glieder der Öffent­lichkeit und die Jour­na­listen zeigten in ihren Pro­gnosen ein gewisses Wunsch­denken. Es gab große und beständige indi­vi­duelle Unter­schiede in der Pro­gno­se­fä­higkeit. Männer schnitten besser ab als Frauen, ebenso wie die­je­nigen, die mehr Interesse und Wissen über Politik zeigten“

Wie aus dieser Zusam­men­fassung der Studie von Sjöberg erkennbar ist, können „normale“ Bürger nicht nur Wahl­er­geb­nisse ziemlich genau vor­her­sagen, sondern sie schneiden in ihren Vor­her­sagen auch besser ab als ver­schiedene Arten von Experten wie z.B. Poli­tik­wis­sen­schaftler oder Jour­na­listen besser als Pro­gnos­tiker, die sich auf Vor­her­sa­ge­mo­delle oder Mei­nungs­um­fragen stützen, und zu diesem Ergebnis ist nicht nur Sjöberg (2008) gekommen, sondern u.a. auch Fisher und Shor­rocks (2017) und Graefe (2014; 2016).

Es ver­dient fest­ge­halten zu werden, dass die Qua­lität von Vor­her­sagen durch Gruppen von Bürgern auch – oder viel­leicht gerade – dann hoch ist/bleibt, wenn diese Gruppen explizit ohne Anspruch auf „Reprä­sen­ta­ti­vität“ aus­ge­wählt wurden wie das z.B. in der Studie von Graefe (2016) der Fall war. In einer anderen Studie haben die Autoren gezeigt, dass

“… even samples with a strong par­tisan bias can be used to generate useful fore­casts” (Roth­schild und Wolfers 2012: 41),

d.h.

„… sogar stark par­tei­ische Stich­proben können zur Gewinnung brauch­barer Pro­gnosen ver­wendet werden“ (Roth­schild und Wolfers 2012: 41),

wobei die „stark par­tei­ischen Stich­proben“ in dieser Studie zwei Stich­proben waren, von denen die eine nur Wähler der Repu­bli­kaner ent­hielt, die anderen nur Wähler der Demokraten.

Dies alles bedeutet nicht, dass die Vor­her­sagen von Gruppen „nor­maler“ Bürger in jedem Fall ver­lässlich sind , aber es bedeutet, dass sie, die „nor­malen“ Bürger, es sind, die – nach dem der­zei­tigen Stand der Erkenntnis – Wahl­er­geb­nisse häufig richtig vor­her­sagen können und häu­figer als Mei­nungs­for­schungs­in­stitute, Experten/-Panels, Jour­na­listen oder Politikwissenschaftler.

Aber warum können Gruppen von Bürgern Wahl­er­geb­nisse besser vor­her­sagen als indi­vi­duelle Bürger?

Murr (2011) erklärt sich dies auf der Basis des soge­nannten Geschwo­re­nen­theorems des fran­zö­si­schen Phi­lo­sophen und Mathe­ma­tikers Marquis de Cond­orcet (1785). Cond­orcet hat unter­sucht, unter welchen Bedin­gungen Grup­pen­ent­schei­dungen, besser, gleich oder schlechter sind als Ein­zel­ent­schei­dungen, und er zeigt, dass sich dann, wenn jedes Mit­glied die richtige Alter­native mit einer Wahr­schein­lichkeit von mehr als 50 Prozent wählt, die Wahr­schein­lichkeit einer kor­rekten Grup­pen­ent­scheidung mit zuneh­mender Grup­pen­größe der Unend­lichkeit nähert, während dann, wenn jedes Mit­glied die richtige Alter­native mit weniger als 50 Prozent Wahr­schein­lichkeit wählt, die Wahr­schein­lichkeit einer kor­rekten Grup­pen­ent­scheidung gegen Null geht. Leiter et al. weisen darauf hin, dass dieser Aggre­ga­tions-Effekt auch bei kleinen Gruppen besteht:

“Con­sider a group of three inde­pendent members each with a pro­ba­bility of choosing the correct alter­native of 0.6. This group chooses the correct alter­native using majority vote if at least two out of three members vote cor­rectly. Using the above formula, the pro­ba­bility of a correct group decision is 𝑃 = 3 × 0.6 2 × 0.4 + 0.6 3 = 0.648, an increase in accuracy of about 5 6 per­centage points. This pro­ba­bility increases as the group size increases: with five inde­pendent members this pro­ba­bility is 0.6824, with seven it is 0.7102, with nine it is 0.7334, and so on. In other words, even though indi­vi­dually members may only be slightly better than chance in getting it right, coll­ec­tively they may choose the correct alter­native with almost cer­tainty, if the group has enough members” (Leiter et al. 2018: 5–6).
„Betrachten wir eine Gruppe von drei unab­hän­gigen Mit­gliedern, von denen jedes eine Wahr­schein­lichkeit von 0,6 hat, die richtige Alter­native zu wählen. Diese Gruppe wählt die richtige Alter­native per Mehr­heits­be­schluss, wenn min­destens zwei von drei Mit­gliedern richtig abstimmen. Nach der obigen Formel [von Con­cordet, hier nicht wie­der­ge­geben; sie steht bei Leiter et al. 2018 auf Seite 5] beträgt die Wahr­schein­lichkeit einer kor­rekten Grup­pen­ent­scheidung 𝑃 = 3 × 0,62 × 0,4 + 0,63 = 0,648, was einer Erhöhung der Genau­igkeit um etwa 5 Pro­zent­punkte ent­spricht. Diese Wahr­schein­lichkeit steigt mit zuneh­mender Grup­pen­größe: bei fünf unab­hän­gigen Mit­gliedern beträgt diese Wahr­schein­lichkeit 0,6824, bei sieben 0,7102, bei neun 0,7334 usw. Mit anderen Worten: Auch wenn die ein­zelnen Mit­glieder nur gering­fügig besser als der Zufall liegen, können sie gemeinsam mit ziem­licher Sicherheit die richtige Alter­native wählen, wenn die Gruppe genügend Mit­glieder hat“ (Leiter et al. 2018: 5–6).

Man spricht in diesem Zusam­menhang häufig von der „Weisheit der Menge“ bzw. „wisdom of the crowd“.

Zusätzlich zu dieser rein mathe­ma­ti­schen Begründung haben Leiter et al. (2018) fest­ge­stellt, dass bestimmte Eigen­schaften der sozialen Netz­werke der Befragten Ein­fluss auf die Akku­ratheit von Vor­her­sagen haben:

“We use a unique German survey and con­sider direct mea­sures of social net­works in order to explore their role in election fore­casting. We find that three network cha­rac­te­ristics – size, poli­tical com­po­sition, and fre­quency of poli­tical dis­cussion – are among the most important variables when pre­dicting the accuracy of citizens’ election fore­casts” (Leiter et al. 2018: 1).
„Wir ver­wenden eine ein­zig­artige deutsche Bevöl­ke­rungs­be­fragung und berück­sich­tigen direkte Maße sozialer Netz­werke, um ihre Rolle bei der Wahl­pro­gnose zu unter­suchen. Wir stellen fest, dass drei Netz­werk­merkmale – Größe, poli­tische Zusam­men­setzung und Häu­figkeit poli­ti­scher Dis­kus­sionen  – zu den wich­tigsten Variablen bei der Vor­hersage der Genau­igkeit der Wahl­pro­gnosen der Bürger gehören“ (Leiter et al. 2018: 1).

Dagegen haben weder das Ausmaß der Expertise im Netzwerk noch seine Hete­ro­ge­nität Erklä­rungs­kraft mit Bezug auf die Qua­lität der Vor­hersage des Wahl­er­geb­nisses durch ein­zelne Bürger. (Man beachte, dass das zuletzt genannte Ergebnis mit dem oben berich­teten aus der Studie von Roth­schild und Wolfers (2012) mit bezug auf stark par­tei­ische Stich­proben über­ein­stimmt, also Stich­proben, die mit Bezug auf die Prä­ferenz für eine poli­tische Partei voll­ständig homogen sind.)

Die Qua­lität der Vor­hersage von Wahl­er­geb­nissen durch „normale“ Bürger ist also sowohl eine rein mathe­ma­tische Funktion als auch eine Funktion der Qua­lität der Vor­her­sa­ge­fä­higkeit indi­vi­du­eller Bürger, die ihrer­seits – sicherlich: u.a. – von einigen Eigen­schaften ihrer Netz­werke abhängt. Während die Vor­her­sa­ge­kraft von Wahl­er­geb­nissen durch (viele) „normale“ Bürger also aus mathe­ma­ti­schen Gründen hoch ist, ist sie nicht bei allen Gruppen „nor­maler“ Bürger glei­cher­maßen hoch (und – wie wir schon anhand anderer oben berich­teter Befunde gesehen haben – nicht bei allen Gruppen von Per­sonen glei­cher­maßen hoch (wie z.B. Jour­na­listen, die als Gruppe weniger gute Pro­gnosen abgeben als „normale“ Bürger als Gruppe).

Im Bereich der Bür­ger­pro­gnosen ist noch sehr, sehr viel For­schungs­arbeit zu leisten. Aber natürlich könnte man die Frage stellen, wozu man über­haupt darüber for­schen sollte, wer warum wie gut Pro­gnosen erstellen kann. Eine Antwort wäre gegeben, wenn Per­sonen in poli­ti­scher Ver­ant­wortung und Ver­wal­tungen in Über­ein­stimmung mit demo­kra­ti­schen Grund­sätzen an mög­lichst zuver­läs­sigen Pro­gnosen dahin­gehend inter­es­siert wären, ob ihre Beschlüsse oder Maß­nahmen geeignet sind, den Willen der Mehrheit der Bürger, die sie reprä­sen­tieren bzw. ver­walten sollen, umzu­setzen. Bedau­er­li­cher­weise scheinen wir derzeit in den west­lichen Staaten von solchen Ver­hält­nissen sehr weit ent­fernt zu sein:

“There is a long tra­dition of research on elec­toral fore­casting … and con­siderable interest in the topic per­sists to this day … Accurate now­casts, or long-term fore­casts, of these results are desired by a large set of stake­holders, such as poli­ti­cians, prac­ti­tioners and policy makers. Such an achie­vement would drive stra­tegic choices and influence poli­tical stra­tegies, as well as the financing of poli­tical parties” (Col­ladon 2020: 3).

Und:

“The author’s fin­dings are important not only in terms of fore­casting, they also give evi­dence to the influence that online news can have on voting inten­tions … Indeed, the question whether the online news are better for reve­aling or influencing elec­toral results remains open” (Col­ladon 2020: 37).

„Es gibt eine lange For­schungs­tra­dition im Bereich der Wahl­pro­gnosen … und das Interesse an diesem Thema ist bis heute unge­brochen … Genaue Now­casts oder lang­fristige Vor­her­sagen dieser Ergeb­nisse werden von einer Vielzahl von Inter­es­sen­gruppen wie Poli­tikern, Prak­tikern und Ent­schei­dungs­trägern gewünscht. Eine solche Leistung würde stra­te­gische Ent­schei­dungen vor­an­treiben und poli­tische Stra­tegien sowie die Finan­zierung von poli­ti­schen Par­teien beein­flussen“ (Col­ladon 2020: 3).

Und:

„Die Ergeb­nisse des Autors sind nicht nur im Hin­blick auf die Vor­hersage wichtig, sondern sie belegen auch den Ein­fluss, den Online-Nach­richten auf die Wahl­ab­sichten haben können … In der Tat bleibt die Frage offen, ob die Online-Nach­richten besser geeignet sind, Wahl­er­geb­nisse auf­zu­decken oder zu beein­flussen“ (Col­ladon 2020: 5; Her­vor­hebung d.d.A.).

Hinter dem Interesse von “stake­holdern” bzw. Inter­es­sen­gruppen, mög­lichst genau zu wissen, was Bürger von bestimmten Zielen, Poli­tiken oder Per­sonen wie z.B. Poli­tikern, die bei einer Wahl antreten, halten, dient also nicht dem Ziel, den Willen der Bürger mög­lichst gut umsetzen zu können, wie das in einer Demo­kratie not­wendig ist, sondern dazu, „sta­te­gische Ent­sch­ei­gungen“ zu treffen, „poli­tische Stra­tegien“ zu ent­werfen und den Willen der Bürger zu beein­flussen – statt ihn mit eigenen Poli­tiken und Maß­nahmen mög­lichst in die Praxis umzusetzen.

Und viel­leicht ist dies der oder zumindest ein Grund daür, warum „normale“ Bürger bessere Pro­gnosen abgeben können als z.B. Jour­na­listen oder ver­meint­liche oder tat­säch­liche Experten: Letztere sind als solche „stake­holder“ insofern als sie in einer Vielzahl von hier­ar­chi­schen Abhän­gig­keits­be­zie­hungen stehen, die es ihnen ent­weder direkt zur Aufgabe machen, statt im eigent­lichen Sinn zu pro­gnos­ti­zieren ver­meint­liche „Pro­gnosen“ als Mittel zur Beein­flussung des Bür­ger­willens zu ver­breiten, oder sie an der Auf­stellung und Ver­breitung echter Pro­gnosen durch sozialen Druck innerhalb einer Echo­kammer, hindern, während „normale“ Bürger mit ihren Pro­gnosen nicht beein­flussen wollen, sondern tat­sächlich vor­her­sagen möchten, und dabei auch nicht von einem „stark par­tei­ischen“ Netzwerk behindert werden (oder sich von ihm nicht behindern lassen).

Wenn das zutrifft, dann bedeutet das, dass nicht alle Echo­kammern gleich beschaffen sind; dann ist nicht das Vor­han­densein von Echo­kammern für die Akku­ratheit von Pro­gnosen relevant, sondern die Frage, ob eine Echo­kammer eine mehr oder weniger private ist oder eine, die in hier­ar­chische Abhän­gig­keits­struk­turen ein­ge­lassen ist, womit die „Pro­gnose“ zur ver­pflich­tenden Soli­da­ri­täts­be­kundung wird (sofern sie nicht direkt zum Beein­flus­sungs­in­strument mutiert).

Der „Weisheit der Menge“ stehen dann die Inter­essen der Stake­holder und der Gehorsam der Abhän­gig­keits­struk­turen Befan­genen gegenüber.


Dieser Beitrag erschien zuerst bei sciencefiles.org