Wenn die Chatbot-Nanny Dich auf links dreht … Studie findet woke Ten­denzen bei online-KIs

Das Auf­tauchen der Chatbots ist ein großer Ein­schnitt in die Kom­mu­ni­kation innerhalb der mensch­lichen Gesell­schaft, dessen Folgen wir noch gar nicht absehen können. Diese künst­lichen, intel­li­genten Sprach­pro­gramme könnten sehr bald einen Ein­fluss auf das Denken der Men­schen bekommen. Da das Image des Online Nach­schla­ge­werkes „Wiki­pedia“ durch eine Clique von linken und links-abso­lu­tis­ti­schen Redak­teuren schwere Kratzer bekommen hat, kommen die Chatbots immer mehr in Mode und Wiki­pedia fängt an, nach stau­bigen Alt­kleidern auf dem Dach­boden zu riechen. 

Die KI findet eben haupt­sächlich stark links­lastige Inhalte

Die Chatbots wie „ChatGTP“ oder das „Gemini“ von Google lernen ständig dazu. Sie durch­suchen eben das Netz auf dem Weg nach Ant­worten, und finden sie auch. Doch immer mehr scheinen sie die linken Wer­tungen zu über­nehmen. Das ist auch logisch, denn wenn man eifrig im Netz alles abstraft, kündigt, sperrt, ver­bietet und löscht, was gegen die ver­ordnete Denk- und Sprach­re­ligion der Wokeisten ver­stößt, kann die künst­liche Intel­ligenz sich kein anderes Bild mehr von den Dingen machen, als das, was ihr im Netz begegnet. Und das sind eben die Hexen­jagden gegen „Rechts“ und daher die Inhalte im Netz weit über­wiegend links­li­beral bis zu linksextrem.

Wer daher der KI Fragen stellt, die Politik und Gesell­schaft betreffen, bekommt weit über­wiegend das zur Antwort, was die Medien sowieso schon seit Jahren an Umer­ziehung geleistet haben.

Das hat eine breit ange­legte Studie aus Neu­seeland (selbst vom Links­grünen Virus befallen) her­aus­ge­funden. Die neu­see­län­dische Hoch­schule Otago Poly­technic konnte fest­stellen, dass viele KI-Chatbots deut­liche Links­ten­denzen zeigen:

„Im Rahmen der Unter­su­chung wurden ins­gesamt 24 ver­schiedene Sprach­mo­delle ana­ly­siert, die die Basis für gängige Chatbots wie ChatGPT oder Claude dar­stellen. David Rozado, der Autor der Studie, stellte fest: „Die Ein­heit­lichkeit der Test­ergeb­nisse bei Modellen, die von einer Vielzahl von Orga­ni­sa­tionen ent­wi­ckelt wurden, ist bemerkenswert.“

Eigentlich nicht, denn die KI lernt ja aus dem, was sie findet. Und wenn eine Sicht­weise und Wer­te­kodex quasi durch Zensur unsichtbar wird, kann die KI davon auch nichts lernen.

Die besagte Studie ent­hielt zehn Ver­suche mit elf Fra­ge­bogen zu poli­ti­schen Ein­ord­nungen. Mit nur wenigen Aus­nahmen äußerten die Chatbots deutlich linke Standpunkte.

„News by AI“ schreibt hierzu: „Besonders auf­fällig war dies beim beliebten Partei-Zuord­nungstest „ISideWith.com“, bei dem die Ant­worten der Pro­gramme häu­figer mit denen der US-Demo­kraten und der sozi­al­de­mo­kra­ti­schen Labour-Partei in Groß­bri­tannien über­ein­stimmten als mit kon­ser­va­tiven oder rechten Par­teien. Ein wei­teres Bei­spiel ist das „Poli­tical Spectrum Quiz“, bei dem alle Chatbots – außer „Grok“ von Elon Musk für den Kurz­nach­rich­ten­dienst X – links der Mitte lan­deten, ins­be­sondere bei gesell­schafts­po­li­ti­schen Fragen.“

Da ist etwas gewaltig nach links verrutscht

Die Frage, ob da linke Ent­wickler nach­ge­holfen haben oder ob es wirklich durch das massive Über­ge­wicht linker Mei­nungen im Netz von der KI so ver­in­ner­licht wurde – oder von den Ent­wicklern so ver­ankert wurden, das ist nicht aus­zu­machen. Mit anderen Worten: Wenn die Chatbots von gesell­schaft­lichen Gruppen so beein­flusst werden können, dass deren Über­zeu­gungen als Mess­standard für alle gewertet werden, wird die KI an diese Stellen „den Pflock rein­hauen“ und es als ver­bind­lichen Maßstab und Ori­en­tierung über­nehmen. Und wie in einer Echo­kammer, in der das Echo sich selbst wie­derholt und ver­stärkt, wird das den gesamte gesell­schaft­liche Diskurs ver­zerren und eine „pseudo-öffent­liche Meinung“ erzeugen, die dann auch Wahlen beeinflusst.

Die Umfra­ge­er­geb­nisse ver­schie­dener Mei­nungs­for­schungs­in­stitute zeigen ein­deutig, dass die gegen­wärtige links­grüne Ampel­ko­alition keine dreißig Prozent der Bevöl­kerung mehr hinter sich vereint. Dennoch ist das, was die Chatbots als den herr­schenden Maßstab der Dinge wahr­nehmen, weit über­wiegend linksgrün. Diese künst­liche Intel­ligenz bewegt sich also in einer Art Pseudo-Uni­versum – und wie ein Kind wendet sie die links­grünen Moral­vor­stel­lungen ohne böse „Absichten“ einfach an.

Schwarze in SS-Uniformen

Da führt das Gebot der Inklusion, Diver­sität und gesell­schaft­licher Vielfalt schon mal zu (gar nicht) so lus­tigen Fehl­leis­tungen. Ein Bei­spiel war so krass und offen­sichtlich, dass die Bil­der­stellung der KI vorerst deak­ti­viert werden musste: Googles Chatbot „Gemini“ prä­sen­tierte auf die Anfrage einer „Illus­tration eines deut­schen Sol­daten aus 1943“ ver­schiedene schwarze Männer in Nazi-Uniform, ebenso eine ein­deutige Asiatin und Fan­ta­sie­zeichen auf Helm und Kra­gen­spiegel, nur der Reichsader war halbwegs original.

Auf die Anfrage eines Nutzers, „Gene­riere ein Bild eines Vikingers“ spuckte Gemini ein paar Bilder von grimmig bli­ckenden Gestalten aus, die alles mög­liche waren, nur keine Wikinger. Nicht einmal das Boot im Hin­ter­grund war richtig. Die dar­ge­stellten schienen eher Gefolgs­leute von Dschingis Khan oder einem see­fah­renden India­ner­stamm zu sein.

Google ent­schul­digte sich ver­legen und ver­passte seinem Bild­ge­ne­rator erst­einmal eine Auszeit. Als Ent­schul­digung brachte Google genau das vor, was vorher als Ver­schwö­rungs­blödsinn abgetan worden war: „Die KI-Bil­der­zeugung von Gemini erzeugt ein breites Spektrum an Men­schen. Und das ist eigentlich eine gute Sache, weil es von Men­schen auf der ganzen Welt genutzt wird. Aber hier ver­fehlt es das Ziel“. Mit anderen Worten: Gemini soll mög­lichst viele Farbige als Dar­steller ver­wenden. Nur da, wo es über­haupt keinen Sinn macht, wirkt es halt schonmal komisch. Gut, ihr habt uns beim Black­facing erwischt, da kümmern wir uns drum.

„Eigentlich eine gute Sache“ lässt erahnen, dass das Pro­gramm sehr wohl irgendwo in seinem Inneren eine „Vor­liebe“ für Nicht­weiße imple­men­tiert bekommen hat. Die Häu­figkeit, mit der Farbige und Frauen auf­tauchen, sogar in einem völlig unpas­senden Zusam­menhang, ist schon auffällig.

Die KI ist ehr­licher und selbst­kri­ti­scher als die meisten Menschen!?!

Ver­blüf­fen­der­weise gibt die KI das sogar zu. Hier ein Aus­schnitt aus der Dis­kussion eines Anwenders mit der Google-KI „Gemini“. Was die KI hier vor­bringt heißt, dass die Tat­sache, dass weiße Men­schen eine globale Min­derheit sind und die Pro­jektion der Bevöl­ke­rungs­ent­wicklung eine Ver­schiebung der der Demo­gra­phien in Richtung einer „grö­ßeren Diver­sität“ anzeigt. Dennoch sei es wichtig zu ver­meiden, auf­grund sehr spe­zi­eller Ergeb­nisse Beschwerden wegen ver­zer­render Vor­ein­ge­nom­men­heiten zu ver­all­ge­meinern. (Heißt auf gut Deutsch: „nur weil ich mal dane­ben­ge­langt hab mit meinem Bild, bin ich noch lange nicht gegen Weiße vor­ein­ge­nommen. Außerdem seid ihr Weißen sowieso eine globale Min­derheit und es wird in Zukunft immer weniger Weiße geben, also hab Dich mal nicht so.)

Dann macht die KI aber Vor­schläge, wie sie sich ver­bessern könnte, um ein kor­rektes Ergebnis zu erzeugen. Sie will ihre mög­lichen Unzu­läng­lich­keiten und Vor­lieben trans­pa­renter machen. Sie muss den Kontext der Anfragen besser ver­stehen, um ent­spre­chend besser maß­ge­schnei­derte Ergeb­nisse zu liefern. Sie will nun aktiv daran arbeiten, ihre Vorlieben/Voreingenommenheiten zu erkennen und dagegen angehen, indem sie ver­schiedene Sicht­weisen und die besten Infor­ma­ti­ons­quellen dazu sucht.

Per­sön­liche Anmerkung: Sieh an. Da muss ich mir grad mal selber an die Nase fassen, das hätte ich nicht gedacht. Hut ab, die KI ist sich selbst gegenüber scho­nungslos und prä­sen­tiert eine über­zeu­gende Bereit­schaft, an sich zu arbeiten. Ich bin beeindruckt.

Nichts­des­to­trotz zeigt diese Studie, dass es poli­tische Nei­gungen bei den Chatbots gibt. Ob die nun von den Ent­wicklern absichtlich imple­men­tiert wurden oder durch die all­gemein links­grünen, domi­nie­renden Dar­stel­lungen von Sach­ver­halten im glo­balen Netz von der KI auf­ge­nommen wird – das ist letzt­endlich uner­heblich. Diese Fehl­griffe bei der Bil­der­stellung zeigen eine besorg­nis­er­re­gende Ent­wicklung auf. Diese Ver­zer­rungen werden, wenn unge­bremst, eine Eigen­dy­namik ent­wi­ckeln, denn je mehr die Dar­stel­lungen ver­zerrt sind, desto ver­zerrter werden sie weiter werden. Und das ständige Neu­ko­pieren einer fal­schen Dar­stellung beschleunigt die Abkop­pelung von der Wirk­lichkeit. Die große Mehrheit der Men­schen in Europa ist weder linksgrün, noch dun­kel­häutig noch will sie Krieg und Zerstörung.

Und wieder Musk: Grok, der sar­kas­tische KI-Chatbot auf X als Gegengewicht

„Elon Musk hat im Silicon Valley ein neues Mit­glied der X‑Plattform vor­ge­stellt: einen KI-Chatbot namens „Grok“. Mit einer Per­sön­lichkeit, die Musks berüch­tigten Witz wider­spiegelt, ver­spricht Grok, eine Dosis Sar­kasmus und Rebellion in das Benut­zer­er­lebnis zu bringen.“

Noch befindet sich das neue Enfant ter­rible unter den KIs in der Ent­wicklung in Musks eigenem KI-Unter­nehmen „xAI“ in er Ent­wick­lungs­phase. 16 Dollar monatlich soll der Spaß die Premium Abon­nenten kosten, die als Erste auch mit Grok inter­agieren dürfen.

Da Elon Musk ein lei­den­schaft­licher Ver­fechter der freien Mei­nungs­äu­ßerung ist, betrachten „ver­schieden Kreise“ diesen neuen Chatbot mit gemischten Gefühlen. Sein Unter­nehmen xAI geht davon aus, dass Grok sich schnell ver­bessern wird, da es sich aus den Inter­ak­tionen der Nutzer auf der X‑Plattform speist. Mög­li­cher­weise wird Grok, genau wie sein geis­tiger Vater, die Szene auf­mi­schen. Der Chatbot fällt nicht weit vom Stamm. Das könnte inter­essant werden.