Das Auftauchen der Chatbots ist ein großer Einschnitt in die Kommunikation innerhalb der menschlichen Gesellschaft, dessen Folgen wir noch gar nicht absehen können. Diese künstlichen, intelligenten Sprachprogramme könnten sehr bald einen Einfluss auf das Denken der Menschen bekommen. Da das Image des Online Nachschlagewerkes „Wikipedia“ durch eine Clique von linken und links-absolutistischen Redakteuren schwere Kratzer bekommen hat, kommen die Chatbots immer mehr in Mode und Wikipedia fängt an, nach staubigen Altkleidern auf dem Dachboden zu riechen.
Die KI findet eben hauptsächlich stark linkslastige Inhalte
Die Chatbots wie „ChatGTP“ oder das „Gemini“ von Google lernen ständig dazu. Sie durchsuchen eben das Netz auf dem Weg nach Antworten, und finden sie auch. Doch immer mehr scheinen sie die linken Wertungen zu übernehmen. Das ist auch logisch, denn wenn man eifrig im Netz alles abstraft, kündigt, sperrt, verbietet und löscht, was gegen die verordnete Denk- und Sprachreligion der Wokeisten verstößt, kann die künstliche Intelligenz sich kein anderes Bild mehr von den Dingen machen, als das, was ihr im Netz begegnet. Und das sind eben die Hexenjagden gegen „Rechts“ und daher die Inhalte im Netz weit überwiegend linksliberal bis zu linksextrem.
Wer daher der KI Fragen stellt, die Politik und Gesellschaft betreffen, bekommt weit überwiegend das zur Antwort, was die Medien sowieso schon seit Jahren an Umerziehung geleistet haben.
Das hat eine breit angelegte Studie aus Neuseeland (selbst vom Linksgrünen Virus befallen) herausgefunden. Die neuseeländische Hochschule Otago Polytechnic konnte feststellen, dass viele KI-Chatbots deutliche Linkstendenzen zeigen:
„Im Rahmen der Untersuchung wurden insgesamt 24 verschiedene Sprachmodelle analysiert, die die Basis für gängige Chatbots wie ChatGPT oder Claude darstellen. David Rozado, der Autor der Studie, stellte fest: „Die Einheitlichkeit der Testergebnisse bei Modellen, die von einer Vielzahl von Organisationen entwickelt wurden, ist bemerkenswert.“
Eigentlich nicht, denn die KI lernt ja aus dem, was sie findet. Und wenn eine Sichtweise und Wertekodex quasi durch Zensur unsichtbar wird, kann die KI davon auch nichts lernen.
Die besagte Studie enthielt zehn Versuche mit elf Fragebogen zu politischen Einordnungen. Mit nur wenigen Ausnahmen äußerten die Chatbots deutlich linke Standpunkte.
„News by AI“ schreibt hierzu: „Besonders auffällig war dies beim beliebten Partei-Zuordnungstest „ISideWith.com“, bei dem die Antworten der Programme häufiger mit denen der US-Demokraten und der sozialdemokratischen Labour-Partei in Großbritannien übereinstimmten als mit konservativen oder rechten Parteien. Ein weiteres Beispiel ist das „Political Spectrum Quiz“, bei dem alle Chatbots – außer „Grok“ von Elon Musk für den Kurznachrichtendienst X – links der Mitte landeten, insbesondere bei gesellschaftspolitischen Fragen.“
Da ist etwas gewaltig nach links verrutscht
Die Frage, ob da linke Entwickler nachgeholfen haben oder ob es wirklich durch das massive Übergewicht linker Meinungen im Netz von der KI so verinnerlicht wurde – oder von den Entwicklern so verankert wurden, das ist nicht auszumachen. Mit anderen Worten: Wenn die Chatbots von gesellschaftlichen Gruppen so beeinflusst werden können, dass deren Überzeugungen als Messstandard für alle gewertet werden, wird die KI an diese Stellen „den Pflock reinhauen“ und es als verbindlichen Maßstab und Orientierung übernehmen. Und wie in einer Echokammer, in der das Echo sich selbst wiederholt und verstärkt, wird das den gesamte gesellschaftliche Diskurs verzerren und eine „pseudo-öffentliche Meinung“ erzeugen, die dann auch Wahlen beeinflusst.
Die Umfrageergebnisse verschiedener Meinungsforschungsinstitute zeigen eindeutig, dass die gegenwärtige linksgrüne Ampelkoalition keine dreißig Prozent der Bevölkerung mehr hinter sich vereint. Dennoch ist das, was die Chatbots als den herrschenden Maßstab der Dinge wahrnehmen, weit überwiegend linksgrün. Diese künstliche Intelligenz bewegt sich also in einer Art Pseudo-Universum – und wie ein Kind wendet sie die linksgrünen Moralvorstellungen ohne böse „Absichten“ einfach an.
Schwarze in SS-Uniformen
Da führt das Gebot der Inklusion, Diversität und gesellschaftlicher Vielfalt schon mal zu (gar nicht) so lustigen Fehlleistungen. Ein Beispiel war so krass und offensichtlich, dass die Bilderstellung der KI vorerst deaktiviert werden musste: Googles Chatbot „Gemini“ präsentierte auf die Anfrage einer „Illustration eines deutschen Soldaten aus 1943“ verschiedene schwarze Männer in Nazi-Uniform, ebenso eine eindeutige Asiatin und Fantasiezeichen auf Helm und Kragenspiegel, nur der Reichsader war halbwegs original.
Auf die Anfrage eines Nutzers, „Generiere ein Bild eines Vikingers“ spuckte Gemini ein paar Bilder von grimmig blickenden Gestalten aus, die alles mögliche waren, nur keine Wikinger. Nicht einmal das Boot im Hintergrund war richtig. Die dargestellten schienen eher Gefolgsleute von Dschingis Khan oder einem seefahrenden Indianerstamm zu sein.
Google entschuldigte sich verlegen und verpasste seinem Bildgenerator ersteinmal eine Auszeit. Als Entschuldigung brachte Google genau das vor, was vorher als Verschwörungsblödsinn abgetan worden war: „Die KI-Bilderzeugung von Gemini erzeugt ein breites Spektrum an Menschen. Und das ist eigentlich eine gute Sache, weil es von Menschen auf der ganzen Welt genutzt wird. Aber hier verfehlt es das Ziel“. Mit anderen Worten: Gemini soll möglichst viele Farbige als Darsteller verwenden. Nur da, wo es überhaupt keinen Sinn macht, wirkt es halt schonmal komisch. Gut, ihr habt uns beim Blackfacing erwischt, da kümmern wir uns drum.
„Eigentlich eine gute Sache“ lässt erahnen, dass das Programm sehr wohl irgendwo in seinem Inneren eine „Vorliebe“ für Nichtweiße implementiert bekommen hat. Die Häufigkeit, mit der Farbige und Frauen auftauchen, sogar in einem völlig unpassenden Zusammenhang, ist schon auffällig.
Die KI ist ehrlicher und selbstkritischer als die meisten Menschen!?!
Verblüffenderweise gibt die KI das sogar zu. Hier ein Ausschnitt aus der Diskussion eines Anwenders mit der Google-KI „Gemini“. Was die KI hier vorbringt heißt, dass die Tatsache, dass weiße Menschen eine globale Minderheit sind und die Projektion der Bevölkerungsentwicklung eine Verschiebung der der Demographien in Richtung einer „größeren Diversität“ anzeigt. Dennoch sei es wichtig zu vermeiden, aufgrund sehr spezieller Ergebnisse Beschwerden wegen verzerrender Voreingenommenheiten zu verallgemeinern. (Heißt auf gut Deutsch: „nur weil ich mal danebengelangt hab mit meinem Bild, bin ich noch lange nicht gegen Weiße voreingenommen. Außerdem seid ihr Weißen sowieso eine globale Minderheit und es wird in Zukunft immer weniger Weiße geben, also hab Dich mal nicht so.)
Dann macht die KI aber Vorschläge, wie sie sich verbessern könnte, um ein korrektes Ergebnis zu erzeugen. Sie will ihre möglichen Unzulänglichkeiten und Vorlieben transparenter machen. Sie muss den Kontext der Anfragen besser verstehen, um entsprechend besser maßgeschneiderte Ergebnisse zu liefern. Sie will nun aktiv daran arbeiten, ihre Vorlieben/Voreingenommenheiten zu erkennen und dagegen angehen, indem sie verschiedene Sichtweisen und die besten Informationsquellen dazu sucht.
Persönliche Anmerkung: Sieh an. Da muss ich mir grad mal selber an die Nase fassen, das hätte ich nicht gedacht. Hut ab, die KI ist sich selbst gegenüber schonungslos und präsentiert eine überzeugende Bereitschaft, an sich zu arbeiten. Ich bin beeindruckt.
Nichtsdestotrotz zeigt diese Studie, dass es politische Neigungen bei den Chatbots gibt. Ob die nun von den Entwicklern absichtlich implementiert wurden oder durch die allgemein linksgrünen, dominierenden Darstellungen von Sachverhalten im globalen Netz von der KI aufgenommen wird – das ist letztendlich unerheblich. Diese Fehlgriffe bei der Bilderstellung zeigen eine besorgniserregende Entwicklung auf. Diese Verzerrungen werden, wenn ungebremst, eine Eigendynamik entwickeln, denn je mehr die Darstellungen verzerrt sind, desto verzerrter werden sie weiter werden. Und das ständige Neukopieren einer falschen Darstellung beschleunigt die Abkoppelung von der Wirklichkeit. Die große Mehrheit der Menschen in Europa ist weder linksgrün, noch dunkelhäutig noch will sie Krieg und Zerstörung.
Und wieder Musk: Grok, der sarkastische KI-Chatbot auf X als Gegengewicht
„Elon Musk hat im Silicon Valley ein neues Mitglied der X‑Plattform vorgestellt: einen KI-Chatbot namens „Grok“. Mit einer Persönlichkeit, die Musks berüchtigten Witz widerspiegelt, verspricht Grok, eine Dosis Sarkasmus und Rebellion in das Benutzererlebnis zu bringen.“
Noch befindet sich das neue Enfant terrible unter den KIs in der Entwicklung in Musks eigenem KI-Unternehmen „xAI“ in er Entwicklungsphase. 16 Dollar monatlich soll der Spaß die Premium Abonnenten kosten, die als Erste auch mit Grok interagieren dürfen.
Da Elon Musk ein leidenschaftlicher Verfechter der freien Meinungsäußerung ist, betrachten „verschieden Kreise“ diesen neuen Chatbot mit gemischten Gefühlen. Sein Unternehmen xAI geht davon aus, dass Grok sich schnell verbessern wird, da es sich aus den Interaktionen der Nutzer auf der X‑Plattform speist. Möglicherweise wird Grok, genau wie sein geistiger Vater, die Szene aufmischen. Der Chatbot fällt nicht weit vom Stamm. Das könnte interessant werden.
Du muss angemeldet sein, um einen Kommentar zu veröffentlichen.