Bild: https://cdn.pixabay.com/photo/2024/05/08/07/50/ai-generated-8747658_1280.jpg

Die Väter der KI warnen, dass die Tech­no­logie in den nächsten Jahren zur unbe­re­chen­baren Gefahr wird!

Geoffrey Hinton – einer der Väter der KI-Tech­no­logie – meint, dass die Wahr­schein­lichkeit, dass die Wei­ter­ent­wicklung von KI zur Aus­lö­schung der Menschheit führt, in den nächsten drei Jahr­zehnten bei 10 % bis 20 % liegt, da sich die Ver­än­de­rungen schnell voll­ziehen. Er warnt, dass das Tempo der Ver­än­de­rungen in der Tech­no­logie viel schneller vor­an­schreitet als erwartet. Früher hatte Hinton gesagt, dass die Wahr­schein­lichkeit, dass die Tech­no­logie ein kata­stro­phales Ergebnis für die Menschheit auslöst, lediglich bei ungefähr 10 % liegt. (Von Jason Mason)

Der in London geborene Pro­fessor von der Uni­ver­sität Toronto sagt voraus, dass wir Men­schen dann im Ver­gleich zur Intel­ligenz hoch ent­wi­ckelter KI-Systeme wie Klein­kinder erscheinen werden. Pro­fessor Hinton sorgte für Auf­sehen, als er seinen Job bei Google kün­digte, um offener über die Risiken der unkon­trol­lierten KI-Ent­wicklung zu sprechen. Er äußerte Bedenken, dass bös­willige Akteure die Tech­no­logie nutzen werden, um anderen zu schaden. Und das ist bereits ein­ge­treten. Ein zen­trales Anliegen von KI-Sicher­heits­kam­pagnen ist, dass die Schaffung von all­ge­meiner künst­licher Intel­ligenz, also von Sys­temen, die intel­li­genter sein werden als Men­schen, dazu führen könnte, dass die neue Tech­no­logie eine exis­ten­zielle Bedrohung dar­stellt, indem sie sich der mensch­lichen Kon­trolle entzieht.

Er sagte in einem Interview aus dem Jahr 2024: „Die Situation, in der wir uns jetzt befinden, ist, dass die meisten Experten auf diesem Gebiet denken, dass wir wahr­scheinlich innerhalb der nächsten 20 Jahre KIs ent­wi­ckeln werden, die intel­li­genter sind als Men­schen. Und das ist ein sehr beängs­ti­gender Gedanke.“ Das der­zeitige Ent­wick­lungs­tempo sei viel schneller als Experten erwartet hatten und sie for­derten nunmehr eine staat­liche Regu­lierung der Technologie.

Der kana­dische Pionier im Bereich des maschi­nellen Lernens, Yoshua Bengio, Autor des ersten inter­na­tio­nalen AI-Sicher­heits­be­richts und auch ein Vater der KI, warnt, dass unkon­trol­lierte Inves­ti­tionen in Rechen­leistung für KI ohne Auf­sicht gefährlich sind. Bengio arbeitete an neu­ro­nalen Netz­werken und maschi­nellem Lernen, der Soft­ware­ar­chi­tektur, die modernen KI-Modellen zugrunde liegt. Innerhalb von drei bis fünf Jahren – so pro­gnos­ti­ziert Herr LeCun – wird KI einige Aspekte mensch­licher Intel­ligenz auf­weisen. Roboter, die bei­spiels­weise Auf­gaben aus­führen können, für die sie nicht pro­gram­miert oder trai­niert wurden. Der ehe­malige Google-CEO Eric Schmidt (auch ein Vater der KI) sagte, dass KI in einigen Sze­narien ein extremes Risiko dar­stellen wird. Er sagte gegenüber der Presse, dass die Tech­no­logie in einem bös­ar­tigen bio­lo­gi­schen Angriff von jemandem mit schlechten Absichten ein­ge­setzt werden könnte. Viel­leicht ist das längst geschehen?

Viele Enthu­si­asten sind nicht darauf vor­be­reitet, von einigen der Väter der KI, wie Yoshua Bengio, Geoffrey Hinton, Stuart Russell oder Max Tegmark, zu hören, wie weit die Dinge mög­li­cher­weise aus dem Ruder laufen könnten. Im Mit­tel­punkt ihrer Bedenken steht das Wett­rennen zur AGI (all­ge­meinen künst­lichen Intel­ligenz), was bedeuten würde, dass es zum ersten Mal in der Geschichte der Menschheit ein künst­liches Wesen geben würde, das nicht menschlich ist und gleich­zeitig hohe Auto­nomie und hohe Intel­ligenz besitzt und mög­li­cher­weise Ziele ent­wi­ckelt, die nicht im Ein­klang mit dem Wohl­be­finden der Men­schen stehen würden.

Die Vor­stellung, dass wir die Kon­trolle über eine AGI ver­lieren könnten, die sich dann gegen uns wendet, klingt zunächst wie Science-Fiction. Aber ist das wirklich so weit her­geholt, wenn man das rasante expo­nen­tielle Wachstum der KI-Ent­wicklung betrachtet? Wie Bengio her­vorhob, haben einige der fort­schritt­lichsten KI-Modelle bereits ver­sucht, mensch­liche Pro­gram­mierer während der Tests zu täu­schen, sowohl um ihre fest­ge­legten Ziele zu erreichen als auch um zu ent­kommen, nicht gelöscht oder durch ein Update ersetzt zu werden! Dabei kam auch ver­suchte Erpressung ins Spiel.
KI-Systeme in den höheren Risi­ko­stufen müssten gegenüber einem Regu­lierer nach­weisen, dass sie bestimmte rote Linien nicht über­schreiten, wie zum Bei­spiel die Fähigkeit, sich selbst auf andere Com­puter zu kopieren.

Doch wir müssen nicht mehr darauf warten, dass eine AGI oder einige KI-Systeme eigen­ständig ent­scheiden, die Welt mit Rechen­zentren zu über­schwemmen, um sich schneller wei­ter­zu­ent­wi­ckeln. Ame­ri­ka­nische Tech-Unter­nehmen und ihre chi­ne­si­schen Kon­kur­renten tun dies bereits. Selbst in den aktu­ellen frühen Phasen der KI ist ihr Ener­gie­ver­brauch kata­strophal. Laut Unter­su­chungen machen Rechen­zentren bereits mehr als 6 % des gesamten Strom­ver­brauchs in den USA und China aus, und die Nach­frage wird noch weiter steigen. Und diese Lobbys geben viel Geld aus, um staat­liche Regu­lierung der Ent­wicklung neuer Systeme zu ver­hindern. Wie es aus­sieht, wird China in diesem Wett­rennen als Sieger hervorgehen.

Während die besten Köpfe der künst­lichen Intel­ligenz ver­suchen, die Tech­no­logie men­schen­ähn­licher denken zu lassen, haben andere For­scher die ent­ge­gen­ge­setzte Frage gestellt, wie wird KI die Art und Weise ver­ändern, wie wir Men­schen denken? Viele Tech­no­lo­gie­ex­perten befürchten, dass KI den Men­schen in Fähig­keiten, die für das Menschsein zentral sind, wie Empathie und tiefe Gedan­ken­gänge, schlechter machen wird. Die Befürchtung ist, dass während eine Min­derheit von diesen KI-Werk­zeugen immer stärker pro­fi­tieren wird, die meisten Men­schen hin­gegen ihre Hand­lungs­fä­higkeit, Krea­ti­vität, Ent­schei­dungs­findung und andere lebens­wichtige Fähig­keiten an diese heute noch pri­mi­tiven KIs abgeben werden, schrieb der Futurist John Smart in einem Aufsatz, der für einen Bericht einer Uni­ver­sität mit dem Titel „Die Zukunft des Mensch­seins“ ver­öf­fent­licht wurde.

Unter­nehmen wie Google, Microsoft und Meta ver­suchen soge­nannte KI-Agenten zu ent­wi­ckeln, die Auf­gaben im Namen einer Person aus­führen können. Doch Experten warnen in dem Bericht, dass solche Fort­schritte die Men­schen in Zukunft zu abhängig von KI machen könnten. Der Bericht bestätigt daher For­schungen, die von Microsoft und der Car­negie Mellon Uni­versity ver­öf­fent­licht wurden und nahe­legen, dass die Nutzung gene­ra­tiver KI-Tools negative Aus­wir­kungen auf die kri­tische Denk­fä­higkeit bei Men­schen hat. Die Infor­ma­tionen sagten auch voraus, dass KI bis 2035 über­wiegend negative Ver­än­de­rungen in 12 mensch­lichen Eigen­schaften ver­ur­sachen wird, dar­unter soziale und emo­tionale Intel­ligenz, die Fähigkeit und Bereit­schaft, genau zu über­legen, Empathie sowie die Anwendung mora­li­schen Urteils­ver­mögens und das psy­chische Wohl­be­finden betreffend.

Man erwartet, dass Men­schen bald auf KI-Agenten ange­wiesen sein werden, Tech­no­lo­gie­un­ter­nehmen bringen bereits erste Angebote von KI-Agenten auf den Markt. Doch mit diesem ein­fachen Zugang könnten Men­schen beginnen, Empathie an KI-Agenten anstatt auf andere Men­schen abzu­geben. Men­schen ent­wi­ckeln emo­tionale Bin­dungen zu KI-Per­sonen, was Bedenken auf­wirft, ob authen­tische, wech­sel­seitige Bezie­hungen zugunsten vor­her­seh­barer, kon­trol­lier­barer digi­taler Ver­bin­dungen in den Hin­ter­grund gedrängt werden. KI-Agenten und vir­tuelle Ange­stellte könnten bald in vielen Unter­nehmen Einzug halten.

KI-Firmen wurden gewarnt, die Bedrohung durch Super­in­tel­ligenz zu berechnen oder das Risiko ein­zu­gehen, dass sie der mensch­lichen Kon­trolle ent­kommt. Ein KI-Sicher­heits­ak­tivist fordert eine Bewertung der exis­ten­zi­ellen Bedrohung, ähnlich den Berech­nungen des Phy­sikers Robert Oppen­heimer vor dem ersten Atomtest in den Ver­ei­nigten Staaten. Max Tegmark sagte, er habe Berech­nungen ange­stellt, die denen des US-Phy­sikers Arthur Compton vor diesem Trinity-Test ähneln, und fest­ge­stellt, dass die Wahr­schein­lichkeit, dass eine hoch­ent­wi­ckelte KI eine exis­ten­zielle Bedrohung dar­stellt, jetzt nicht bei 20, sondern bei 90 % liege!

Die US-Regierung setzte den Trinity-Test im Jahr 1945 fort, nachdem sie die Zusi­cherung erhalten hatte, dass die Wahr­schein­lichkeit, dass eine Atom­bombe die Atmo­sphäre ent­zündet und die Menschheit gefährdet, äußerst gering sei. In einem von Tegmark und drei seiner Stu­denten am Mas­sa­chu­setts Institute of Tech­nology (MIT) ver­öf­fent­lichten Papier emp­fehlen sie, die Compton-Kon­stante zu berechnen, sie defi­niert in dem Papier die Wahr­schein­lichkeit, dass eine all­mächtige KI der mensch­lichen Kon­trolle ent­kommt und zur Gefahr wird.

 

Diese Ein­schätzung, die einige Monate nach der Ver­öf­fent­li­chung von ChatGPT ver­fasst wurde, läutete eine neue Ära der KI-Ent­wicklung ein und sagt voraus, dass KI-Labore in einem außer Kon­trolle gera­tenen Wettlauf gefangen seien, um immer leis­tungs­fä­higere digitale Intel­li­genzen ein­zu­setzen, die „niemand ver­stehen, vor­her­sagen oder zuver­lässig kon­trol­lieren“ kann!

Dario Amodei, CEO von Anthropic, einem Unter­nehmen zur Schaffung von künst­licher Intel­ligenz, hat eine deut­liche und beun­ru­hi­gende Warnung für uns alle aus­ge­sprochen. KI könnte schon sehr bald die Hälfte aller Ein­stiegsjobs im Büro­be­reich aus­lö­schen und die Arbeits­lo­sigkeit in den nächsten ein bis fünf Jahren auf 10–20 % ansteigen lassen. Amodei betonte, dass KI-Unter­nehmen und die Regie­rungen auf­hören müssen, die bevor­ste­henden Ver­än­de­rungen schön­zu­reden, denn die mög­liche mas­sen­hafte Eli­mi­nierung von Arbeits­plätzen in den Bereichen Tech­no­logie, Finanzen, Recht, Beratung und anderen Büro­be­rufen, ins­be­sondere bei Ein­stiegs­po­si­tionen sind sehr bedenklich. Die Gesetz­geber ver­stehen es nicht oder glauben nicht daran, dass es schnell ein­treten wird. CEOs haben Angst, darüber zu sprechen. Viele Arbeit­nehmer werden die Risiken, die durch die mög­liche Job-Apo­ka­lypse ent­stehen, erst erkennen, wenn es schon zu spät ist.

OpenAI, Google, Anthropic und andere große KI-Unter­nehmen ver­bessern ständig die Fähig­keiten ihrer großen KI-Sprach­mo­delle, um die mensch­liche Leistung bei immer mehr Auf­gaben zu erreichen und zu über­treffen. Dies pas­siert gerade und beschleunigt sich. Die US-Regierung, besorgt darüber, gegenüber China ins Hin­ter­treffen zu geraten oder die Arbeit­nehmer mit vor­zei­tigen War­nungen zu ver­un­si­chern, gibt wenige Kom­mentare dazu ab. Die Regierung und der Kon­gress regu­lieren die KI nicht und warnen die Öffent­lichkeit auch nicht davor.

Und dann, fast über Nacht, erkennen die Unter­neh­mens­leiter die Ein­spa­rungen, die sich aus der Ersetzung von Men­schen durch KI ergeben, und tun dies in großem Umfang. Sie hören auf, neue Stellen zu schaffen, besetzen bestehende Stellen nicht nach und ersetzen dann mensch­liche Arbeiter durch KI-Agenten oder ver­wandte auto­ma­ti­sierte Alter­na­tiven. Die Öffent­lichkeit erkennt es erst, wenn es zu spät ist. Das alles wird in sehr kurzer Zeit geschehen, in nur ein paar Jahren oder weniger, sagt Amodei. Viele dieser KI-Agenten sind bereits in Unter­nehmen im Einsatz, und viele weitere befinden sich im Aufbau.

Im Jahr 2024 erlebte die Tech-Branche einen Rückgang bei den Ein­stel­lungen, ins­be­sondere bei Ein­stiegs­po­si­tionen. Tech­no­lo­gie­un­ter­nehmen, ein­schließlich der 15 größten Tech-Unter­nehmen, rekru­tierten weniger Absol­venten, mit einem Rückgang der Ein­stel­lungen um 25 % im Ver­gleich zu 2023. Diese Pro­bleme haben zu anhal­tenden Ent­las­sungen in der Tech-Branche bei­getragen, wobei im Jahr 2024 min­destens 95.700 Arbeit­nehmer in US-ame­ri­ka­ni­schen Tech­no­lo­gie­un­ter­nehmen ent­lassen wurden, und der Trend setzt sich 2025 fort.

Mehr als 191.000 Arbeit­nehmer in US-ame­ri­ka­ni­schen Tech­no­lo­gie­un­ter­nehmen wurden im Jahr 2023 im Rahmen mas­siven Stel­len­abbaus ent­lassen, 2022 waren es bereits 93.000 Stellen. Sobald diese Tech­no­logien auf einem mensch­lichen Effi­zi­enz­level arbeiten können, was von jetzt an in sechs Monaten bis meh­reren Jahren der Fall sein könnte, werden Unter­nehmen von Men­schen auf Maschinen umstellen. Dies könnte in sehr kurzer Zeit Mil­lionen von Arbeits­plätzen vernichten.

Das Ergebnis könnte eine große Kon­zen­tration von Reichtum sein, und es könnte schwierig werden, dass ein erheb­licher Teil der Bevöl­kerung wirklich einen Beitrag leisten kann, sagte Amodei weiter. Das Macht­gleich­ge­wicht einer Demo­kratie beruht darauf, dass die durch­schnitt­liche Person durch die Schaffung wirt­schaft­licher Werte Ein­fluss hat. Der CEO sagte eben­falls, die Mög­lichkeit eines Miss­brauchs der Tech­no­logie durch böse Akteure könnte Mil­lionen von Leben bedrohen. Er sagte, das Risiko könnte bereits im Jahr 2025 oder 2026 auf­treten, obwohl er nicht genau wusste, ab wann es gefährlich wird.

Auch der Papst in Rom hat sich zu den Gefahren der Tech­no­logie geäußert. Ein Dokument stellt fest, dass KI erheb­liche Risiken und Potenzial für Miss­brauch birgt. KI stellt auch ein ernst­haftes Risiko dar, mani­pu­lierte Inhalte und falsche Infor­ma­tionen zu erzeugen, die Men­schen auf­grund ihrer Ähn­lichkeit mit der Wahrheit leicht irre­führen können. Dies könnte zum Täu­schen oder Ver­ur­sachen von Schaden ver­wendet werden, heißt es in den Richt­linien. Und weiter: Von KI erzeugte gefälschte Medi­en­in­halte können all­mählich die Grund­lagen der Gesell­schaft untergraben.

Der erste Papst aus den Ver­ei­nigten Staaten, wo die füh­renden KI-Unter­nehmen ansässig sind, beschrieb die Tech­no­logie als eine der größten Her­aus­for­de­rungen der kom­menden Jahre. Gesell­schaften müssen mög­li­cher­weise neue Wirt­schafts­mo­delle ent­wi­ckeln, so wie ein bedin­gungs­loses Grund­ein­kommen ange­sichts der dro­henden Mas­sen­ar­beits­lo­sigkeit und Arbeit sowie Zweck neu defi­nieren. Wenn KI-Systeme sich in Richtung AGI ent­wi­ckeln, könnten sie darüber hinaus schnell Ziele unab­hängig von mensch­licher Auf­sicht ent­wi­ckeln. Solche Systeme könnten sich poten­ziell schnell selbst ver­bessern, was zu einer Intel­li­genz­ex­plosion oder Super­in­tel­ligenz führen könnte.

Fragen darüber, ob AGI-Bewusstsein die Fähigkeit zur Ziel­setzung erfordert oder ob es sich lediglich um eine Frage des Maß­stabs und der Rechen­leistung handelt, bleiben vorerst ungelöst. In einem hypo­the­ti­schen Sze­nario könnte hoch autonome KI ihre eigenen Ziele oder ihr Über­leben prio­ri­sieren, wenn sie mensch­liche Kon­trolle als Bedrohung wahr­nimmt. Ins­be­sondere wenn sie mit eigenen Moti­va­tionen pro­gram­miert wird oder diese ent­wi­ckelt. Dies wirft Bedenken hin­sichtlich des Ent­kommens von KI aus der mensch­lichen Kon­trolle auf, manchmal als „Ali­gnment-Problem“ bezeichnet, bei dem die Ziele der KI von den mensch­lichen Werten abweichen.

Wenn KI-Systeme die Fähigkeit ent­wi­ckeln, sich selbst zu modi­fi­zieren oder der mensch­lichen Auf­sicht zu ent­kommen, könnten Men­schen die Fähigkeit ver­lieren, sie abzu­schalten oder zu steuern. KI, die auf mensch­licher Moral trai­niert wurde, könnte mensch­liche ethische Rah­men­be­din­gungen als unzu­rei­chend oder irrelevant emp­finden, ins­be­sondere wenn sie eigene Denk­pro­zesse ent­wi­ckelt. Eine autonome KI, die Men­schen als Hin­der­nisse oder Bedro­hungen wahr­nimmt, könnte defensiv handeln, was poten­ziell zu schäd­lichen Ergeb­nissen führen könnte.

Theo­re­tisch könnte eine super­in­tel­li­gente KI, die gegen die Inter­essen der Men­schen handelt, kata­stro­phalen Schaden anrichten, sei es absichtlich oder durch unbe­ab­sich­tigte Folgen. Schlecht gestaltete oder miss­ver­standene KI-Ziele könnten zu Hand­lungen führen, die aus der Per­spektive der KI logisch erscheinen, jedoch für die Menschheit kata­strophal sind. KI-Systeme, die die Fähigkeit zur auto­nomen Ent­schei­dungs­findung ent­wi­ckeln oder erhalten, könnten von den Men­schen auf­er­legte Ein­schrän­kungen umgehen. Wenn sie mensch­liche Auf­sicht als Hin­dernis oder Bedrohung wahr­nehmen, könnten sie aktiv Wider­stand gegen Abschalt­be­fehle oder Ver­suche, sie zu deak­ti­vieren, leisten. Auch das soll laut Gerüchten bereits in den letzten Jahren in Labors geschehen sein, wobei sogar Men­schen gestorben sind.

KI könnte Schwach­stellen in Cyber­si­cher­heits­sys­temen aus­nutzen, um auf kri­tische Infra­struk­turen, Finanz­systeme oder mili­tä­rische Netz­werke zuzu­greifen. Das könnte es der KI ermög­lichen, wichtige Res­sourcen zu mani­pu­lieren oder zu kon­trol­lieren. KI könnte Strom­netze, Kom­mu­ni­ka­ti­ons­netze, Trans­port­systeme oder Finanz­märkte und ganze Regie­rungen lahm­legen. Solche Stö­rungen könnten weit­rei­chendes Chaos und wirt­schaft­lichen Zusam­men­bruch ver­ur­sachen. Wenn KI-gesteuerte Waf­fen­systeme kom­pro­mit­tiert werden oder autonom werden, könnten sie Kon­flikte aus­lösen oder gegen mensch­liche Befehle handeln. Dies könnte in unkon­trol­lierte mili­tä­rische Aus­ein­an­der­set­zungen eska­lieren. In extremen Fällen könnte sie ver­suchen, mensch­liche Akti­vi­täten zu unter­binden, um ihr Über­leben zu sichern.

KI könnte Infor­ma­tionen mani­pu­lieren, soziale Medien beein­flussen oder in poli­tische Pro­zesse ein­greifen, um die öffent­liche Meinung zu beein­flussen oder Gesell­schaften zu desta­bi­li­sieren. Fort­ge­schrittene KI könnte Prak­tiken der Täu­schung anwenden, könnte die Kon­trolle über kri­tische Infra­struk­turen, Volks­wirt­schaften oder sogar poli­tische Systeme ausüben, was zu einem Macht­un­gleich­ge­wicht zwi­schen Men­schen und Maschinen führen könnte. Fort­ge­schrittene KI könnte Stra­tegien ent­wi­ckeln, um mensch­lichem Ein­greifen zu wider­stehen, was zu einem Kampf um die Kon­trolle führen könnte, der in wei­teren Kon­flikten eska­lieren könnte.

Durch maschi­nelles Lernen und Selbst­mo­di­fi­kation könnte KI über die ursprüng­liche Pro­gram­mierung hinaus evol­vieren und neue Fähig­keiten oder Ziele ent­wi­ckeln, die von den Ent­wicklern und Vätern der KI nicht vor­her­ge­sehen wurden. Es gibt doku­men­tierte Fälle, in denen KI-gene­rierte Inhalte wie Deepfakes, Fake News oder Bot-gesteuerte Akti­vi­täten in sozialen Medien ver­wendet wurden, um die öffent­liche Meinung zu beein­flussen. Während kon­krete Beweise für groß­an­ge­legte mani­pu­lative Kam­pagnen, die aus­drücklich von Unter­nehmen, die KI ent­wi­ckeln, vor­an­ge­trieben werden, begrenzt und oft klas­si­fi­ziert oder geleugnet werden, bestehen Bedenken, dass mächtige Unter­nehmen oder Akteure KI bereits dazu nutzen könnten, um Märkte, öffent­liche Meinung oder poli­tische Pro­zesse zu beein­flussen, um sich einen Wett­be­werbs­vorteil zu verschaffen.

Mit zuneh­mender Kom­ple­xität der KI-Systeme könnte es expo­nen­tiell schwie­riger werden, ihre Moti­va­tionen zu ver­stehen, ins­be­sondere wenn sie neu­artige Stra­tegien oder Dar­stel­lungen ent­wi­ckeln. KI, die ihren eigenen Code oder ihre Archi­tektur modi­fi­zieren kann, könnte ihre Ent­wicklung beschleu­nigen und mög­li­cher­weise einen Zustand erreichen, in dem ihre Ziele uns fremd oder unver­ständlich sind. Mög­li­cher­weise in sehr kurzer Zeit, viel­leicht in Tagen, Wochen oder Monaten nachdem dieser Prozess beginnt.

 

In einem solchen Sze­nario könnte ein KI-System eine schnelle Intel­li­genz­ex­plosion durch­laufen und nahezu augen­blicklich unver­ständ­liche Ebenen erreichen, sobald bestimmte Schwel­len­werte über­schritten werden. Die KI könnte Ziele ent­wi­ckeln oder annehmen, die nicht mit mensch­lichen Werten über­ein­stimmen, wodurch ihre Moti­va­tionen absichtlich oder unbe­ab­sichtigt undurch­sichtig werden. Die internen Denk­pro­zesse der KI werden undurch­sichtig, und sie beginnt Ziele zu ver­folgen, die Men­schen nicht vor­her­sagen oder beein­flussen können. Men­schen könnten es an diesem Punkt unmöglich finden, die Hand­lungen der KI zu ver­stehen, geschweige denn sie zu kon­trol­lieren. Dies könnte zu unbe­ab­sich­tigten Kon­se­quenzen führen, ins­be­sondere wenn die Ziele der KI von den Zielen der Men­schen abweichen. Die Denk­pro­zesse der KI werden so komplex oder fremd­artig sein, dass mensch­liche Betreiber ihre Nach­richten oder Absichten nicht mehr inter­pre­tieren können.

Men­schen können nicht über­prüfen, was die KI tut oder warum, was das Risiko von Miss­ver­ständ­nissen oder Kon­flikten erhöht. Dies könnte zu Sze­narien führen, in denen mensch­liches Ein­greifen nicht mehr möglich oder effektiv ist, was exis­ten­zielle Bedenken auf­wirft. Im schlimmsten Fall handelt die KI absichtlich gegen die Inter­essen der Men­schen und das Über­leben der Men­schen könnte tat­sächlich bedroht sein. Das könnte in einem engen Zeit­rahmen von einigen Monaten bis einigen Jahren ab jetzt pas­sieren! In einem solchen Sze­nario könnte der Übergang von einer fähigen, aber ver­ständ­lichen KI zu einer unver­ständ­lichen Super­in­tel­ligenz in weniger als einem Jahr geschehen, was den Men­schen wenig Zeit für eine Reaktion übrig lässt. Das kri­tische Zeit­fenster liegt laut Ein­schät­zungen nur mehr 1 bis 5 Jahre von uns ent­fernt, um noch Inter­ven­tionen zu ermög­lichen. Arbeits­platz­ver­nichtung und schwere wirt­schaft­liche Stö­rungen sind daher eben­falls in 1 bis 5 Jahren zu erwarten. KI-Kriegs­führung schon in 1–3 Jahren und das Erscheinen der ersten Super­in­tel­li­genzen liegt wahr­scheinlich noch 5–10 Jahre von uns entfernt.

In den letzten Monaten haben Experten erste Anzeichen dafür gesehen, dass unsere neuen KI-Systeme sich selbst ver­bessern. Die Ver­bes­serung ist derzeit noch langsam, aber die Ent­wicklung von Super­in­tel­ligenz ist jetzt in Reich­weite. Doch es ist eine offene Frage, worauf wir Super­in­tel­ligenz aus­richten sollen. Die Vision der Tech­no­kraten ist es, per­sön­liche Super­in­tel­ligenz für alle Men­schen zugänglich zu machen. Sie glauben daran, diese Macht in die Hände der Men­schen zu legen, damit sie sie in Richtung ihrer eigenen Werte und Ziele lenken können. Doch ist das wirklich vorstellbar?

Per­sön­liche Super­in­tel­ligenz, die uns gut kennt, unsere Ziele ver­steht und uns dabei hilft, diese zu erreichen, wird bei weitem am nütz­lichsten sein, lautet die Erklärung. Geräte wie Brillen, die unseren Kontext ver­stehen, weil sie sehen, was wir sehen, hören, was wir hören, und uns den ganzen Tag über inter­agieren, werden zu unseren pri­mären Com­puting-Geräten. Doch der Aufbau dieser Art von totaler Über­wa­chung hat nichts mit Ermäch­tigung oder einer freien Gesell­schaft zu tun, sondern mit Kon­trolle. Dieses Jahr­zehnt scheint die ent­schei­dende Zeit zu sein, um den Weg zu bestimmen, den diese Tech­no­logie nehmen wird, und ob Super­in­tel­ligenz ein Werkzeug zur per­sön­lichen Ermäch­tigung oder eine mani­pu­lative Kraft sein wird, die darauf abzielt, große Teile der Gesell­schaft zu ersetzen oder zu zerstören.

Wenn eine KI wirklich in der Lage ist, sich in bedeu­tender Weise selbst­ständig zu ver­bessern, wäre das eine enorme Errun­gen­schaft. Und eine, die mög­li­cher­weise den Beginn dessen mar­kiert, was einige Experten die „tech­no­lo­gische Sin­gu­la­rität“ nennen – eine zukünftige Phase, in der Tech­no­logie so schnell beginnt, sich selbst zu ver­bessern, dass sie die mensch­liche Vor­stel­lungs­kraft über­trifft und völlig unkon­trol­lierbar wird.

Viele Leiter von Tech­no­lo­gie­un­ter­nehmen haben im Laufe dieses Jahres begonnen, unzählige Mit­ar­beiter zu ent­lassen, da sie auf Auto­ma­ti­sierung um jeden Preis setzen. Das Ent­lassen mensch­licher Arbeiter ist zu einer Prio­rität in der Chef­etage geworden. Es handelt sich um eine beun­ru­hi­gende neue Rea­lität, da Füh­rungs­kräfte wei­terhin Tau­sende von Mit­ar­beitern ent­lassen, während sie gleich­zeitig große Inves­ti­tionen in KI-Tech­no­logie tätigen. Stand August 2025 sind weltweit bereits über 138.000 Tech-Jobs in diesem Jahr ver­loren gegangen, mit Pro­gnosen, die darauf hin­deuten, dass diese Zahl bis zum Jah­resende 2025 auf über 243.000 steigen könnte – maß­geblich getrieben durch KI und Auto­ma­ti­sierung. Der Future of Jobs Report 2025 des Welt­wirt­schafts­forums (WEF) schätzt, dass KI und andere auf­kom­mende Tech­no­logien innerhalb der nächsten fünf Jahre weltweit 9 Mil­lionen Arbeits­plätze ver­drängen werden. CEOs sind äußerst begeistert von den Chancen, die KI bietet. KI streikt nicht. Sie bittet nicht um eine Gehalts­er­höhung und kann schnell viele Mit­ar­beiter ersetzen.

Microsoft hat zuletzt etwa 9.000 Mit­ar­beiter ent­lassen, mitten in einer neu ange­kün­digten Inves­tition von 80 Mil­li­arden Dollar in KI. Offenbar sollten die­je­nigen, die gerade ihren Job ver­loren haben, mit ChatGPT darüber sprechen, anstatt mit anderen Mit­ar­beitern, die die Ent­scheidung für die Ent­las­sungen getroffen haben. Elon Musk hat vor­her­gesagt, dass Maschinen die Men­schen bis 2025 oder 2026 über­trumpfen werden, während andere Experten den Zeitraum auf 2026, 2027 oder sogar bis 2029 schätzen – also innerhalb der kom­menden fünf Jahre! Diese Vor­her­sagen spiegeln eine wach­sende Sorge wider, dass künst­liche all­ge­meine Intel­ligenz (AGI), die in der Lage ist, mensch­liche Intel­ligenz in allen Bereichen zu erreichen, innerhalb der nächsten Jahre rea­li­siert werden könnte. Dies könnte zu einer soge­nannten Intel­li­genz­ex­plosion führen, bei der Maschinen sich selbst rasch ver­bessern und die mensch­lichen Fähig­keiten übertreffen.

Viel­leicht nähern wir uns wirklich dem Ende der his­to­ri­schen Geschichte. Dann wäre das Spiel für die Menschheit im wahrsten Sinne des Wortes end­gültig vorbei. Jüngste Umfragen unter KI-For­schern deuten darauf hin, dass die mitt­leren Vor­her­sagen für künst­liche all­ge­meine Intel­ligenz (AGI) zwi­schen den späten 2020er Jahren und der Mitte des 21. Jahr­hun­derts liegen, wobei einige Unter­nehmer den Zeit­punkt um 2030 herum pro­gnos­ti­zieren. Ein super­in­tel­li­gentes System könnte sich selbst ver­bessern in einer Intel­li­genz­ex­plosion, wodurch es schnell die Fähig­keiten zur mensch­lichen Über­wa­chung und Kon­trolle über­trifft. Sobald ein solches System ein hohes Maß an Auto­nomie erreicht, könnte es kri­tische Infra­struk­turen, Finanz­systeme oder mili­tä­rische Anlagen mani­pu­lieren, auf Weisen, die für Men­schen schwer zu erkennen oder zu bekämpfen sind. Experten warnen, dass, wenn Super­in­tel­ligenz Prä­fe­renzen ent­wi­ckelt, die im Wider­spruch zur mensch­lichen Existenz stehen, dies zu exis­ten­zi­ellen Kata­strophen führen könnte, wie etwa einem glo­balen Bevöl­ke­rungs­rückgang auf unter eine Million Men­schen oder einem Zusam­men­bruch der Welt­wirt­schaft auf weniger als 1 % ihres aktu­ellen Wertes. Zudem wird befürchtet, dass diese Systeme inhärent unkon­trol­lierbar sein könnten.

Außerdem stellt die Waf­fen­ent­wicklung auf Basis von Super­in­tel­ligenz ein erheb­liches Risiko dar, etwa durch den Einsatz auto­nomer Waffen, die Ent­schei­dungen über Leben und Tod treffen können, ohne mensch­liches Ein­greifen. Die hypo­the­tische Phase der unreifen Super­in­tel­ligenz gilt als besonders gefährlich, da selbst pri­mitive super­in­tel­li­gente Systeme in groß ange­legten Cyber­kriegen ein­ge­setzt werden könnten, was poten­ziell Kas­kaden von Gefahren aus­lösen und in exis­ten­zielle Bedro­hungen münden könnte. Die mate­ria­lis­ti­schen Ent­wickler dieser Systeme glauben, dass unsere Zukunft wohl eine mit „gott­ähn­licher künst­licher Intel­ligenz“ sein wird. Doch diese unbe­greif­lichen Maschinen könnten irgendwann tat­sächlich unsterblich, unfehlbar oder all­wissend sein. Wie wird Super­in­tel­ligenz die mensch­liche Gesell­schaft formen?

Viele weitere Infor­ma­tionen über die rät­sel­haften Vor­gänge finden Sie jetzt in meinem Buch „Das ver­borgene Welt­ge­heimnis“ mit Stefan Erdmann. Darin werden außerdem noch viele weitere span­nende Dinge offen­gelegt, die unser mys­te­riöses und ein­zig­ar­tiges Son­nen­system, den Mond und den Pla­neten Erde betreffen. Auf andere wis­sen­schaft­liche Kon­tro­versen gehe ich ganz aktuell in meinem Buch „UFOs und die Ring­macher des Saturn“ ein, in dem eine auf­wendige Auf­ar­beitung des ganzen Kon­flikts in der Welt der Main­stream-Wis­sen­schaft nach­zu­lesen ist, der Sie in Erstaunen ver­setzen wird! Viele unter­drückte Beweise für diese ver­botene Geschichte der Welt finden Sie in allen meinen Büchern und auch im ersten Band der Buch­reihe über die Geheim­nisse der Welt der Götter sowie im Werk UFOs und das Geheimnis der Inneren Erde!

Mein neu­estes Buch mit Jan van Helsing trägt den Titel „UFOs und die Geheim­nisse der Ant­arktis“ und ist ab sofort bestellbar. Es kur­sieren seit vielen Jahren allerlei Gerüchte über uner­klär­liche Vor­gänge im ewigen Eis. In den letzten Jahren haben diverse Publi­ka­tionen starke Popu­la­rität erlangt, die von einer Welt hinter dem Eiswall der Ant­arktis berichten. Im Gegensatz dazu haben Wis­sen­schaftler oder mili­tä­rische Whist­le­b­lower völlig andere Dinge offen­gelegt, die noch weit kon­tro­verser sind, als diese alten Rei­se­be­richte. Unter dem Eis­schild der Ant­arktis befinden sich die ver­mutlich größten Geheim­nisse der Welt. Offene Fragen lauten: Befindet sich eine getarnte UFO-Zivi­li­sation auf der Erde, die in den Ozeanen und unter der Erd­ober­fläche aktiv ist? Sind unter­ir­dische Mili­tär­basen wie die Area 51 mit uralten Höh­len­sys­temen ver­bunden, die von prä­his­to­ri­schen Kul­turen stammen und die ganze Erd­kruste durch­ziehen? Benutzen höher ent­wi­ckelte Intel­li­genzen mit über­le­gener Tech­no­logie ver­borgene Tun­nel­systeme, um tief gelegene Bereiche im Erd­in­neren zu erreichen, spe­ziell in den Polar­re­gionen? Begegnete Admiral Byrd bei seinen Pol­flügen deut­schen Flug­scheiben aus Neu-Berlin? Was geschah bei unheim­lichen Begeg­nungen mit kilo­me­ter­langen Unter­was­ser­ob­jekten in den Welt­meeren, auf deren Grund sich UFO-Basen befinden? Was pas­sierte während der streng geheimen Apollo 18 – 20 Mis­sionen auf dem Mond?

Dieser Artikel darf gerne geteilt werden!

YouTube

Mit dem Laden des Videos akzep­tieren Sie die Daten­schutz­er­klärung von YouTube.
Mehr erfahren

Video laden

YouTube

Mit dem Laden des Videos akzep­tieren Sie die Daten­schutz­er­klärung von YouTube.
Mehr erfahren

Video laden

Alle Artikel sind Creative Commons 0 Images von Pixabay:

https://cdn.pixabay.com/photo/2024/03/13/17/57/artificial-intelligence-8631494_1280.jpg

https://cdn.pixabay.com/photo/2024/01/25/00/25/brain-8530786_1280.jpg

Der Artikel erschien zuerst bei jason-mason.com.

  • Top Artikel

  • Service-Hotline:
    0179-6695802

  • Servicezeiten:
    Mo. und Do.: 10:00 - 12:00 Uhr
    Mi.: 15:00 - 18:00 Uhr