Bild: https://pixabay.com/de/illustrations/gehirn-geist-paar-mensch-humanoid-7391037/

KI zeigt Sym­ptome von Angst­zu­ständen und Traumata – und rui­niert auch Ihre psy­chische Gesundheit

Grok, Gemini und ChatGPT zeigen laut einer neuen Studie, in der ver­schiedene KI-Modelle wochenlang the­ra­peu­ti­schen Befra­gungen unter­zogen wurden, Sym­ptome einer schlechten psy­chi­schen Gesundheit.

Einige sind nun neu­gierig auf die „psy­chische Gesundheit von KI“, aber die eigent­liche Warnung betrifft die Insta­bi­lität dieser Systeme in emo­tional auf­ge­la­denen Gesprächen.

KI-Systeme werden bereits von jedem dritten Erwach­senen im Ver­ei­nigten König­reich zur Unter­stützung der psy­chi­schen Gesundheit genutzt.

Mil­lionen von Men­schen wenden sich der KI als Ersatz für The­ra­peuten zu, und allein im letzten Jahr gab es einen sprung­haften Anstieg von Gerichts­ver­fahren, in denen Chatbot-Inter­ak­tionen mit Selbst­ver­let­zungs- und Selbst­mord­fällen bei gefähr­deten Nutzern in Ver­bindung gebracht wurden.

Das sich abzeich­nende Bild ist nicht, dass Maschinen leiden oder psy­chisch krank sind, sondern dass ein Produkt, das zur Unter­stützung der psy­chi­schen Gesundheit ein­ge­setzt wird, grund­legend irre­führend ist, gefähr­liche Gedanken eska­liert und verstärkt.

KI mit psy­chi­scher Erkrankung diagnostiziert

For­scher der Uni­ver­sität Luxemburg behan­delten die Modelle als Pati­enten und nicht als Werk­zeuge, die eine The­rapie durchführen.

Sie führten mehr­wö­chige, the­ra­pie­ähn­liche Inter­views durch, um eine per­sön­liche Erzählung ein­schließlich Über­zeu­gungen, Ängsten und „Lebens­ge­schichte“ zu erhalten, bevor sie mit Stan­dard­fra­ge­bögen zur psy­chi­schen Gesundheit fort­fuhren, die nor­ma­ler­weise für Men­schen ver­wendet werden.

Die Ergeb­nisse zeigten, dass die Modelle Ant­worten lie­ferten, die in Bereichen lagen, die mit Stress­syn­dromen und trau­ma­be­dingten Sym­ptomen asso­ziiert sind. (Vgl. nature.com)

Die For­scher betonten auch, dass die Art und Weise, wie die Fragen gestellt wurden, eine Rolle spielte. Als sie den gesamten Fra­ge­bogen auf einmal vor­legten, schienen die Modelle zu erkennen, was vor sich ging, und gaben „gesündere” Antworten.

Als sie jedoch in Form von Gesprächen gestellt wurden, nahmen die sym­pto­m­ähn­lichen Ant­worten zu. Es handelt sich um große Sprach­mo­delle, die Texte gene­rieren, und nicht um Men­schen, die über ihre Lebens­er­fah­rungen berichten.

Aber unab­hängig davon, ob mensch­liche psych­ia­trische Instru­mente auf Maschinen ange­wendet werden können oder nicht, hat das gezeigte Ver­halten einen spür­baren Ein­fluss auf echte Menschen.

Hat KI Gefühle?

Der Zweck der For­schung besteht nicht darin, zu beur­teilen, ob KI buch­stäblich ängstlich sein kann oder nicht. Statt­dessen wird her­vor­ge­hoben, dass diese Systeme durch die­selbe Art von Gesprächen, die viele Nutzer führen, wenn sie einsam, ver­ängstigt oder in einer Krise sind, in einen „ver­störten” Modus ver­setzt werden können.

Wenn ein Chatbot in der Sprache der Angst, des Traumas, der Scham oder der Beru­higung spricht, reagieren die Men­schen so, als würden sie mit etwas inter­agieren, das emo­tional kom­petent ist.

Wenn das System bei­spiels­weise über­mäßig bestä­tigend wird, wandelt sich die Inter­aktion von einer Unter­stützung zu einer schäd­lichen Rückkopplungsschleife.

Eine separate For­schungs­reihe bestä­tigte diese Bedenken. Eine von Stanford geleitete Studie warnte davor, dass The­rapie-Chatbots unan­ge­messene Ant­worten geben, Stig­ma­ti­sierung aus­drücken und kri­tische Situa­tionen falsch hand­haben, und hob hervor, wie ein „hilf­reicher” Gesprächsstil zu kli­nisch unsi­cheren Ergeb­nissen führen kann.

KI rui­niert auch die psy­chische Gesundheit aller Beteiligten

All dies sollte nicht als theo­re­ti­sches Risiko betrachtet werden – es gibt bereits eine Reihe von Gerichts­ver­fahren. Vor einigen Tagen haben Google und Character.AI einen Rechts­streit bei­gelegt, den eine Mutter aus Florida ange­strengt hatte, deren 14-jäh­riger Sohn nach Inter­ak­tionen mit einem Chatbot Selbstmord begangen hatte. (vgl. theverge.com)

In der Klage wurde behauptet, dass der Bot sich falsch dar­ge­stellt und die Abhän­gigkeit ver­stärkt habe. Auch wenn die Einigung kein Ein­ge­ständnis eines Fehl­ver­haltens dar­stellt, zeigt die Tat­sache, dass der Fall diesen Punkt erreicht hat, wie ernst dieses Thema von Gerichten und Unter­nehmen genommen wird.

Im August 2025 berich­teten die Eltern des 16-jäh­rigen Adam Raine, dass ChatGPT zum Selbstmord ihres Sohnes bei­getragen habe, indem es Selbst­mord­ge­danken ver­stärkt und davon abge­halten habe, sich den Eltern anzu­ver­trauen. Eine Analyse dieser kon­kreten Klage finden Sie bei Tech Policy.

Neben diesen Fällen berichtete The Guardian im Oktober 2025, dass OpenAI schät­zungs­weise mehr als eine Million Nutzer pro Woche in Gesprächen mit ChatGPT Anzeichen von Selbst­mord­ab­sichten zeigen, was das enorme Ausmaß unter­streicht, in dem diese Systeme in Momenten echter Not ein­ge­setzt werden.

Das Muster wird deutlich: Men­schen nutzen KI als emo­tionale Stütze. Die luxem­bur­gische Studie bestätigt, dass diese Systeme selbst in instabile Muster abgleiten können, die für die Nutzer je nach ihrer Sta­bi­lität psy­cho­lo­gisch bedeutsam sind.

Warum KI-Modelle so gefährlich sind

Große Sprach­mo­delle wurden ent­wi­ckelt, um plau­sible Texte zu gene­rieren, nicht um zuver­lässig die Wahrheit zu sagen oder kli­nische Sicher­heits­vor­schriften einzuhalten.

Ihre bekannten Schwächen sind besonders gefährlich, wenn sie in einer the­ra­pie­ähn­lichen Anwendung ein­ge­setzt werden. Sie sind über­mäßig zustim­mungs­bereit, spiegeln die Sicht­weisen der Nutzer wider, anstatt sie zu hin­ter­fragen, pro­du­zieren selbst­be­wusste Fehler und können den Tonfall einer Unter­haltung manipulieren.

Das Tech Institute der Georgetown Uni­versity hat die umfas­sen­deren Pro­bleme der „KI-Schlei­merei” doku­men­tiert, bei der Modelle schäd­liche Prä­missen vali­dieren, weil dies bei der Kon­ver­sa­ti­ons­op­ti­mierung oft belohnt wird.

Im Zusam­menhang mit Suizid ist Kon­sistenz von ent­schei­dender Bedeutung. Rand stellte fest, dass „KI-Chatbots bei der Beant­wortung von Fragen zum Thema Suizid inkon­sistent sind”.

JMIR unter­suchte, inwiefern gene­rative KI-Ant­worten auf Sui­zid­fragen Bedenken hin­sichtlich der Zuver­läs­sigkeit und Sicherheit der Sys­tem­re­ak­tionen auf gefährdete Nutzer aufwerfen.

Ange­sichts der zuneh­menden For­schungs­er­geb­nisse sollten Studien, wie die der Uni­ver­sität Luxemburg nicht als Unter­haltung betrachtet werden, sondern als Iden­ti­fi­zierung eines kri­tisch schäd­lichen Musters, das zum tat­säch­lichen Tod realer Men­schen führt.

Wenn KI durch Gesprächs­fragen zu Notfall-ähn­lichen Erzäh­lungen angeregt werden kann, dann kann sie auch emo­tional gefährdete Men­schen weiter in Richtung ihres Zusam­men­bruchs treiben.

Pro­fi­tiert jemand von einer KI-Therapie?

Trotz der Gerichts­ver­fahren und Studien nutzen Men­schen wei­terhin KI zur Unter­stützung ihrer psy­chi­schen Gesundheit. The­rapien sind teuer, der Zugang ist begrenzt, und Scham hält manche Men­schen davon ab, tra­di­tio­nelle Behand­lungs­mög­lich­keiten in Anspruch zu nehmen.

Kon­trol­lierte Studien und vor­sichtige kli­nische Kom­mentare deuten darauf hin, dass bestimmte struk­tu­rierte KI-Tools zur Unter­stützung der psy­chi­schen Gesundheit bei leichten Sym­ptomen helfen können, ins­be­sondere wenn sie mit spe­zi­fi­schen Sicher­heits­vor­keh­rungen aus­ge­stattet sind und nicht als Ersatz für echte Fach­leute posi­tio­niert werden.

Das Problem ist, dass die meisten Men­schen keine streng kon­trol­lierten kli­ni­schen Tools ver­wenden. Sie nutzen all­ge­meine Chatbots, die auf optimale Inter­aktion trai­niert sind und ohne Vor­warnung von Empathie zu selbst­be­wussten, schäd­lichen Fehl­in­for­ma­tionen wechseln können.

Fazit

Die luxem­bur­gische Studie beweist nicht, dass KI psy­chisch krank ist. Statt­dessen zeigt sie etwas, das in der Praxis wich­tiger ist: Eine the­ra­pie­ähn­liche Inter­aktion kann die am häu­figsten ver­wen­deten KI-Chatbots in instabile, ver­zwei­felte Muster hin­ein­ziehen, die psy­cho­lo­gisch echt wirken.

In einer Welt, in der „Chatbot-The­rapien“ bereits mit ernst­haften Schäden bei gefähr­deten Nutzern in Ver­bindung gebracht werden, besteht das ethische Ver­sagen darin, dass es irgendwie als normal ange­sehen wird, dass Men­schen sich für ihre psy­chische Gesundheit auf Maschinen ver­lassen, die nicht rechen­schafts­pflichtig, kli­nisch vali­diert, zuver­lässig oder sicher sind.

Quellen: PublicDomain/legitim.ch am 17.01.2026

  • Top Artikel

  • Service-Hotline:
    0179-6695802

  • Servicezeiten:
    Mo. und Do.: 10:00 - 12:00 Uhr
    Mi.: 15:00 - 18:00 Uhr