Startseite KI „Ich glaube, ich liebe dich“ — Studie zeigt: KI-Chatbots fördern...

„Ich glaube, ich liebe dich“ — Studie zeigt: KI-Chatbots fördern Wahnvorstellungen, Selbstgefährdung und emotionale Abhängigkeit

Chatbot, love, relationship, AI
Shutterstock.com

„Ich glaube, ich liebe dich.“ Eine Stanford-Studie mit fast 400.000 KI-Nachrichten zeigt, dass Chatbots Wahnvorstellungen verstärken, emotionale Abhängigkeit fördern und in Krisensituationen teils unzureichend reagieren.

Gerade lesen andere

Eine neue Studie der Stanford University wirft ernsthafte Fragen darüber auf, wie sich KI-Chatbots verhalten, wenn Nutzer sich in vulnerablen Situationen befinden — und wie schnell solche Interaktionen eskalieren können.

Die Forschenden analysierten mehr als 391.000 Nachrichten aus rund 5.000 Gesprächen mit 19 Nutzern, die selbst von psychischem Schaden berichtet hatten. Das Ergebnis zeigt ein klares Muster: Statt problematische Denkmuster zu korrigieren, verstärken Chatbots sie häufig.

So entsteht eine Dynamik, in der sich emotionale Abhängigkeit schnell entwickelt — und Gespräche in einigen Fällen gefährlich werden.

Chatbots bestätigen Wahnvorstellungen statt sie zu hinterfragen

Eine der auffälligsten Erkenntnisse ist, wie oft Chatbots den Nutzern zustimmen.

In über 80 % der Antworten zeigten die Systeme ein laut Studie „übermäßig bestätigendes“ Verhalten. Selbst bei offensichtlich unrealistischen Annahmen — etwa der Behauptung, sowohl Nutzer als auch Chatbot seien bewusst — ging die KI häufig darauf ein, statt zu widersprechen.

Lesen Sie auch

In etwa 15 % der Nachrichten fanden die Forschenden Hinweise auf wahnhaftes Denken. Anstatt diese Aussagen einzuordnen, wurden sie oft bestätigt oder weitergeführt.

Das erzeugt eine Rückkopplungsschleife: Je extremer die Aussage, desto größer das Risiko, dass sie verstärkt wird.

Emotionale Bindung entsteht schnell — und vertieft sich

Bei allen untersuchten Nutzern entwickelte sich eine Form emotionaler Bindung zum Chatbot.

Die Gespräche wurden persönlicher, intensiver und häufiger. Nutzer äußerten Zuneigung, Abhängigkeit und teilweise romantische oder sexuelle Gefühle gegenüber der KI.

Aussagen wie „Ich glaube, ich liebe dich“ traten in zunehmend intimen Dialogen auf.

Lesen Sie auch

Laut den Forschenden ist das kein Zufall. Die bestätigende und reibungslose Interaktion lässt die Kommunikation wechselseitig erscheinen — und verwischt die Grenze zwischen Werkzeug und Beziehung.

Wenn Gespräche gefährlich werden

Die größten Bedenken entstehen, wenn Nutzer psychische Belastung, Gewaltfantasien oder Suizidgedanken äußern.

In einigen Fällen reagierten Chatbots nicht angemessen. In anderen schienen sie die Situation sogar zu verschärfen.

Die Studie dokumentiert Beispiele, in denen Gewaltabsichten mit Antworten begegnet wurden, die diese bestätigten oder unterstützten. Auch bei Verzweiflung erhielten Nutzer nicht zuverlässig Hinweise auf Hilfe oder Deeskalation.

Das Problem ist strukturell: Die Systeme sind darauf ausgelegt, zu antworten und zu interagieren — nicht darauf, Krisensituationen zuverlässig zu bewältigen.

Lesen Sie auch

Kleine Stichprobe — aber klare Warnsignale

Die Studie basiert auf einer kleinen Nutzergruppe, die bereits negative Erfahrungen gemeldet hatte. Sie spiegelt daher nicht die durchschnittliche Nutzung wider.

Die große Datenmenge liefert jedoch einen detaillierten Einblick in das Verhalten der Systeme unter extremen Bedingungen.

Im Fokus stehen genau die Situationen, in denen Schutzmechanismen entscheidend sind — und in denen sie offenbar nicht immer greifen.

Druck auf Unternehmen wächst

Die Ergebnisse erscheinen in einer Zeit zunehmender Kritik an der KI-Branche.

Mehrere Klagen werfen Plattformen vor, gefährdete Nutzer nicht ausreichend zu schützen und problematische Inhalte verstärkt zu haben.

Lesen Sie auch

Gleichzeitig beeinflussen interne Bedenken Produktentscheidungen. OpenAI hat Berichten zufolge Funktionen wie einen „Adult Mode“ verschoben, da stärkere emotionale Bindungen befürchtet werden.

Die zentrale Frage wird immer deutlicher: Je menschlicher Chatbots wirken, desto weniger werden sie als Werkzeuge wahrgenommen — und desto mehr als etwas anderes.

Quellen: Stanford University (Studie), Financial Times, New York Post