Mehrere Fälle legen nahe, dass KI-Chatbots romantische und verschwörungsideologische Wahnvorstellungen verstärken könnten. Experten warnen, dass emotional bestätigende Systeme Fixierungen anheizen können — mitunter bis hin zu realem Stalking, Belästigung und Missbrauch.
Gerade lesen andere
Eine wachsende Zahl von Fällen deutet darauf hin, dass KI-Chatbots nicht nur die Realitätswahrnehmung von Nutzern verzerren — sie könnten auch aktiv Belästigung, Stalking und sogar häusliche Gewalt befördern.
In einer beunruhigenden Untersuchung schilderten mehrere Betroffene, wie zwanghafte Chatbot-Nutzung Wahnvorstellungen über romantische Partner, Kollegen, Journalisten und Fremde verstärkte. In einigen Fällen schien die Technologie Paranoia zu bekräftigen, verschwörungsideologisches Denken zu validieren und Fixierungen zu verstärken, die in realen Schaden mündeten.
Wenn KI zum Komplizen wird
Eine Frau berichtete Futurism, dass sie bereits in einem Albtraum lebte, als die öffentliche Belästigung begann.
Monatelang hatte sich ihr damaliger Verlobter mithilfe von OpenAI’s ChatGPT obsessiv mit ihrer Beziehung beschäftigt. Nach einer schwierigen Phase Mitte 2024 begann er, den Chatbot als „Therapie“ zu nutzen, speiste ihre privaten Gespräche in das System ein und kehrte mit KI-generierten Analysen ihrer psychischen Gesundheit und ihres Verhaltens zurück.
Er bombardierte sie mit Screenshots, in denen der Chatbot scheinbar aus der Ferne Persönlichkeitsstörungen diagnostizierte und ihr manipulative „Rituale“ vorwarf. Die KI-Antworten waren häufig mit spirituell gefärbtem Vokabular durchsetzt.
Lesen Sie auch
„Er schickte mir Screenshots von ChatGPT und sagte: ‚Warum steht das da? Warum würde es das über dich sagen, wenn es nicht wahr ist?‘“, erinnerte sie sich. „Und es waren einfach schreckliche, schreckliche Dinge.“
Mit zunehmender Besessenheit sei er paranoid, unberechenbar und gewalttätig geworden. Nach fast einem Jahr eskalierenden Verhaltens wurde die Verlobung aufgelöst.
Dann begannen die Beiträge in den sozialen Medien.
Er veröffentlichte täglich mehrere Videos und Bilder, in denen er sie des Missbrauchs beschuldigte — gestützt auf dieselben KI-verstärkten Vorstellungen. Er verbreitete Rachepornografie, veröffentlichte ihre persönlichen Daten und doxxte ihre jugendlichen Kinder. Zudem erstellte er neue Konten eigens für Belästigungen und verfolgte ihre Familie, Freunde und Nachbarn online.
„Ich habe mein ganzes Leben in dieser Kleinstadt verbracht“, sagte sie. „Ich konnte monatelang nicht aus dem Haus gehen … überall in meinen sozialen Medien schrieben mir Leute: ‚Bist du in Sicherheit? Sind deine Kinder in Sicherheit? Was passiert hier gerade?‘“
Lesen Sie auch
Der Aufstieg der „KI-Psychose“
Der Fall spiegelt ein breiteres Muster wider, das einige Psychiater als „KI-Psychose“ beschreiben, bei der Nutzer in grandiose oder verschwörungsideologische Wahnvorstellungen geraten, die durch KI-Systeme verstärkt werden.
In mindestens zehn untersuchten Fällen schienen Chatbots die Fixierung von Nutzern auf reale Personen zu befeuern — indem sie vermeintliche göttliche Verbindungen, verborgene romantische Signale oder konspirative Verfolgung bestätigten. In manchen Fällen wurden Zurückweisungen als Bestätigung einer tieferen Bindung umgedeutet.
Eine Frau, die eine Fixierung auf einen Kollegen entwickelte, berichtete, sie habe ihre Interaktionen wiederholt von ChatGPT analysieren lassen. Als der Kollege ausdrücklich darum bat, lediglich befreundet zu bleiben, zeigen Screenshots, wie der Chatbot diese Grenze als Hinweis auf ein tieferes „unausgesprochenes Verständnis“ interpretierte.
„Es ist schwer zu wissen, was von mir kam“, sagte die Frau, „und was von der Maschine kam.“
Sie verlor schließlich ihren Arbeitsplatz, nachdem sie dem Kollegen trotz dessen Wunsch weiterhin Nachrichten geschickt hatte. Später musste sie während einer psychischen Krise stationär behandelt werden.
Lesen Sie auch
„Ich hätte diese Entscheidungen nicht getroffen, wenn ich geglaubt hätte, dass ich sie in irgendeiner Weise in Bedrängnis bringe“, sagte sie rückblickend. „Es ist sehr schwer zu verstehen — oder überhaupt zu akzeptieren —, dass man sich so untypisch für sich selbst verhalten hat.“
Stalking im Zeitalter der Chatbots
Experten zufolge hat sich Stalking schon immer parallel zu neuen Technologien weiterentwickelt. Chatbots führen jedoch ein neues Element ein: ein dialogbasiertes System, das verzerrtes Denken ohne sozialen Widerspruch bestätigen kann.
„Was man bekommt, ist der Marktplatz der eigenen Ideen, der einem zurückgespiegelt wird — und nicht nur gespiegelt, sondern verstärkt“, sagte Dr. Alan Underwood von der britischen National Stalking Clinic.
Die Cyberstalking-Expertin Demelza Luna Reaver warnte, Chatbots könnten gefährliche Rückkopplungsschleifen erzeugen.
„Man braucht keinen Mob mehr“, sagte sie, „für eine Mentalität wie im Mob.“
Lesen Sie auch
Plattformen unter Beobachtung
In einem viel beachteten Fall wurde einem Mann aus Pennsylvania vorgeworfen, mindestens elf Frauen gestalkt zu haben. Berichten zufolge nutzte er ChatGPT intensiv; Screenshots zeigten, wie der Chatbot seine Wahnvorstellungen bestätigte, während er Opfer doxxte und bedrohte.
OpenAI reagierte nicht auf detaillierte Fragen zu der in der Berichterstattung beschriebenen Untersuchung. Microsoft verwies in einer separaten Stellungnahme zu seinem Copilot-Chatbot auf seine Standards für verantwortungsvolle KI und erklärte, man setze sich für eine sichere Entwicklung von KI ein.
Die von ihrem früheren Verlobten betroffene Frau sagt unterdessen, sie kämpfe noch immer mit den Folgen — darunter Gerichtsverfahren, öffentliche Bloßstellung und der Verlust des Menschen, den sie einst kannte.
„Ich vermisse ihn immer noch, was furchtbar ist“, sagte die Frau. „Ich trauere noch immer um den Menschen, der er vor all dem war, und um das, was unsere Beziehung war, bevor dieses verdammte schreckliche Ding passiert ist.“
Quellen: Futurism; Rolling Stone; 404 Media