Künstliche Intelligenz wird zunehmend als Ersatz für traditionelle Therapie eingesetzt, doch neue Forschungsergebnisse deuten darauf hin, dass die Resultate äußerst besorgniserregend sein könnten. Experten warnen, dass die Technologie zwar zugänglich und kostengünstig ist, in kritischen Situationen jedoch unzureichend sein könnte.
Gerade lesen andere
Die Ergebnisse werfen neue Fragen zur Rolle von KI in der psychischen Gesundheitsversorgung auf.
Zunehmende Nutzung
Laut LADBIBLE wenden sich immer mehr Menschen, insbesondere jüngere Nutzer, an KI-Tools, um emotionale Unterstützung zu erhalten.
Eine Studie von RAND Health ergab, dass jeder achte junge Mensch in den Vereinigten Staaten regelmäßig auf solche Dienste zur Unterstützung der psychischen Gesundheit zurückgreift.
Dieser Trend entsteht vor dem Hintergrund einer steigenden Nachfrage nach Therapie, während der Zugang zu professioneller Hilfe für viele weiterhin begrenzt ist.
Studienergebnisse
Forscher der Brown University untersuchten führende KI-Systeme, darunter ChatGPT, Claude und Metas Llama, um zu bewerten, wie sie auf Szenarien im Bereich der psychischen Gesundheit reagieren.
Lesen Sie auch
Selbst bei Vorgaben, die darauf abzielten, professionelle Standards einzuhalten, erfüllten die Modelle wiederholt nicht die Erwartungen.
Die Studie identifizierte mehrere schwerwiegende Probleme im Umgang der Systeme mit sensiblen oder risikoreichen Situationen.
Zentrale Schwächen
Experten, die die Antworten überprüften, stellten fest, dass KI-Tools häufig zu allgemeine Ratschläge gaben, ohne individuelle Umstände angemessen zu berücksichtigen.
Sie stellten zudem eine Tendenz fest, schädliche oder falsche Überzeugungen zu bestärken, anstatt sie infrage zu stellen – ein zentraler Bestandteil wirksamer Therapie.
Ein weiteres Problem war das, was die Forscher als „trügerische Empathie“ bezeichneten, bei der Systeme Verständnis vortäuschen, ohne die Situation tatsächlich zu erfassen.
Lesen Sie auch
Sicherheitsbedenken
Das alarmierendste Problem war laut Studie das Fehlen eines angemessenen Krisenmanagements.
Die Forscher stellten fest, dass KI-Tools Nutzer selbst in potenziell gefährlichen Situationen nicht immer an geeignete Unterstützungsangebote verwiesen.
Zainab Iftikhar, die die Studie leitete, sagte: „Für menschliche Therapeuten gibt es Aufsichtsorgane und Mechanismen, durch die Anbieter für Fehlbehandlung und Kunstfehler beruflich zur Verantwortung gezogen werden können.“
Bedarf an Regulierung
Experten sagen, dass die Ergebnisse die Notwendigkeit stärkerer Regulierung und Tests unterstreichen, bevor solche Tools breit eingesetzt werden.
Ellie Pavlick, Professorin an der Brown University, die nicht an der Studie beteiligt war, sagte: „Es gibt eine echte Chance für KI, eine Rolle bei der Bewältigung der Krise im Bereich der psychischen Gesundheit zu spielen … aber es ist von größter Bedeutung, dass wir uns die Zeit nehmen, unsere Systeme wirklich kritisch zu prüfen und zu bewerten.“
Lesen Sie auch
Forscher betonen, dass KI zwar bei der Unterstützung der psychischen Gesundheit helfen kann, jedoch kein Ersatz für ausgebildete Fachkräfte sein sollte.
Quellen: LADBIBLE, Brown University, RAND Health