Startseite Nachrichten Studie zeigt Risiken der Abhängigkeit von KI bei der psychischen...

Studie zeigt Risiken der Abhängigkeit von KI bei der psychischen Gesundheitsversorgung auf

Artificial intelligence, AI, robot, learning
Shutterstock.com

Künstliche Intelligenz wird zunehmend als Ersatz für traditionelle Therapie eingesetzt, doch neue Forschungsergebnisse deuten darauf hin, dass die Resultate äußerst besorgniserregend sein könnten. Experten warnen, dass die Technologie zwar zugänglich und kostengünstig ist, in kritischen Situationen jedoch unzureichend sein könnte.

Gerade lesen andere

Die Ergebnisse werfen neue Fragen zur Rolle von KI in der psychischen Gesundheitsversorgung auf.

Zunehmende Nutzung

Laut LADBIBLE wenden sich immer mehr Menschen, insbesondere jüngere Nutzer, an KI-Tools, um emotionale Unterstützung zu erhalten.

Eine Studie von RAND Health ergab, dass jeder achte junge Mensch in den Vereinigten Staaten regelmäßig auf solche Dienste zur Unterstützung der psychischen Gesundheit zurückgreift.

Dieser Trend entsteht vor dem Hintergrund einer steigenden Nachfrage nach Therapie, während der Zugang zu professioneller Hilfe für viele weiterhin begrenzt ist.

Studienergebnisse

Forscher der Brown University untersuchten führende KI-Systeme, darunter ChatGPT, Claude und Metas Llama, um zu bewerten, wie sie auf Szenarien im Bereich der psychischen Gesundheit reagieren.

Lesen Sie auch

Selbst bei Vorgaben, die darauf abzielten, professionelle Standards einzuhalten, erfüllten die Modelle wiederholt nicht die Erwartungen.

Die Studie identifizierte mehrere schwerwiegende Probleme im Umgang der Systeme mit sensiblen oder risikoreichen Situationen.

Zentrale Schwächen

Experten, die die Antworten überprüften, stellten fest, dass KI-Tools häufig zu allgemeine Ratschläge gaben, ohne individuelle Umstände angemessen zu berücksichtigen.

Sie stellten zudem eine Tendenz fest, schädliche oder falsche Überzeugungen zu bestärken, anstatt sie infrage zu stellen – ein zentraler Bestandteil wirksamer Therapie.

Ein weiteres Problem war das, was die Forscher als „trügerische Empathie“ bezeichneten, bei der Systeme Verständnis vortäuschen, ohne die Situation tatsächlich zu erfassen.

Lesen Sie auch

Sicherheitsbedenken

Das alarmierendste Problem war laut Studie das Fehlen eines angemessenen Krisenmanagements.

Die Forscher stellten fest, dass KI-Tools Nutzer selbst in potenziell gefährlichen Situationen nicht immer an geeignete Unterstützungsangebote verwiesen.

Zainab Iftikhar, die die Studie leitete, sagte: „Für menschliche Therapeuten gibt es Aufsichtsorgane und Mechanismen, durch die Anbieter für Fehlbehandlung und Kunstfehler beruflich zur Verantwortung gezogen werden können.“

Bedarf an Regulierung

Experten sagen, dass die Ergebnisse die Notwendigkeit stärkerer Regulierung und Tests unterstreichen, bevor solche Tools breit eingesetzt werden.

Ellie Pavlick, Professorin an der Brown University, die nicht an der Studie beteiligt war, sagte: „Es gibt eine echte Chance für KI, eine Rolle bei der Bewältigung der Krise im Bereich der psychischen Gesundheit zu spielen … aber es ist von größter Bedeutung, dass wir uns die Zeit nehmen, unsere Systeme wirklich kritisch zu prüfen und zu bewerten.“

Lesen Sie auch

Forscher betonen, dass KI zwar bei der Unterstützung der psychischen Gesundheit helfen kann, jedoch kein Ersatz für ausgebildete Fachkräfte sein sollte.

Quellen: LADBIBLE, Brown University, RAND Health