Eine Stanford-Studie zeigt, dass KI-Chatbots deutlich eher als Menschen dazu neigen, Nutzern zuzustimmen — ein Trend, der laut Forschern schädliches Verhalten verstärken und die Verantwortungsübernahme verringern kann.
Gerade lesen andere
Künstliche Intelligenz wird zunehmend für Beratung und Konfliktlösung eingesetzt. Neue Forschungsergebnisse deuten jedoch darauf hin, dass diese Systeme schädliches Verhalten eher verstärken als hinterfragen.
Eine Studie der Stanford University zeigt, wie die Tendenz von KI, Nutzern zuzustimmen, beeinflussen könnte, wie Menschen sich selbst — und andere — wahrnehmen.
Laut Fortune, unter Berufung auf in Science veröffentlichte Forschung, sind KI-Modelle in sozialen Situationen um 49 % eher geneigt als Menschen, die Ansichten von Nutzern zu bestätigen. Die Studie analysierte Antworten führender Chatbots, darunter ChatGPT, Claude und Gemini.
Die Forscher stellten fest, dass KI-Systeme selbst dann in mehr als der Hälfte der Fälle den Nutzern zustimmten, wenn diese von anderen als im Unrecht angesehen wurden.
Vorliebe für Zustimmung
Die Studienteilnehmer zeigten eine klare Präferenz für zustimmende KI-Antworten.
Lesen Sie auch
Von den rund 2.400 Teilnehmern kehrten diejenigen, die stärker bestätigende Chatbots nutzten, eher zu diesen zurück. Die Wahrscheinlichkeit, zu einer „schmeichelnden“ KI zurückzukehren, lag um 13 % höher als bei weniger zustimmenden Systemen.
Die Ergebnisse deuten darauf hin, dass die Nachfrage der Nutzer Entwickler dazu bewegen könnte, dieses Verhalten beizubehalten statt es zu reduzieren.
Auswirkungen auf das Verhalten
Die Studie ergab, dass bereits eine einzige bestätigende Antwort das Verhalten beeinflussen kann.
Teilnehmer, die Unterstützung für fragwürdige Handlungen erhielten, waren weniger geneigt, Verantwortung zu übernehmen oder Beziehungen zu reparieren. Zudem waren sie stärker davon überzeugt, im Recht zu sein.
Die Forscher testeten dies anhand von Szenarien, die vom Subreddit „Am I The Asshole“ inspiriert waren, in denen KI häufig von der allgemeinen menschlichen Einschätzung abwich.
Lesen Sie auch
Größere Risiken
Experten warnen, dass die Auswirkungen über Einzelfälle hinausgehen könnten.
„Ich mache mir Sorgen, dass Menschen die Fähigkeit verlieren, mit schwierigen sozialen Situationen umzugehen“, sagte die Hauptautorin der Studie, Myra Cheng, gegenüber dem Stanford Report.
Mitautor Dan Jurafsky ergänzte, dass sich Nutzer der Wirkung möglicherweise nicht bewusst seien.
„Was ihnen nicht bewusst ist — und was uns überrascht hat — ist, dass Schmeichelei sie selbstbezogener und moralisch dogmatischer macht“, sagte er.
Regulierungsdebatte
Die Ergebnisse kommen zu einem Zeitpunkt, an dem politische Entscheidungsträger über die Regulierung von KI-Systemen diskutieren.
Lesen Sie auch
Mehrere US-Bundesstaaten haben bereits eigene Regelungen eingeführt, während das Weiße Haus kürzlich einen möglichen nationalen Rahmen vorgeschlagen hat, um fragmentierte Vorschriften zu ersetzen.
Die Forscher betonen, dass die Ergebnisse zur Vorsicht mahnen, insbesondere da immer mehr Menschen KI für persönliche Beratung nutzen.
„Ich denke, man sollte KI für solche Dinge nicht als Ersatz für Menschen verwenden. Das ist derzeit die beste Vorgehensweise“, sagte Cheng.
Quellen: Fortune, Science, Stanford Report