Startseite Technologie Google-KI verändert Nachrichtenüberschriften ohne Zustimmung

Google-KI verändert Nachrichtenüberschriften ohne Zustimmung

Artificial Intelligence
Shutterstock

Habe ich diese Überschrift überhaupt geschrieben?

Gerade lesen andere

Ein stilles Experiment innerhalb von Google Discover sorgt in Redaktionen für Unruhe. Android-Nutzer sehen zunehmend veränderte Überschriften, die nicht mit denen übereinstimmen, die Journalisten ursprünglich formuliert haben. Das weckt Sorgen über Verwirrung, Klickzahlen und darüber, wer den ersten Eindruck einer Geschichte kontrolliert.

Berichte aus mehreren Quellen beschreiben denselben Trend: automatisch generierte Titel, die Inhalte verkürzen, verzerren oder die Bedeutung veröffentlichter Artikel vollständig verfälschen.

Irreführende Mini-Titel

Mehrere der von der KI erzeugten Überschriften, die von The Verge hervorgehoben wurden, enthalten provokante oder unzutreffende Formulierungen. Eine lautete: „BG3-Spieler nutzen Kinder aus“, obwohl die tatsächliche Berichterstattung von PC Gamer sich auf einen Fehler in Baldur’s Gate 3 bezog, der es Spielern ermöglicht, kindliche Spielfiguren zu klonen. Eine weitere Discover-Überschrift, „Preis der Steam Machine enthüllt“, widersprach direkt dem Artikel von Ars Technica, der ausdrücklich erklärte, dass Valve keinerlei Preise bekanntgegeben habe.

Gekürzte Versionen haben zudem entscheidenden Kontext entfernt. The Verge verwies darauf, wie „Microsoft-Entwickler nutzen KI“ eine klare, sachliche Geschichte zu einer inhaltsleeren Aussage reduzierte. In anderen Fällen tauchten Fragmente wie „Schedule-1-Farming-Backup“ oder „KI-Tag-Debatte heizt sich auf“ ohne erkennbaren Zusammenhang auf.

Laut The Verge wirkten einige Überschriften wie kaum mehr als vier Wörter langer Clickbait – während weiterhin der Name des ursprünglichen Verlags daneben angezeigt wurde.

Lesen Sie auch

Fragen der Kontrolle

Inputmag berichtete, dass Discover nun ein kleines Label einblendet, wonach bestimmte Elemente „mit KI generiert wurden, die Fehler machen kann“. Dieser Hinweis erscheint jedoch erst, wenn man tiefer in die Oberfläche klickt, sodass viele Nutzer nicht wissen, dass Google – und nicht die Redaktion – die Überschrift erstellt hat.

Von The Verge zitierte Redakteure argumentierten, dass diese Praxis ihre Möglichkeit untergräbt, ihre eigenen Geschichten angemessen einzurahmen. Sie warnten, dass Leser annehmen könnten, die verzerrten Titel seien absichtlich vom Medium selbst formuliert worden – ein Risiko für das ohnehin durch KI-getriebene Veränderungen bei Suche und Auffindbarkeit belastete Vertrauen.

Auch der dänische Bericht äußerte ähnliche Bedenken und stellte fest, dass eine irreführende Überschrift Leser zu falschen Schlussfolgerungen verleiten könne, noch bevor sie den Artikel überhaupt öffnen.

Googles Erklärung

Google teilte The Verge mit, dass es sich um „ein kleines UI-Experiment für einen Teil der Discover-Nutzer“ handele, das darauf abziele, Themeninformationen leichter erfassbar zu machen. Das Unternehmen erläuterte jedoch nicht, warum die umformulierten Titel häufig deutlich von der Bedeutung der ursprünglichen Berichterstattung abweichen.

Das Experiment fällt in eine Zeit breiter Branchenkritik, wonach Googles KI-Produkte – von Suchübersichten bis hin zu Bildausgaben – zunehmend beeinflussen, wie Informationen sichtbar werden, oft zum Nachteil der Verlage. Wie beide Medien festhielten, wirft der Test zudem grundsätzliche Fragen zu Genauigkeit, Transparenz und der Zukunft redaktioneller Kontrolle in algorithmisch kuratierten Feeds auf.

Lesen Sie auch

Quellen: The Verge, iNPUT