Ein junger ukrainischer Soldat erscheint auf dem Bildschirm und schluchzt, während er schildert, wie er zum Kampfeinsatz gezwungen wurde. Das Video verbreitete sich rasch und löste auf Social-Media-Plattformen Empörung und Mitgefühl aus.
Gerade lesen andere
Laut EFE, zitiert von Agerpres und berichtet von Digi24.ro, war der Mann überhaupt kein Soldat. Das Filmmaterial wurde mithilfe künstlicher Intelligenz erzeugt und soll auf dem Gesicht eines russischen Content-Erstellers basieren, der sich gegen das Regime von Präsident Wladimir Putin ausgesprochen hat.
Die Episode verdeutlicht, wie der Krieg in der Ukraine, der nun in sein fünftes Jahr geht, zunehmend ebenso stark von digitaler Manipulation wie von den Ereignissen vor Ort geprägt wird.
Synthetische Realität
EFE berichtete, dass Fortschritte in der generativen KI gefälschte Videos deutlich überzeugender gemacht haben als die groben Deepfakes aus den ersten Monaten der Invasion. Kleine Unstimmigkeiten bei Uniformen oder Abzeichen könnten die einzigen sichtbaren Hinweise sein.
Olga Petriv, Spezialistin für KI-Recht am ukrainischen Zentrum für Demokratie und Rechtsstaatlichkeit, warnte, dass moderne Werkzeuge Material hervorbringen können, das so realistisch ist, dass die Aufdeckung von Fälschungen häufig eine technische Analyse statt bloßer Betrachtung erfordert.
Sie warnte zudem, dass die Verbreitung künstlich erzeugter Bilder das Risiko berge, eine von ihr so bezeichnete „Vermutung der Falschheit“ zu fördern, bei der authentische Kriegsbeweise als Fälschungen abgetan werden könnten.
Lesen Sie auch
„Sie können inzwischen sogar unbestreitbare Beweise für ihre Verbrechen (zum Beispiel authentische Bilder von der Front) leugnen, indem sie sie einfach als ‚KI-generiert‘ bezeichnen.“
Manipulation von Maschinen
Visuelle Täuschung ist nur ein Teil der Strategie. EFE berichtete zudem, dass Akteure der Desinformation versuchen, große Sprachmodelle, darunter Chatbots wie ChatGPT, durch eine Methode zu beeinflussen, die als LLM Grooming bekannt ist.
Die Taktik beruht darauf, das Internet mit koordinierten Falschinformationen zu überfluten, sodass KI-Systeme irreführende Narrative aufnehmen und später in ihren Antworten wiedergeben. Petriv erklärte laut EFE, dies stelle einen Wandel dar – weg von individuell erstellten Falschmeldungen hin zu hochautomatisierten, groß angelegten Operationen.
Von EFE zitierte Untersuchungen beschreiben das sogenannte Pravda-Netzwerk als Beispiel für dieses Ökosystem. Das in rund 50 Ländern aktive Netzwerk veröffentlicht große Mengen an Material, das mit prorussischen Narrativen übereinstimmt. Durch die Erzeugung von Masse und das Anziehen von Verlinkungen durch Blogs und andere Websites können solche Plattformen die Wahrscheinlichkeit erhöhen, dass Suchmaschinen und KI-Modelle die Inhalte als glaubwürdige Quellen einstufen.
Der mehrsprachige Charakter einiger dieser Materialien, die in wichtigen europäischen Sprachen erscheinen, deutet zudem auf eine koordinierte Verbreitung hin, die darauf abzielt, ein Publikum über die Ukraine und Russland hinaus zu erreichen.
Lesen Sie auch
Über KI-bezogene Taktiken hinaus stellte EFE fest, dass jüngste Desinformationskampagnen auch darauf abzielten, ausländische Kämpfer – insbesondere Kolumbianer – davon abzuhalten, die Ukraine zu unterstützen, sowie Friedensbemühungen zu erschweren.
Mit der zunehmenden Raffinesse digitaler Werkzeuge wird der Informationsraum rund um den Konflikt zu einer weiteren umkämpften Front, auf der die Wahrnehmung selbst strategisch ins Visier genommen wird.
Quellen: EFE, Agerpres, Digi24.ro