OpenAI teilte mit, dass das Unternehmen eine Gruppe von ChatGPT-Konten geschlossen habe,
Gerade lesen andere
OpenAI teilte mit, dass das Unternehmen eine Gruppe von ChatGPT-Konten geschlossen habe, die angeblich mit einer russischen Einflussoperation in Verbindung stehen, und ihnen den Zugang zu seinen KI-Tools entzogen habe.
Die Maßnahme wurde in einem Unternehmensbericht beschrieben, der darlegt, wie die Modelle zur Unterstützung koordinierter Online-Aktivitäten genutzt wurden.
Content-Farm-Taktiken
In seinem Bericht vom 26. Februar mit dem Titel “Disrupting malicious uses of our models” stellte OpenAI eine Fallstudie mit dem Codenamen “Fish Food” vor, die Konten im Zusammenhang mit dem russischen Projekt “Rybar” betraf.
Nach Angaben des Unternehmens nutzte das Netzwerk ChatGPT zur Erstellung von Social-Media-Beiträgen auf Russisch, Englisch und Spanisch. Ein Teil dieser Inhalte wurde später über Konten mit der Bezeichnung “Rybar” veröffentlicht.
OpenAI erklärte, das Muster ähnele einer Content-Farm für breite Verbreitung. In einem genannten Beispiel erzeugte ein einzelner Prompt sieben Entwürfe, von denen sechs über verschiedene X-Konten veröffentlicht wurden.
Lesen Sie auch
Afrika-fokussierte Planung
Dem Bericht zufolge nutzte das Hauptkonto ChatGPT auch zur Erstellung von Vorschlägen und zur Ausarbeitung von Einflussdiensten.
Dazu gehörte die Übersetzung einer Liste von Dienstleistungen ins Englische, darunter die Verwaltung von X- und Telegram-Konten sowie der Betrieb einer zweisprachigen investigativen Website mit Schwerpunkt auf Afrika.
OpenAI erklärte, Planungsdokumente hätten auf bezahlte Platzierungen in französischsprachigen Medien, den Aufbau von Verstärkernetzwerken und wahlbezogene Strategien in Ländern wie der Demokratischen Republik Kongo, Burundi, Kamerun und Madagaskar verwiesen. Ein vorgeschlagenes Konzept habe ein geschätztes Jahresbudget von bis zu 600.000 US-Dollar umfasst.
Zugang entzogen
OpenAI erklärte, die mit dem “Rybar”-Netzwerk verbundenen Konten gesperrt und relevante Hinweise mit anderen Unternehmen und Beteiligten geteilt zu haben, um eine weitere Verbreitung einzudämmen.
Die Offenlegung unterstreicht breitere Bedenken hinsichtlich des Missbrauchs generativer KI in koordinierten Einflussoperationen, einschließlich des Einsatzes synthetischer Medien und Identitätsvortäuschung.
Lesen Sie auch
Quellen: OpenAI, Bericht vom 26. Februar