Forscher der ETH Zürich und von Anthropic fanden heraus, dass große Sprachmodelle reale Personen hinter pseudonymen Online-Accounts mit überraschend hoher Genauigkeit identifizieren können.
Gerade lesen andere
Über Jahrzehnte hinweg haben pseudonyme Accounts es Internetnutzern ermöglicht, sich online frei zu äußern, ohne ihre echte Identität preiszugeben. Neue Forschung deutet jedoch darauf hin, dass dieser Schutz im Zeitalter der künstlichen Intelligenz schnell erodieren könnte.
Ein Forschungsteam der ETH Zürich und des KI-Unternehmens Anthropic hat herausgefunden, dass große Sprachmodelle (LLMs) eingesetzt werden können, um die realen Personen hinter vermeintlich anonymen Onlinekonten zu identifizieren — und das in großem Maßstab.
Ihre Ergebnisse, die in einer wissenschaftlichen Arbeit beschrieben werden, die noch nicht peer-reviewt wurde, legen nahe, dass die lange verbreitete Annahme, Pseudonyme würden Online-Privatsphäre schützen, möglicherweise nicht mehr gilt.
KI verbindet anonyme Beiträge mit realen Identitäten
In ihren Experimenten entwickelten die Forscher ein KI-System, das pseudonyme Onlinebeiträge mit realen Identitäten verknüpfen sollte.
Das System analysierte Nutzerkommentare und Profilinformationen von Plattformen wie Hacker News und Reddit und versuchte, diese mit öffentlichen Profilen — darunter LinkedIn-Accounts — abzugleichen.
Lesen Sie auch
Den Forschern zufolge konnte der KI-Agent etwa zwei Drittel der Nutzer allein anhand ihrer Online-Gespräche und Profilinformationen korrekt identifizieren.
Aufgaben, die für menschliche Ermittler normalerweise Stunden dauern würden, konnten vom KI-System deutlich schneller erledigt werden.
„Große Sprachmodelle können zur massenhaften Deanonymisierung eingesetzt werden“, schrieben die Forscher in ihrer Arbeit.
Wie die KI Nutzer identifizierte
Um das System zu testen, sammelten die Forscher zunächst Datensätze aus öffentlichen Foren und sozialen Netzwerken.
Anschließend entfernten sie offensichtliche Identifikationsmerkmale aus den Beiträgen und trainierten ein LLM darauf, den verbleibenden Text zu analysieren und mit möglichen Autoren abzugleichen.
Lesen Sie auch
Die KI suchte nach subtilen Mustern — Schreibstil, Interessen sowie Hinweise auf Berufe oder Erfahrungen — die ein anonymes Profil mit einer bestimmten Person verbinden könnten.
„Wir haben festgestellt, dass diese KI-Agenten etwas leisten können, das zuvor sehr schwierig war“, sagte ETH-Zürich-Ingenieur Simon Lermen gegenüber Ars Technica. Ausgehend von freien Textgesprächen könne sich das Modell schrittweise zur Identität der Person vorarbeiten.
Selbst begrenzte Daten können Identitäten verraten
In einigen Fällen erhielt die KI nur sehr allgemeine Informationen.
Als sie etwa anonymisierte Antworten aus einer Anthropic-Umfrage darüber analysierte, wie Menschen KI-Tools im Alltag nutzen, konnte das Modell dennoch in etwa sieben Prozent der Fälle die betreffende Person identifizieren.
Auch wenn diese Zahl klein erscheint, betonen die Forscher, dass es bemerkenswert ist, dass KI Menschen überhaupt anhand so begrenzter Informationen identifizieren kann.
Lesen Sie auch
In anderen Datensätzen — etwa Reddit-Diskussionen über Filme — stieg die Trefferquote deutlich an. Je mehr Nutzer über ihre Interessen schrieben, desto leichter fiel es der KI, diese Hinweise realen Personen zuzuordnen.
Ein möglicher Schlag gegen die Online-Anonymität
Die Ergebnisse werfen ernsthafte Fragen über die Zukunft der Privatsphäre im Internet auf.
Für viele Nutzer waren pseudonyme Accounts eine grundlegende Schutzschicht gegen Belästigung, Stalking oder Vergeltungsmaßnahmen.
Doch die Forscher argumentieren, dass KI-Systeme die Bedrohungslage schnell verändern.
„Die praktische Unauffindbarkeit, die pseudonyme Nutzer im Internet geschützt hat, besteht nicht mehr“, warnte das Team und fügte hinzu, dass viele Annahmen über Privatsphäre im Netz neu bewertet werden müssten.
Lesen Sie auch
Risiken für Aktivisten, Journalisten und normale Nutzer
Sollte die Technologie weit verbreitet werden, könnten die Folgen weit über akademische Experimente hinausgehen.
Regierungen könnten ähnliche Werkzeuge einsetzen, um Dissidenten oder Journalisten zu identifizieren, die unter Pseudonym arbeiten. Unternehmen könnten anonyme Beiträge mit Kundenprofilen verknüpfen, um gezielte Werbung zu betreiben.
Auch Cyberkriminelle könnten solche Systeme nutzen, um detaillierte Profile potenzieller Opfer zu erstellen und ausgefeiltere Social-Engineering-Angriffe durchzuführen.
Die Forscher sagen, ihre Arbeit unterstreiche die Notwendigkeit neuer Datenschutzmaßnahmen, da KI-Systeme immer leistungsfähiger werden.
„Nutzer, Plattformen und politische Entscheidungsträger müssen erkennen, dass die Datenschutzannahmen, auf denen ein großer Teil des heutigen Internets basiert, nicht mehr gelten“, heißt es abschließend in der Studie.
Lesen Sie auch
Quelle: Futurism