Ki-Pseudonymitaet

Wenn KI Pseudonyme enttarnt

Wie künstliche Intelligenz den Mythos der Internet-Anonymität entlarvt:

Die Vorstellung, im Internet anonym zu sein, gehört zu den hartnäckigsten Mythen der digitalen Öffentlichkeit. Seit den frühen Tagen des Netzes gilt die Möglichkeit, unter Pseudonym zu kommunizieren, als Symbol für Freiheit und Selbstbestimmung im digitalen Raum. Millionen Menschen nutzen Foren, soziale Netzwerke oder Kommentarspalten unter Nicknames – oft in der Annahme, ihre reale Identität sei dadurch geschützt.

Doch genau diese Annahme gerät zunehmend ins Wanken. Eine aktuelle Studie von Forschern der ETH Zürich und des KI-Unternehmens Anthropic zeigt, dass moderne Sprachmodelle offenbar in der Lage sind, pseudonyme Onlineprofile mit realen Personen zu verknüpfen – allein auf Grundlage öffentlich zugänglicher Texte.

Die Studie trägt den Titel Large-Scale Online Deanonymization with LLMs. Darin untersuchen die Autoren, ob große Sprachmodelle digitale Spuren auswerten können, um reale Identitäten hinter Internetaccounts zu rekonstruieren. Bereits zu Beginn formulieren die Forscher ihr Ergebnis deutlich:

„Wir zeigen, dass große Sprachmodelle genutzt werden können, um Deanonymisierung in großem Maßstab durchzuführen.“ (Simon Lermen et al., Large-Scale Online Deanonymization with LLMs, 2026)

Die Arbeit zeigt damit vor allem eines: Die Idee, dass ein Pseudonym automatisch Schutz vor Identifikation bietet, war vermutlich schon lange trügerisch.

Pseudonymität ist nicht Anonymität

Ein zentraler Punkt der Debatte wird oft übersehen. Die meisten Nutzer bewegen sich im Internet nicht anonym, sondern pseudonym.

Ein Pseudonym bedeutet, dass eine Person unter einem festen digitalen Namen auftritt, der nicht ihrem realen Namen entspricht. Beiträge, Kommentare und Diskussionen bleiben jedoch dauerhaft miteinander verbunden. Über Jahre hinweg entsteht so eine konsistente digitale Identität.

Genau diese Kontinuität macht spätere Analysen möglich. Die Autoren der Studie beschreiben den technischen Ansatz so:

„Große Sprachmodelle können identitätsrelevante Signale aus beliebigen Texten extrahieren, effizient Millionen potenzieller Profile durchsuchen und beurteilen, ob zwei Accounts zur selben Person gehören.“ (Simon Lermen et al., Large-Scale Online Deanonymization with LLMs, 2026)

Mit anderen Worten: Die KI versucht nicht, eine einzelne Information zu finden, sondern viele kleine Hinweise miteinander zu kombinieren.

Wenn Onlinebeiträge zum digitalen Fingerabdruck werden

Menschen verraten in ihren Onlinebeiträgen oft mehr über sich, als ihnen bewusst ist. Ein beiläufig erwähnter Arbeitsort, ein spezielles Fachwissen oder eine persönliche Erfahrung können Hinweise liefern.

Für menschliche Leser wirken solche Details meist unbedeutend. Für ein KI-System hingegen bilden sie ein Muster.

Ein Sprachmodell kann beispielsweise erkennen:

  • berufliche Spezialisierungen
  • thematische Interessen
  • geografische Hinweise
  • sprachliche Eigenheiten

Diese Informationen werden anschließend mit öffentlich verfügbaren Profilen im Internet verglichen.

Die Studie beschreibt diesen Prozess so:

„Die Kombination aus Sprachmodellen, Websuche und automatisierter Schlussfolgerung ermöglicht eine skalierbare Form der Deanonymisierung.“ (Simon Lermen et al., Large-Scale Online Deanonymization with LLMs, 2026)

Der entscheidende Unterschied zu früheren Methoden liegt in der Automatisierung. Was früher aufwendige Recherche erforderte, kann nun von KI-Systemen in kurzer Zeit durchgeführt werden.

Das Experiment: Vom Forum zur realen Person

Um ihre Hypothese zu testen, analysierten die Forscher mehrere Datensätze aus bekannten Onlineplattformen. Besonders aufschlussreich war ein Experiment mit der Technologie-Community Hacker News.

Ein KI-Agent untersuchte dort pseudonyme Beiträge von Nutzern und versuchte anschließend, mögliche reale Personenprofile auf LinkedIn zu identifizieren.

In vielen Fällen gelang es dem System, plausible Kandidaten zu finden. Dabei spielte selten eine einzelne Information eine entscheidende Rolle. Vielmehr entstand die Identifikation durch die Kombination vieler kleiner Hinweise.

Die Autoren ziehen daraus eine klare Schlussfolgerung:

„Unsere Ergebnisse zeigen, dass der Schutz durch praktische Unauffälligkeit für pseudonyme Nutzer im Internet nicht mehr funktioniert.“ (Simon Lermen et al., Large-Scale Online Deanonymization with LLMs, 2026)

Der Begriff „praktische Unauffälligkeit“ beschreibt eine lange verbreitete Annahme: Informationen sind zwar öffentlich, bleiben aber unverbunden im riesigen Datenraum des Internets.

Automatisierte Analyse stellt genau diese Annahme zunehmend infrage.

Warum echte Anonymität im Internet selten ist

Die Studie beleuchtet nur einen Teil eines größeren Problems. Schon lange vor dem Einsatz moderner KI war echte Anonymität im Internet schwer zu erreichen.

Jede Internetverbindung hinterlässt technische Spuren. Dazu gehören etwa IP-Adressen, Zeitstempel oder Geräteinformationen. Internetprovider speichern häufig, welcher Anschluss zu einem bestimmten Zeitpunkt eine IP-Adresse genutzt hat.

Hinzu kommen Plattformdaten, Tracking-Technologien und soziale Netzwerkeffekte. Auch ohne KI lassen sich dadurch oft Rückschlüsse auf Nutzer ziehen.

Künstliche Intelligenz verschärft dieses Problem jedoch, weil sie unterschiedliche Datenspuren systematisch miteinander verknüpfen kann.

Die Autoren formulieren diese Entwicklung so:

„Unsere Ergebnisse legen nahe, dass die praktische Verschleierung, auf die sich viele pseudonyme Nutzer verlassen, zunehmend erodiert.“ (Simon Lermen et al., Large-Scale Online Deanonymization with LLMs, 2026)

Macht und Kontrolle über digitale Informationen

Gleichzeitig wäre es falsch zu behaupten, Informationen im Internet könnten grundsätzlich nicht entfernt werden. In vielen Fällen lassen sich Inhalte löschen – etwa durch Plattformmoderation, gerichtliche Entscheidungen oder Datenschutzgesetze.

In der Europäischen Union gibt es beispielsweise mit der Datenschutzgrundverordnung einen rechtlichen Anspruch auf Löschung bestimmter personenbezogener Daten.

Allerdings zeigt die Praxis auch, dass Macht und Ressourcen dabei eine entscheidende Rolle spielen. Große Unternehmen, Regierungen oder vermögende Einzelpersonen verfügen häufig über deutlich mehr Möglichkeiten, Inhalte entfernen oder unsichtbar machen zu lassen als gewöhnliche Nutzer.

Die Frage nach digitaler Privatsphäre ist daher nicht nur eine technische, sondern auch eine politische.

Automatisierte Recherche verändert die Spielregeln

Der vielleicht wichtigste Aspekt der Studie liegt nicht allein in der Leistungsfähigkeit der KI. Entscheidender ist, dass solche Analysen erstmals in großem Maßstab automatisiert werden können.

Sprachmodelle können große Mengen unstrukturierter Texte analysieren und daraus Hypothesen über Identitäten ableiten. Damit wird eine Methode skalierbar, die bislang vor allem von spezialisierten Ermittlern oder investigativen Journalisten eingesetzt wurde.

Für Aktivisten, Journalisten oder Whistleblower kann diese Entwicklung erhebliche Risiken bedeuten. Wer sich auf ein Pseudonym verlässt, könnte künftig leichter identifiziert werden.

Die eigentliche Lehre der Studie

Die Studie zeigt letztlich weniger das „Ende der Anonymität“ im Internet als eine unbequeme Realität digitaler Kommunikation: Onlinebeiträge bilden über die Zeit hinweg ein zusammenhängendes Datenmuster.

Ein einzelner Kommentar mag harmlos erscheinen. Doch über Jahre hinweg entsteht daraus eine digitale Spur, die analysiert werden kann.

Mit jeder neuen Generation von KI-Systemen wird es einfacher, diese Spuren miteinander zu verbinden.

Die Forschung macht deshalb vor allem deutlich, was viele Sicherheitsexperten schon lange betonen: Echte Anonymität im Internet war immer schwierig zu erreichen – und wird im Zeitalter künstlicher Intelligenz noch seltener.

Quellen

Simon Lermen et al. (2026) Large-Scale Online Deanonymization with LLMs – Bericht über die Studie im Magazin The Register

Diskussion der Studie auf Hacker News

Links:

https://arxiv.org/abs/2602.16800

https://www.theregister.com/2026/02/26/llms_killed_privacy_star

https://news.ycombinator.com/item?id=47139716

Schreibe einen Kommentar

Kommentare