wikipedia-ki

Wenn Quellen nur noch plausibel klingen

KI-Halluzinationen, erfundene ISBNs und die neue Verwundbarkeit der Wikipedia:

Wikipedia ist eines der wenigen großen Wissensprojekte, das nicht auf institutioneller Autorität, sondern auf Verfahren beruht. Verlässlichkeit entsteht hier nicht durch Expertenstatus, sondern durch Nachvollziehbarkeit: Aussagen müssen belegt, Quellen überprüfbar, Änderungen transparent sein. Dieses Prinzip hat die Enzyklopädie über Jahre widerstandsfähig gemacht – gegen Fehler, Manipulation und politische Einflussnahme.

Mit der zunehmenden Nutzung generativer KI gerät dieses Fundament jedoch unter neuen Druck. Nicht, weil Wikipedia plötzlich von Maschinen geschrieben würde, sondern weil maschinell erzeugte Plausibilität beginnt, menschliche Überprüfung zu unterlaufen.

Halluzinationen sind kein Ausrutscher

In der KI-Forschung ist der Begriff der Halluzination klar umrissen. In der deutschsprachigen Wikipedia heißt es:

„Eine KI-Halluzination ist ein überzeugend formuliertes Resultat, das nicht durch Trainingsdaten gerechtfertigt zu sein scheint und objektiv falsch sein kann.“

Diese Definition ist entscheidend, weil sie den Kern des Problems freilegt: Halluzinationen sind keine Fehlfunktion, sondern eine systemische Eigenschaft generativer Sprachmodelle. Sie entstehen dort, wo ein Modell sprachlich weiterschreibt, obwohl es faktisch nichts mehr weiß.

Das ist kein Randphänomen. Im Gegenteil: Je souveräner ein Text klingt, desto größer ist die Gefahr, dass er Wissenslücken überdeckt, statt sie offenzulegen. Genau darin unterscheidet sich KI-Halluzination grundlegend von klassischen Fehlern. Ein Tippfehler irritiert. Eine Halluzination überzeugt.

Wenn Quellen erfunden werden

Besonders problematisch wird das dort, wo KI nicht nur Aussagen formuliert, sondern Belege simuliert. In der englischsprachigen Wikipedia wird dieses Muster ausdrücklich benannt. In deutscher Übersetzung heißt es dort:

„Erfundene Quellen sind ein zentrales Anzeichen für den Einsatz von KI. KI ist dafür bekannt, halluzinierte Quellen zu erzeugen, darunter gefälschte DOIs oder ISBN-Nummern sowie Verweise auf nicht erreichbare Internetseiten.“

Damit wird eine neue Qualität von Fehler beschrieben. Es geht nicht mehr um falsche Interpretation realer Quellen, sondern um Quellen, die nie existiert haben. Besonders ISBN-Nummern sind dabei aufschlussreich. Sie folgen festen mathematischen Regeln. Eine falsche ISBN ist kein Graubereich, sondern ein objektiver Bruch mit der Realität.

Dass solche erfundenen Referenzen inzwischen in Wikipedia-Artikeln auftauchen, ist deshalb mehr als ein redaktionelles Ärgernis. Es ist ein epistemisches Warnsignal.

Warum Wikipedia besonders anfällig ist

Wikipedia lebt davon, dass Quellen nicht nur genannt, sondern nachvollzogen werden können. Diese Architektur funktioniert gut, solange alle Beteiligten dieselbe Grundannahme teilen: dass Quellen reale Ankerpunkte außerhalb des Textes haben.

KI-halluzinierte Quellen unterlaufen genau diese Annahme. Sie sehen korrekt aus, sind sauber formatiert, passen thematisch – und führen dennoch ins Leere. Der Text wirkt überprüfbar, ist es aber nicht. Überprüfbarkeit wird gespielt, nicht eingelöst.

Ein Beitrag im offiziellen Blog von Wikimedia Deutschland bringt das nüchtern auf den Punkt:

„KI-generierte Wikipedia-Artikel enthalten häufig erfundene Inhalte oder Verweise auf Quellen, die nicht existieren.“

Diese Einschätzung ist deshalb so relevant, weil sie nicht von außen kommt. Sie beschreibt ein Problem, das innerhalb der Community erkannt wurde – und das die alltägliche redaktionelle Arbeit zunehmend belastet.

Quantität täuscht, Qualität entscheidet

Oft wird eingewandt, es handele sich nur um wenige hundert problematische Artikel bei Millionen Einträgen. Doch diese Argumentation verkennt die Tragweite. Entscheidend ist nicht die Zahl der Fälle, sondern die Art der Verfälschung.

Klassischer Vandalismus ist sichtbar. Ideologische Verzerrung lässt sich diskutieren. KI-halluzinierte Inhalte hingegen tarnen sich als Normalität. Sie imitieren wissenschaftliche Sprache, respektieren formale Standards und wirken gerade deshalb glaubwürdig.

Damit verschiebt sich die Fehlererkennung. Sie verlangt nicht mehr nur Sachkenntnis, sondern zunehmend technische, bibliografische und methodische Kompetenz. Das erhöht den Aufwand für eine Community, die überwiegend ehrenamtlich arbeitet – und verschärft ein strukturelles Ungleichgewicht zwischen Textproduktion und Textprüfung.

Wikipedia als Frühwarnsystem

Was sich in der Wikipedia zeigt, ist kein isoliertes Problem. Die Enzyklopädie fungiert vielmehr als Frühwarnsystem für eine breitere Entwicklung. In Hochschulen, Bibliotheken und Redaktionen mehren sich Berichte über Arbeiten und Texte mit frei erfundenen Literaturangaben, generiert von KI-Systemen.

Besonders problematisch ist dabei nicht die Existenz falscher Quellen an sich – die gab es immer –, sondern ihre Qualität. Titel klingen plausibel, Autorennamen passen ins Fachgebiet, Publikationsorte wirken seriös. Die Fälschung ist nicht plump, sondern elegant.

Ein bibliothekarischer Fachbeitrag beschreibt dieses Phänomen als neue Herausforderung wissenschaftlicher Praxis: Fehler werden nicht mehr erkannt, weil sie falsch sind, sondern nur noch, wenn jemand gezielt nachprüft.

Plausibilität als neues Wahrheitsproblem

Damit verschiebt sich eine Grundkategorie des Wissens. Wahrheit wird nicht mehr primär an Übereinstimmung mit der Realität gemessen, sondern an sprachlicher Stimmigkeit. Das ist kein technisches Detail, sondern ein kulturelles Problem.

Ein journalistischer Beitrag einer großen deutschen Wochenzeitung formuliert es zugespitzt:

„In der Wikipedia häufen sich Quellen, die es nicht gibt – weil immer öfter die KI, nun ja, ‚hilft‘. Sie bedroht damit das Erfolgsprinzip: menschliche Intelligenz.“

Der Satz trifft einen wunden Punkt. Generative KI produziert keine Erkenntnis, sondern Wahrscheinlichkeit. Sie weiß nicht, ob etwas wahr ist – sie weiß nur, ob es gut klingt. Wenn diese Unterscheidung im öffentlichen Wissensraum unscharf wird, gerät nicht nur Wikipedia, sondern die Idee überprüfbaren Wissens insgesamt unter Druck.

Gegenmaßnahmen – notwendig, aber begrenzt

Die Wikipedia-Community reagiert mit Richtlinien, Warnhinweisen und technischen Werkzeugen. Es gibt Initiativen zur Überprüfung von ISBNs und DOIs, Diskussionen über Kennzeichnungspflichten für KI-unterstützte Beiträge und Schulungen für neue Autorinnen und Autoren.

Doch all diese Maßnahmen haben Grenzen. Denn das Grundproblem liegt nicht in mangelnder Aufmerksamkeit, sondern in der Asymmetrie zwischen Textproduktion und Kontrolle. KI kann in Sekunden Inhalte erzeugen, deren Überprüfung Stunden dauert.

Solange Sprachmodelle Texte generieren, ohne ihre Aussagen selbst verifizieren zu können, bleibt menschliche Kontrolle unverzichtbar – und zugleich überfordert.

Fazit: Wissen braucht Widerstand

Die Debatte um KI und Wikipedia ist keine Technikfrage, sondern eine Wissensfrage. Sie zwingt dazu, neu darüber nachzudenken, was Verlässlichkeit im digitalen Zeitalter bedeutet.

Wenn Quellen nur noch plausibel klingen, aber nicht mehr existieren, verliert Wissen seine wichtigste Eigenschaft: Widerstand gegen Überprüfung. Wahrheit zeigt sich nicht dort, wo Texte glatt sind, sondern dort, wo sie sich überprüfen lassen.

Wikipedia steht exemplarisch für diese Herausforderung. Die Enzyklopädie wird KI nutzen müssen. Aber sie wird nur dann glaubwürdig bleiben, wenn sie sich nicht von sprachlicher Eleganz blenden lässt – und Plausibilität nicht mit Wahrheit verwechselt.

Quellen

– Wikipedia (deutsch): Halluzination (Künstliche Intelligenz)
– Wikipedia (englisch): AI-generated content on Wikipedia (Zitate in eigener Übersetzung)
– Wikimedia Deutschland Blog: Beiträge zum Einsatz von KI in der Wikipedia
– netzpolitik.org: Berichte zu KI-halluzinierten Quellen
– Duke University Libraries Blog: ChatGPT and Fake Citations
– Die Zeit: Als die Wikipedia begann zu halluzinieren


Beitrag veröffentlicht

in

von

Schreibe einen Kommentar

Kommentare