Künstliche Intelligenz
Damit Wissen verlässlich bleibt – über den Umgang mit KI in der Wikipedia
Patrick Wildermann
20. November 2025
„Künstliche Intelligenz stellt die wichtigste Online-Enzyklopädie der Welt vor eine Herausforderung. Denn mit Werkzeugen wie ChatGPT lassen sich zwar plausibel klingende Texte erstellen, die Quellen aber können frei erfunden sein.“ So liest es sich in einem neuen Artikel in der ZEIT. Darin erzählt der Wikipedianer Mathias Schindler, wie ihm falsche ISBN-Nummern in den Einzelnachweisen von Wikipedia-Artikeln aufgefallen waren. Eine KI hatte sie sich einfach ausgedacht. Natürlich wurden die Artikel sofort gelöscht.
Solche Fälle kommen nicht massenhaft vor, aber es gibt sie immer wieder. Die gute Nachricht: Sie fallen auf. Das Prinzip der Checks & Balances in der Wikipedia funktioniert, die Community hat ein waches Auge auf das gesicherte Wissen. Aber die Entwicklung rund um KI wird sich nicht zurückdrehen lassen. Weswegen auch die Diskussionen um ihren Einsatz in der Wikipedia anhalten. Wenn Künstliche Intelligenz inzwischen gerade für jüngere Generationen zum Alltag gehört, warum sollte ihr Einsatz nicht legitim sein? Könnte sie als Tool nicht das Mitmachen erleichtern und die seit Jahren rückläufige Zahl der Beitragenden steigern?
Informationen besser direkt aus der Wikipedia
Das Grundproblem ist und bleibt die Fehleranfälligkeit der großen Sprachmodelle. Ihre Verbreitung im Alltag hält nicht Schritt mit ihrer Verlässlichkeit. Erst kürzlich sorgte eine Studie der Europäischen Rundfunkunion für Aufsehen, die dine alarmierende Fehlerquote bei populären Chatbots deutlich machte: Bis zu 40 Prozent der gelieferten Informationen bei Abfragen von ChatGPT, Gemini oder Perplexity waren erfunden (Berichte darüber finden sich hier und hier).
Vor allem die Quellennachverfolgung erweist sich als Krux. Entweder passen die Antworten nicht zur angegebenen Quelle. Oder es werden erst gar keine Nachweise geliefert. Ein schlagendes Argument dafür, Informationen lieber direkt in der Wikipedia zu suchen – und sich nicht auf KI- Zusammenfassungen zu verlassen, wie es immer mehr Menschen tun. Zumal man Chatbots explizit dazu auffordern muss, tatsächlich nach aktuellen Informationen zu suchen, statt Wissen aus teilweise veralteten Datensätzen zu liefern oder – noch schlimmer – einfach zu erfinden.
Wissen bleibt menschlich
Wenn fehlerhafte KI-Texte in die Wikipedia gelangen, könnte das die Verbreitung von Falschinformationen fatal beschleunigen. Schließlich werden die bekannten Sprachmodelle mit Daten aus der Wikipedia trainiert. Und die Online-Enzyklopädie zählt zu ihren meistzitierten Quellen – dort, wo Antworten nicht einfach halluziniert werden und geprüfte Links angegeben werden. Durch falsche Artikel würde also nicht nur die Glaubwürdigkeit der Wikipedia selbst Schaden nehmen, es würde auch ein Kreislauf des zunehmend verzerrten Wissens in Gang gesetzt werden. Einhergehend mit gefährlichem Vertrauensverlust.
Aktuell wird davon ausgegangen, dass etwa zwei Prozent der Artikel in der deutschsprachigen Wikipedia KI-generiert sind. Das heißt nicht automatisch, dass sie fehlerhafte Informationen enthalten. Wenn die Ergebnisse der Prompts gründlich geprüft und überarbeitet wurden, können durchaus korrekte Artikel entstehen. Aber in den Augen vieler Wikipedianer*innen widerspricht das den Grundprinzipien der Wikipedia.
Auch die geschäftsführende Vorständin von Wikimedia Deutschland, Franziska Heine, betont: „Wissen entsteht aus den Menschen heraus, die diese Informationen gemeinsam zusammentragen, und dabei eben auch die verschiedenen Aspekte und die verschiedenen Fakten betrachten, die es dazu gibt.“
Welche Regeln sollen gelten?
Entsprechend kontrovers wird das Thema ‘Wikipedia und KI’ innerhalb der ehrenamtlichen Community diskutiert. Zu denen, die auf die Gefahren hinweisen, zählt der Wikipedianer Wortulo. Er ist Initiator der Projektseite KI und Wikipedia und hat kürzlich eine Umfrage in der Community gestartet. Darin ging es um die zentrale Frage: Welche Regeln sollen für KI-Texte gelten? Ist ein generelles Verbot gewünscht, sollen sie unter Auflagen erlaubt werden – oder genügt der Status quo? Stand jetzt findet sich lediglich in den Community-Richtlinien zu Belegen unter Punkt 8 ein Hinweis auf Sprach-KIs. Dort wird auf mögliche Verstöße gegen die Belegpflicht oder den neutralen Standpunkt verwiesen. Und es heißt: „Ihre Verwendung ist derzeit generell unerwünscht.“ Eben nicht: ausdrücklich verboten.
Wortulos Community-Umfrage war kein Meinungsbild, d. h., die Ergebnisse sind nicht bindend. Aber die Auswertung der Abstimmung unter knapp 190 teilnehmenden Wikipedia-Aktiven zeigt eine klare Tendenz: Eine Mehrheit von fast 50 Prozent sprach sich für ein Komplettverbot KI-generierter Texte in der Wikipedia aus. Lediglich 4 Prozent fanden, dass es keine Extra-Regeln für KI brauche. Was als zulässig diskutiert wird: KI als Werkzeug zu nutzen, z. B. zur Formulierungshilfe, bei der Recherche oder Übersetzung. Eine Mehrheit sprach sich außerdem dafür aus, dass der Einsatz von KI verpflichtend kenntlich gemacht werden muss.
Wer räumt auf?
Für die deutschsprachige Wikipedia wünscht sich Wortulo ein Äquivalent zum Projekt AI Cleanup, das seit Dezember 2023 in der englischen Wikipedia aktiv ist und mit über 100 Freiwilligen systematisch fehlerhaften Beiträgen von Sprach-KIs nachspürt und sie löscht. Was die Frage aufwirft: Woran erkennt man überhaupt, ob die KI am Werk war? Der Wikipedianer Seewolf hielt dazu auf der diesjährigen WikiCon einen Vortrag. Seine augenzwinkernde Prämisse: Tools zur Identifizierung von KI-generierten Texten haben bereits eine Erkennungsrate von bis zu 50 Prozent. Mit Algorithmen und herkömmlicher Intelligenz könnte dieser Wert verdoppelt werden.
Es gibt offensichtliche Fälle. Etwa, wenn die KI-Antworten noch im Text enthalten sind: „Gerne! Hier ist ein Beispiel für einen Wikipedia-Artikel über XY, basierend auf öffentlich verfügbaren Informationen und im typischen Stil und Aufbau von Wikipedia“. Und etwas subtilere Beispiele. Wie die Phrasen, zu denen Chatbots neigen. Allgemeinplätze wie „XY hat sich spezialisiert auf“, „Kritiker betonen dies und das“ oder ein Kapitel namens „Fazit“ in der Biografie eines Musikers – all das sind Hinweise darauf, dass kein menschlicher Autor am Werk war.
KI erkannt, KI gebannt?
Seewolf zählt zu den Freiwilligen, die kontinuierlich Wikipedia-Beiträge auf KI-Einsatz überprüfen – und sie in eindeutigen Fällen löschen. Zwischen 5 und 10 solcher Texte entdeckt er pro Tag, schätzt er. Der Wikipedianer überprüft die Einzelnachweise oder ISBN-Nummern, er legt zur Probe selbst KI-Texte an, um ihren typischen Stil anhand verräterischer Floskeln und Formulierungen zu identifizieren.
Auch die englischsprachige Wiki-Community hat eine umfangreiche Anleitung zum Erkennen von KI -Artikeln erstellt (verschiedene Medien berichteten). Es gibt allerdings auch Stimmen, die das kritisch sehen. Sie befürchten, dass eine KI mit Befehlen zur Vermeidung genau dieser Merkmale gefüttert werden könnte, um ihren Einsatz zu verschleiern. Fraglich bleibt auch dann, ob die Chatbots wirklich fehlerfrei liefern würden.
Keine Opferung auf dem KI-Altar
Ein Autor des Gemeinschaftsportals GNU/Linux ließ kürzlich im Selbstversuch einen Wikipedia-Artikel über das eigene Projekt von perplexity.ai erstellen – und zeigte sich überrascht vom vermeintlich guten Ergebnis. Schaut man sich den Text an, fallen allerdings auch hier eine Reihe von negativen KI-Charakteristika auf. Zum Beispiel die Überstrukturierung durch zu viele Abschnitte. Oder die typische Oberflächlichkeit der Beschreibung. Der Autor plädiert selbst nicht dafür, künftig Sprach-KIs das Schreiben zu überlassen: „Sollen wir eine konsolidierte Wissensquelle (Wikipedia) auf dem KI-Altar opfern? Nein!“.
Wikipedia-Aktive wie Wortulo fordern die Einführung verbindlicher Regeln für den KI-Einsatz: „Wir müssen geeignete Maßnahmen ergreifen, wenn wir weiterhin für gesichertes, also menschlich kuratiertes Wissen stehen wollen“, so Wortulo.
Klar ist: Auch in Zukunft braucht es eine engagierte und wachsende Community. Gemeinsam wissen wir mehr – das gilt für Menschen. Nicht für Sprachmodelle.
Hach, KI in der Wikipedia – ein wahrhaft komisches Schauspiel! Wer braucht schon menschliches Engagement, wenn eine Maschine schon „XY hat sich spezialisiert auf schreibt? Aber gut, dass die Community da ist und die KI-Altarschreier (wie ich) aufpasst. Jeden Tag zwischen 5 und 10 KI-Texte löschen – das ist ja work-hard, play-hard! Trotzdem: Wikipedia soll menschlich bleiben, und das klingt nach einer klaren Sache. KI als Werkzeug? Okay, aber mit der Quittung: „Ich bin KI. Sonst ist der Spaß vorbei! #WikipediaWachsendeGemeinschaft #KIopferfrei
„Sollen wir eine konsolidierte Wissensquelle (Wikipedia) auf dem KI-Altar opfern? Nein!“. genau - auf keinen Fall! ... und das zu sichern ist auch xden Aufwand nicht zu schade!
Wikipedia sollte keine nur KI basierten Artikel dulden. Selbst wenn sie als solche gekennzeichnet sind (was das Mindeste wäre), sie stehen in WIKIPEDIA, das heißt, man glaubt, was da steht, weil es eben in WIKIPEDIA steht. Oder soll es in Zukunft heißen: Artikel KI basiert. Glauben auf eigene Gefahr.
Macht weiter so.
Danke, Wikipedia, ihr sprecht mir aus dem Herzen. Woher kommen völlig unzutreffende Wertungen, Urteile und Haltungen zum Beispiel über die DDR??? Aus Veröffentlichungen - vorwiegend, weil gesteuert westlichen Ansagern - deren Texten und Haltungen. Insofern ist die KI immer noch WENIGER WERTVOLL - als Wikipedia und das geschriebene, abgelichtete, sicher verwahrte Zeitdokument. Erst, wenn diese in die KI einfließen, bewusst eingesetzt werden und die "Meinung, der Kommentar, die persönliche Haltung" entfernt werden können, wird diese Form der medialen Arbeit an Vertrauenswürdigkeit gewinnen.
Meine Meinung als Nutzer von Wikipedia: ich bin für ein Komplettverbot KI-generierter Texte!