Wikipedia Meinungsbild
Wikipedia begrenzt Einsatz von generativer KI – welche Herausforderungen bleiben
Hanna Klein
19. Februar 2026
Warum das Meinungsbild?
Die Wikipedia funktioniert nach Grundprinzipien – unter anderem sind das Nachprüfbarkeit, Neutralität und Belegpflicht. Diese Prinzipien machen sie in Kombination mit ihrem umfangreichen Regelwerk so verlässlich und resistent gegen Desinformation. Generative KI funktioniert ganz anders: Sie formuliert Texte nicht faktenbasiert, sondern auf Wahrscheinlichkeit und Plausibilität basierend. Das passt nicht zur Idee einer menschengemachten Enzyklopädie: Wenn mit Textgeneratoren erstellte Bearbeitungen oder ganze Wikipedia-Artikel nicht auf Richtigkeit geprüft, nicht mit geeigneten Quellenangaben versehen und nicht in enzyklopädischer Sprache formuliert sind, widersprechen sie den Grundprinzipien des Online-Lexikons – und schmälern somit dessen Qualität.
Die Abstimmung (in der Wikipedia „Meinungsbild” genannt) zielte darauf ab, die menschliche Produktion von Artikelinhalten und Diskussionsbeiträgen in den Vordergrund zu rücken und nur wenige Ausnahmen zuzulassen. Die Abstimmung lief vom 1. bis zum 15. Februar. Sich beteiligen durften alle Wikipedianer*innen, die seit mindestens zwei Monaten aktiv sind und mindestens 200 Bearbeitungen vorgenommen haben – davon mindestens 50 Artikelbearbeitungen in den letzten 12 Monaten.
Zum Ende des Meinungsbildes, für dessen Annahme eine einfache Mehrheit vorausgesetzt wurde, waren 208 Stimmen dafür abgegeben worden, den restriktiven Umgang mit KI verbindlich festzuschreiben. 108 stimmten dagegen, 16 enthielten sich. Damit ergibt sich eine deutliche Mehrheit für eine strenge Begrenzung und klare Regelung für KI-generierte Inhalte in der Online-Enzyklopädie.
Was bedeutet das Ergebnis für die Wikipedia?
Verbot von KI-generierten Texten in Artikeln
Ausdrücklich untersagt ist das Einstellen von Texten, die mit Large Language Models (LLM) wie ChatGPT erzeugt oder bearbeitet wurden. Von allen Mitwirkenden wird erwartet, dass sie ihre enzyklopädischen Texte selbst verfassen.
Verbot automatisierter KI-Edits
Ebenfalls unzulässig ist der Einsatz von Tools, die Änderungen in Artikeln KI-gestützt und ohne menschliche Prüfung vornehmen.
Keine KI-Texte als Belege
Erkennbar von einem LLM generierte Texte – etwa auf externen Websites – gelten nicht als geeignete Belege für die Artikelinhalte in der Wikipedia.
Regelung gilt projektweit
Die Grundsätze gelten nicht nur für Artikel, sondern auch für Diskussionsseiten – also den Seiten, auf denen Wikipedianer*innen über Artikelinhalte diskutieren – und andere Projektbereiche
Sanktionen bei Verstößen
Autor*innen, denen das wiederholte Einstellen von mit LLM generierten Texten nachgewiesen werden kann, können unbeschränkt gesperrt werden. Sperren aufgrund von KI-Einsatz sollen jedoch nur erfolgen, wenn die Beweislage klar ist.
Gibt es Ausnahmen?
Trotz der klaren Begrenzung sieht die Regelung bestimmte Ausnahmen vor:
KI-generierte oder bearbeitete Bilder…
…dürfen in Ausnahmefällen nach Diskussion und Konsens für jedes einzelne Bild eingesetzt werden – aber nie als Ersatz für echte Bilder.
Der Einsatz von Machine-Learning-Algorithmen…
…etwa zur Rauschentfernung in Bildbearbeitungssystemen bleibt zulässig.
Maschinelle Übersetzungen,…
…auch wenn sie KI-gestützt arbeiten (zum Beispiel bei Übersetzungen aus anderen Sprachversionen der Wikipedia), sind erlaubt – vorausgesetzt, Übersetzungen und Belege werden sorgfältig auf inhaltliche Korrektheit geprüft.
KI-gestützte Tools zur Fehlererkennung…
…dürfen genutzt werden, sofern jede Änderung menschlich geprüft wird. Zulässig ist etwa der Einsatz von Werkzeugen, die Texte auf Plausibilität, Lücken oder Widersprüche hinweisen oder Rechtschreibung und Grammatik prüfen. Inhaltliche Änderungen müssen jedoch von Menschen vorgenommen werden.
Reine Recherche mit Hilfe von KI…
…bleibt möglich, sofern die gewonnenen Informationen eigenständig geprüft und regelkonform belegt werden.
Wie geht es weiter?
Die Abstimmung gilt verbindlich für alle, die an der deutschsprachigen Wikipedia mitarbeiten. Die neuen Regeln unterstreichen ein wichtiges Grundprinzip des Projekts: Wikipedia-Artikel sollen von Menschen für Menschen recherchiert und geschrieben werden. Community-Mitglieder sehen in der Entscheidung die Grundlage für eine Regelung, die eine sinnvolle Nutzung von KI nicht verbietet, aber klar festlegt, dass die Verantwortung immer bei den menschlichen Autoren liegt.
Innerhalb der Community und auch öffentlich wird nun aber vor allem darüber diskutiert, wie dies künftig umgesetzt werden soll. Dabei sind viele Fragen noch offen: Wie lassen sich KI-generierte Texte erkennen? Wie kann ein zusätzlicher Aufwand für die ehrenamtlich Mitarbeitenden möglichst gering gehalten werden? Wie wird mit Texten umgegangen, die zwar mit KI erstellt wurden, aber inhaltlich korrekt und regelkonform sind? Und wie laufen Diskussionen ab, wenn es um das Löschen oder Behalten solcher Inhalte geht?
Einige Ehrenamtliche haben bereits erste Methoden entwickelt, um KI-Texte zu erkennen und den Mehraufwand zu begrenzen. Um weitere Antworten auf die offenen Fragen zu finden, wird es in der nächsten Zeit noch weiteren Austausch geben. Unter anderem fand im März ein dreitägiges Treffen in Berlin statt, bei dem sich Ehrenamtliche und Wikimedia Deutschland mit dem Thema beschäftigen werden. Ein ausführlicher Artikel dazu folgt in Kürze.
Die Entscheidung ist wertvoll und werterhaltend. Nicht jede Information ist Wissen. Wissen ist für mich Information, die Relevanz hat, über die ich als Mensch nachgedacht habe und die ich mit anderen Menschen teilen will. Und wenn auch andere darin Relevanz erkennen, dann entsteht gemeinsames Wissen. Wikipedia hat auf Dauer nur Relevanz, wenn dieses Prinzip als Gemeinschaftsprojekt erhalten bleibt.
Ich sehe die KI auch sehr kritisch. Man kann sie nutzen, sollte sich aber nicht auf die Richtigkeit der Antwort verlassen. Schließlich handelt es sich hier nicht um Intelligenz sondern um einen Algorithmus, der in einem riesigen Datenspeichen nach passenden Zusammenhängen sucht. Ich verlasse mich eher auf die MI, die menschliche Intelligenz.
Gut, dass es Wikipedia gibt! Eine der wenigen sicheren und seriösen Bastionen im Meer von Fake News, Lügen und Belanglosigkeiten. Den Beschluss zur Kontrolle und Begrenzung von KI in den Beiträgen halte ich für wichtig und richtig.
Ich finde die getroffene Entscheidung nachvolliehbar und finde sie gut!
Wer steht eigentlich hinter der KI? Wer wählt aus, was der Nutzer sehen darf und was nicht? Die sogenannte "Intelligenz" ist ein aufgeblasener Taschenrechner. Wer programmiert was der User sehen darf? Ich habe das anhand eines Beispiels getestet. Erinnert sich noch jemand an die "Affäre Lucona" ? Hallo G...! Bitte zeige mir die Unterwasser-Videos vom Wrack der Lucona! Ich erhielt nichts, was ich nicht selbst - mit längerem suchen - gefunden hätte, voran Wikipedia. Nichtssagende Dokus mit wenigen Ausschnitten. Das stundenlange Originalmaterial sei nicht vorhanden.. Die künstliche Dummheit ist ein Werkzeug wie viele andere auch. Glaubt die Menschheit unkritisch, sie sei der heilige Geist, der die göttlichen Eingebungen tellerfertig serviert, wird es erneut brandgefährlich.
In einer Zeit, in der alles immer schneller, billiger und damit "schnuddeliger" wird, muss es Oasen der Beständigkeit und (vor allem) Zuverlässigkeit geben. Deswegen finde ich die getroffene Entscheidung gegen den Einsatz einer in den Kinderschuhen steckenden Technik sehr gut!
Hallo, danke, sehr gute Entscheidung. Ich arbeite Beruflich und Privat seit über 2 Jahren mit AI Anwendungen (über 25 Jahre Berufliche und Private It-Erfahrung)....und habe fürchterliche Erfahrungen damit gemacht. Am schlimmsten sind ChatGPT und "natürlich" CoPilot (weil ChatGPT im Hintergrund werkelt. Kontrolle der KI ist das wichtigste überhaupt! Da wird von den KI's so viel Mist gebaut, das ist erschreckend. Ich verschliesse mich prinzipiell nicht vor dieser Technologie, auf gar keinen Fall, aber das ist wie einem Diktator ständig auf die Finger zu schauen, was er jetzt wieder treibt... Ich möchte nicht wissen, wie viele Backdoors schon in von KI erstellten Software Tools eingebaut sind. Aus "Versehen" natürlich...außerdem macht KI dumm, vor allem beim Nachwuchs, da gibt es seriöse Studien dazu. Ich bleibe weiterhin Unterstützer von Wikipedia.
Ich freue mich über euren Beschluss und verdopple meinen jährlichen Spendenbeitrag. Wenn ihr nun noch herausfindet, wie man einen KI Text sicher identifizieren kann und uns anderen das mitteilt ... Pawww!
Ich habe mir eine umfangreiche Magisterarbeit über ein historisches Thema angesehen. Die Arbeit sieht ganz gut aus. Mich irritieren italienische Zitate, die nicht übersetzt wurden und umfangreiche Rechtschreibfehler, die beim korrekturlesen hätten auffallen müssen. Das sind - angeblich - Tricks, die den Leser überzeugen sollen, dahinter stecke ein Mensch und keine KI.
Richtige Entscheidung, ganz in meinem Sinne. Ändern können wir unsere Meinung später, falls erforderlich, immer noch!
Ich stehe zu 100 Prozent hinter der Entscheidung von Wikimedia!
Ich unterstütze Wikipedia seit Jahren und begrüße diese Entscheidung sehr. Sie muss auch ständig zusammen mit dem Wikimedia-Auftritt klar kommuniziert werden. Das setzt zu den herumschwirrenden Fakeprodukten ein Unterscheidungsmerkmal.
Ich bin langjähriger "stiller" Unterstützer der Wikipedia (nicht artikelbschreibendes Vereinsmitglied) und kann nur sagen: Bravo! Ich lehre an einer Uni und habe täglich mit KI-Texten zu kämpfen. Wikipedia ist (bzw. war bis zu den Chatbots) für meine Studis das absolute Leitmedium. Vielleicht hilft dieser Hinweis beim leider ziemlich einsamen Kampf gegen den "stochastischen Papagei", der auf die Dauer auch die Fähigkeit zu vernichten droht, überhaupt selbst Texte zu schreiben, "weil man das ja heute nicht mehr braucht!"
Ich bin über Jahre hinweg mit Wikipedia zufrieden. Das betrifft die Wissensbereiche, die für mich (im Rentenalter, aber geistig und überhaupt noch sehr aktiv) relevant sind - das bezieht sich besonders auf Geografie, Politik, Mathematik und interessante, neue Begriffe von allgemeinem Interesse. Danke für die neuen Informationen. Ohne KI völlig meiden zu wollen, werde ich auch künftig Wikipedia bewusst in meine Recherchen einbeziehen. Es sollte ohnehin ein Prinzip jedes Nutzers sein, mit Quellen sorgfältig und in gesundem Maße kritisch umzugehen.
Mit KI-generierten Texten verschwinden die Grenzen zwischen Wahrheit und Erfindung. Die Beschlüsse finde ich gut und entsprechen dem, was man auch in soliden wissenschaftlichen Artikeln machen darf (und sollte) wie zum Beispiel die Korrektur von Schreib- oder Formulierungsfehlern. KI als Hilfsmitttel ist OK.
das begrüße ich sehr wichtig abzusichern dass Texte nicht von KI geschrieben wurden.
Das Verbot von KI-generierten Texten in Artikeln ist nicht vollständig umsetzbar, weil in vielen Fällen nicht kontrollierbar.
Ich bin sehr erleichtert, dass Sie diesen Beschluss gefasst haben. Man kann sich auf die Richtigkeit von KI Angaben – gleich zu welchem Gebiet – einfach nicht verlassen. Sie widersprechen sich auch dann und wann. Bei Wikipedia bin ich mir jedoch zu 99% sicher. Ich nutze selbst ChatGPT und freue mich über die Arbeitserleichterung. Begrenze den Einsatz jedoch strikt. Meine Texte erstelle ich immer selbst. Aber ich nutze es für a) Denkanstöße b) Finden von Flüchtigkeitsfehlern c) Eventuelle Glättung von Formulierungen
[…] geworden ist Gratulation dazu) hat gerade beschlossen, keine KI-generierten Texte zuzulassen (siehe hier) – Wissen bleibt menschlich in einer Welt, in der Schätzungen zufolge bereits 40% aller […]
Ich halte das für falsch und befürchte, dass sich Wikipedia damit in eine Sackgasse manövriert. (Ich nutze mittlerweile mehr MS-CoPilot als Wikipedia.) Wichtig ist der Mensch, der (nachweislich) "hinter" (oder eigentlich: "vor") einem Artikel und dessen Aussagen steht. Wie der Text zustande kommt ist sekundär. Es wäre viel wichtiger, einmal den Wikipedia-Bestand mittels KI auf widersprüchliche Aussagen zu überprüfen und zu korrigieren (bzw. im ersten Schritt darauf hinzuweisen, dass an anderer Stelle in Wikipedia etwas anderes steht). Vielleicht wird man dabei auch dauerhaft damit leben müssen, dass es zu Fakten unterschiedliche Darstellungen gibt: beispielsweise schon bei historischen Datumsangaben, die nicht durch Dokumente belegt sind.
Als "Rand-Beiträger", der nur hin und wieder kleine Korrekturen vornimmt, war ich nicht an der Umfrage beteiligt und habe damit auch erst post festum von ihr erfahren. Zuerst war ich befriedigt vom Ausgang der Umfrage, dann aber habe ich realisiert, dass ein Drittel der Befragten sich FÜR die Zulassung KI-generierter Texte ausgesprochen hat -- eine absolut erschreckende Zahl. Ich hoffe sehr, dass Acht- und Wachsamkeit und Ehrlichkeit nicht nachlassen!
Elementar wichtig abzusichern dass Texte nicht von KI geschrieben wurden. Warum: Ich kann mehrfach belegen, dass KI-texte falsche Angaben machen, gleich gültig dabei, ob es sich um biografische Daten oder historische Zusammenhänge handelt. Mein Eindruck bislang: KI kehrt einfach zusammen, was es so findet, ohne Überprüfung von Angaben und Belegstellen.
Ich begrüße diese Einstellung zur KI sehr, und freue mich in Zukunft alle Informationen KI frei zu bekommen. Mit freundlichen Grüßen ihr Unterstützer Klaus Stöppler
Ich kann zwar als Laie nicht viel dazu sagen, teile aber eure Meinung/Haltung, daß KI generierte Texte genauestens den Urheberegelungen ausgeliefert sein sollten, bei Tantiemen und Quellen. Im Prinzip müsste dann bei einem KI Text hinter jedem Satz der entsprechende Hinweis stehen, von wem, woher. Dann würde sich der KI Text ziemlich holprig lesen und würde bei wachsender Unbeliebtheit am Ende der Seiten landen, das wäre meiner Meinung nach aber korrekt.
"Einige Ehrenamtliche haben bereits erste Methoden entwickelt, um KI-Texte zu erkennen und den Mehraufwand zu begrenzen." Das würde mich interessieren, was es da gibt - weil ich im Projekt KI auch über zuverlässige Erkennungsmethoden schreibe und vor allem auch das Problem des Mehraufwandes sehe. So richtig gefunden habe ich nämlich noch nichts. Wenn Wikimedia das koordinieren, fördern und bekannt machen würde, wäre das bestens. Denn es bedarf grosser Anstrengungen, dass wir wenigstens erst mal den Stand der englischsprachigen Wikipedia in der Praxis erreichen (AI Cleanup mit über 200 Mitarbeitern). Und natürlich werden wir in Berlin zum Treffen fragen, wie es mit der Umsetzung von "Humans first" der Foundation aussieht und ob mit dem Meinungsbild das überhaupt noch möglich ist. Kein KI-Slop in die Wikipedia - aber KI als Werkzeug und Hilfsmittel für die Autoren.
Du schreibst: "Kein KI-Slop in die Wikipedia - aber KI als Werkzeug und Hilfsmittel für die Autoren. " Das verbietet das Meinungsbild ja auch nicht; aber als Auto habe ich die Verantwortung für Text, Ref's, non-KI-Bilder. Bei einem/mehreren Tools für gute KI Erkennung (auch einem automatische Tool, das jeden Edit ab einer gewissen Größe an bits checkt) und einem "de:KI-Cleanup-Team" bin ich bei Dir ... noch viel Arbeit. Hier ist jede Unterstützung von WMDE willkommen. UND: WM sollte aktiv von allen KI-Entwicklern verlangen: dass sie nicht nur für unsere Serverbelastung zahlen, sondern auch immer an erster Stelle Wikipedia verlinken, wenn es von der KI genutzt wird!
Das unterstütze ich in vollem Umfange!