Zum Inhalt überspringen
Zum Inhalt überspringen

Warum das Meinungsbild?

Die Wikipedia funktioniert nach Grundprinzipien – unter anderem sind das Nachprüfbarkeit, Neutralität und Belegpflicht. Diese Prinzipien machen sie in Kombination mit ihrem umfangreichen Regelwerk so verlässlich und resistent gegen Desinformation. Generative KI funktioniert ganz anders: Sie formuliert Texte nicht faktenbasiert, sondern auf Wahrscheinlichkeit und Plausibilität basierend. Das passt nicht zur Idee einer menschengemachten Enzyklopädie: Wenn mit Textgeneratoren erstellte Bearbeitungen oder ganze Wikipedia-Artikel nicht auf Richtigkeit geprüft, nicht mit geeigneten Quellenangaben versehen und nicht in enzyklopädischer Sprache formuliert sind, widersprechen sie den Grundprinzipien des Online-Lexikons – und schmälern somit dessen Qualität.

Die Abstimmung (in der Wikipedia „Meinungsbild” genannt) zielte darauf ab, die menschliche Produktion von Artikelinhalten und Diskussionsbeiträgen in den Vordergrund zu rücken und nur wenige Ausnahmen zuzulassen. Die Abstimmung lief vom 1. bis zum 15. Februar. Sich beteiligen durften alle Wikipedianer*innen, die seit mindestens zwei Monaten aktiv sind und mindestens 200 Bearbeitungen vorgenommen haben – davon mindestens 50 Artikelbearbeitungen in den letzten 12 Monaten.

Zum Ende des Meinungsbildes, für dessen Annahme eine einfache Mehrheit vorausgesetzt wurde, waren 208 Stimmen dafür abgegeben worden, den restriktiven Umgang mit KI verbindlich festzuschreiben. 108 stimmten dagegen, 16 enthielten sich. Damit ergibt sich eine deutliche Mehrheit für eine strenge Begrenzung und klare Regelung für KI-generierte Inhalte in der Online-Enzyklopädie.

Was bedeutet das Ergebnis für die Wikipedia?

Verbot von KI-generierten Texten in Artikeln

Ausdrücklich untersagt ist das Einstellen von Texten, die mit Large Language Models (LLM) wie ChatGPT erzeugt oder bearbeitet wurden. Von allen Mitwirkenden wird erwartet, dass sie ihre enzyklopädischen Texte selbst verfassen.

Verbot automatisierter KI-Edits

Ebenfalls unzulässig ist der Einsatz von Tools, die Änderungen in Artikeln KI-gestützt und ohne menschliche Prüfung vornehmen.

Keine KI-Texte als Belege

Erkennbar von einem LLM generierte Texte – etwa auf externen Websites – gelten nicht als geeignete Belege für die Artikelinhalte in der Wikipedia.

Regelung gilt projektweit

Die Grundsätze gelten nicht nur für Artikel, sondern auch für Diskussionsseiten – also den Seiten, auf denen Wikipedianer*innen über Artikelinhalte diskutieren – und andere Projektbereiche

Sanktionen bei Verstößen

Autor*innen, denen das wiederholte Einstellen von mit LLM generierten Texten nachgewiesen werden kann, können unbeschränkt gesperrt werden. Sperren aufgrund von KI-Einsatz sollen jedoch nur erfolgen, wenn die Beweislage klar ist.

Gibt es Ausnahmen?

Trotz der klaren Begrenzung sieht die Regelung bestimmte Ausnahmen vor:

KI-generierte oder bearbeitete Bilder…

…dürfen in Ausnahmefällen nach Diskussion und Konsens für jedes einzelne Bild eingesetzt werden – aber nie als Ersatz für echte Bilder.

Der Einsatz von Machine-Learning-Algorithmen…

…etwa zur Rauschentfernung in Bildbearbeitungssystemen bleibt zulässig.

Maschinelle Übersetzungen,…

…auch wenn sie KI-gestützt arbeiten (zum Beispiel bei Übersetzungen aus anderen Sprachversionen der Wikipedia), sind erlaubt – vorausgesetzt, Übersetzungen und Belege werden sorgfältig auf inhaltliche Korrektheit geprüft.

KI-gestützte Tools zur Fehlererkennung…

…dürfen genutzt werden, sofern jede Änderung menschlich geprüft wird. Zulässig ist etwa der Einsatz von Werkzeugen, die Texte auf Plausibilität, Lücken oder Widersprüche hinweisen oder Rechtschreibung und Grammatik prüfen. Inhaltliche Änderungen müssen jedoch von Menschen vorgenommen werden.

Reine Recherche mit Hilfe von KI…

…bleibt möglich, sofern die gewonnenen Informationen eigenständig geprüft und regelkonform belegt werden.

Wie geht es weiter?

Die Abstimmung gilt verbindlich für alle, die an der deutschsprachigen Wikipedia mitarbeiten. Die neuen Regeln unterstreichen ein wichtiges Grundprinzip des Projekts: Wikipedia-Artikel sollen von Menschen für Menschen recherchiert und geschrieben werden. Community-Mitglieder sehen in der Entscheidung die Grundlage für eine Regelung, die eine sinnvolle Nutzung von KI nicht verbietet, aber klar festlegt, dass die Verantwortung immer bei den menschlichen Autoren liegt.

Innerhalb der Community und auch öffentlich wird nun aber vor allem darüber diskutiert, wie dies künftig umgesetzt werden soll. Dabei sind viele Fragen noch offen: Wie lassen sich KI-generierte Texte erkennen? Wie kann ein zusätzlicher Aufwand für die ehrenamtlich Mitarbeitenden möglichst gering gehalten werden? Wie wird mit Texten umgegangen, die zwar mit KI erstellt wurden, aber inhaltlich korrekt und regelkonform sind? Und wie laufen Diskussionen ab, wenn es um das Löschen oder Behalten solcher Inhalte geht?

Einige Ehrenamtliche haben bereits erste Methoden entwickelt, um KI-Texte zu erkennen und den Mehraufwand zu begrenzen. Um weitere Antworten auf die offenen Fragen zu finden, wird es in der nächsten Zeit noch weiteren Austausch geben. Unter anderem findet im März ein dreitägiges Treffen in Berlin statt, bei dem sich Teilnehmende mit dem Thema beschäftigen werden.

Kommentare

  1. Regina Boemke
    19. Februar 2026 um 22:47 Uhr

    Ich kann zwar als Laie nicht viel dazu sagen, teile aber eure Meinung/Haltung, daß KI generierte Texte genauestens den Urheberegelungen ausgeliefert sein sollten, bei Tantiemen und Quellen. Im Prinzip müsste dann bei einem KI Text hinter jedem Satz der entsprechende Hinweis stehen, von wem, woher. Dann würde sich der KI Text ziemlich holprig lesen und würde bei wachsender Unbeliebtheit am Ende der Seiten landen, das wäre meiner Meinung nach aber korrekt.

  2. Klaus v. Wortulo
    19. Februar 2026 um 20:25 Uhr

    "Einige Ehrenamtliche haben bereits erste Methoden entwickelt, um KI-Texte zu erkennen und den Mehraufwand zu begrenzen." Das würde mich interessieren, was es da gibt - weil ich im Projekt KI auch über zuverlässige Erkennungsmethoden schreibe und vor allem auch das Problem des Mehraufwandes sehe. So richtig gefunden habe ich nämlich noch nichts. Wenn Wikimedia das koordinieren, fördern und bekannt machen würde, wäre das bestens. Denn es bedarf grosser Anstrengungen, dass wir wenigstens erst mal den Stand der englischsprachigen Wikipedia in der Praxis erreichen (AI Cleanup mit über 200 Mitarbeitern). Und natürlich werden wir in Berlin zum Treffen fragen, wie es mit der Umsetzung von "Humans first" der Foundation aussieht und ob mit dem Meinungsbild das überhaupt noch möglich ist. Kein KI-Slop in die Wikipedia - aber KI als Werkzeug und Hilfsmittel für die Autoren.

    1. commander-pirx
      20. Februar 2026 um 10:35 Uhr

      Du schreibst: "Kein KI-Slop in die Wikipedia - aber KI als Werkzeug und Hilfsmittel für die Autoren. " Das verbietet das Meinungsbild ja auch nicht; aber als Auto habe ich die Verantwortung für Text, Ref's, non-KI-Bilder. Bei einem/mehreren Tools für gute KI Erkennung (auch einem automatische Tool, das jeden Edit ab einer gewissen Größe an bits checkt) und einem "de:KI-Cleanup-Team" bin ich bei Dir ... noch viel Arbeit. Hier ist jede Unterstützung von WMDE willkommen. UND: WM sollte aktiv von allen KI-Entwicklern verlangen: dass sie nicht nur für unsere Serverbelastung zahlen, sondern auch immer an erster Stelle Wikipedia verlinken, wenn es von der KI genutzt wird!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert