Zum Inhalt überspringen
Zum Inhalt überspringen

Eine richtungsweisende Entscheidung: Keine KI-generierten Inhalte für die Wikipedia

Das Meinungsbild im vergangenen Februar zielte darauf ab, die menschliche Produktion von Inhalten in der Wikipedia in den Vordergrund zu rücken. Denn Wikipedia funktioniert nach Grundprinzipien – unter anderem sind das Nachprüfbarkeit, Neutralität und Belegpflicht. Auf Künstlicher Intelligenz basierende Textgeneratoren sind zwar technisch in der Lage, Bearbeitungen oder ganze Wikipedia-Artikel zu erstellen. Jedoch überprüfen sie diese weder auf Richtigkeit, noch geben sie verlässlich Quellen an oder formulieren sie in neutraler, enzyklopädischer Sprache. Kurz: ChatGPT und Co. sind nicht in der Lage, Inhalte in der Wikipedia regelkonform zu bearbeiten – und schmälern somit deren Qualität.

Anfang März trafen sich rund 40 Community-Mitglieder aus Deutschland, Österreich und der Schweiz in Berlin, um sich über den Umgang mit KI in der Wikipedia auszutauschen. Das Treffen war bereits vor dem Meinungsbild geplant. Dass die richtungsweisende Entscheidung in der Zwischenzeit erfolgte, verlieh dem Treffen noch zusätzliche Aktualität.

Dabei haben sich die Teilnehmenden teils in Workshops in Kleingruppen, teils durch Vorträge von Expert*innen und teils in Diskussionen in großer Runde aus vier Perspektiven der Thematik genähert: Wikipedia ohne KI, Wikipedia mit KI, Wikipedia über KI und Wikipedia trotz KI.

Wie kann Wikipedia vor KI-generierten Inhalten geschützt werden?

KI-generierte Texte sorgen immer wieder für Probleme in der Wikipedia. Die grönländische Wikipedia musste sogar geschlossen werden. Der Grund: Viele der Artikel waren Übersetzungen, die mit generativer KI erstellt wurden – allerdings sprachlich so fehlerhaft, dass die Qualität der grönländischen Wikipedia nicht mehr gewährleistet war und der Administrationsaufwand nicht mehr zu stemmen war.

Wie kann die Community also die Wikipedia vor KI-generierten Inhalten schützen? Wie können KI-generierte Texte erkannt und verbessert werden?

Der Wikipedianer Seewolf ist Admin der deutschsprachigen Wikipedia. Als Admin verfügt er über erweiterte Rechte, unter anderem Artikel zu löschen. Er schätzt die Anzahl der Löschungen KI-generierter Artikel, die er seit Mai 2024 vorgenommen hat, auf 1000.

Beim Community-Treffen stellt er harte und weiche Kriterien vor, an denen er erkennt, dass ein Artikel nicht von einem Menschen, sondern einer generativen KI erstellt wurde: Ein für KI-Chatbots typischer Aufbau von Artikeln, Fragmente aus dem Chat-Verlauf, die definitiv nicht zum Artikel gehören oder auffällige Formatierungen, sind einige davon. Wenn gleich mehrere Kriterien zutreffen, handele es sich ziemlich sicher um einen mit generativer KI erstellten Artikel, so Seewolf.

Hilfreiche Tipps auch für andere Admis. Doch wie sollen sie im Verdachtsfall argumentieren? Erst Warnung aussprechen oder direkt löschen? Die Teilnehmenden diskutierten auch über technische Möglichkeiten, die Kommunikation im Verdachtsfall zu automatisieren. Eine Idee: Wenn mehrere der definierten Kriterien zutreffen, könnte etwa ein Hinweis aufploppen: „Der Artikel steht unter Verdacht, von generativer KI erstellt worden zu sein.“ Mit so einem Hinweis könnte der Artikel markiert werden – und wird er nicht verbessert, so könnte ein Löschantrag folgen. Auch denkbar: Bei Klick auf Veröffentlichen eine automatisierte Direktnachricht an den Autor oder die Autorin senden.

Wichtig auch: Die Sensibilisierung, sowohl der bestehenden Community als auch von Neulingen. Nur, wer weiß, welche Standards ein Wikipedia-Artikel erfüllen muss, wird verstehen, dass mit generativer KI erstellte Artikel diesen Standards nicht entsprechen können.

Wikipedia mit KI?

Die Ehrenamtlichen tauschten sich auch darüber aus, welche KI-Tools für die Arbeit in der Wikipedia nützlich sein können. Und was es dabei zu beachten gibt – zum Beispiel bei der Recherche und auch bei Verwaltungsaufgaben, bei der Fehlererkennung und Optimierung von Abläufen. Dabei ging es nicht nur um Diskussionen und Theorie, sondern auch ums Ausprobieren und Kennenlernen: So hat ein teilnehmender Wikipedianer mit Hilfe von ChatGPT ein einfaches Tool für Aufräumarbeiten in der Fotoplattform Commons gebaut. Ein anderer Ehrenamtlicher hat ein Tool gebaut, um z. B. die Einleitungstexte von Wikipedia-Artikeln zu vergleichen. Das kann unter anderem auch hilfreich sein, um KI-generierte Inhalte, die sich im Einführungstext im Aufbau ähneln, zu erkennen.

Auch der Blick über den Tellerrand durfte nicht fehlen: So hat ein weiterer Wikipedianer ein Tool zum Fact Checking vorgestellt, das auch für Wikipedianer*innen nützlich sein kann.

Wikipedia trotz KI!

Welche technologischen Entwicklungen bergen Chancen, das Bearbeiten der Wikipedia für die Communitys einfacher zu machen? Und welche können auch Lesenden mehr Möglichkeiten geben, die Wikipedia noch besser zu erleben? Eines ist klar: Viele in der Wikipedia-Community haben Lust, weiter am Themenfeld zu arbeiten. Dafür wurden während des Treffens wichtige Grundsteine gelegt. Die Community wird im Austausch bleiben, sei es auf der WikiCon oder anderen Veranstaltungen. Im Umgang mit KI wird es immer wieder darum gehen, die technologischen Entwicklungen mit dem auszuloten, was die Wikipedia im Kern ist: Ein von und für Menschen gemachtes Gemeinschaftsprojekt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert