zur Artikelübersicht

Künstliche Intelligenz

Feind oder Helfer? Wie die Wikipedia-Community über den Einsatz von KI diskutiert

Nicht nur im Alltag, auch in der Wikipedia kommt Künstliche Intelligenz längst zum Einsatz. Zum Beispiel ergeben sich Möglichkeiten bei der Bekämpfung von Vandalismus. Aber wie steht es um Artikel, die nicht von Menschen, sondern von KI-Programmen verfasst wurden? Eine von vielen Fragen rund um KI, die in der Wiki-Community aktuell intensiv diskutiert werden. Im Kern geht es darum, ob die Online-Enzyklopädie neue verbindliche Regeln braucht.

Patrick Wildermann

25. November 2024

Grundsätzlich gelten für alle Inhalte, die in die Wikipedia eingebracht werden, die Relevanzkriterien, die Regeln enzyklopädischen Schreibens sowie die Belegpflicht. Werden diese Kriterien nicht erfüllt, wird das in der Regel von der Community erkannt – und die Artikel werden entsprechend korrigiert, bzw. gelöscht. Was zu der Frage führt: KI-generierte Texte in der Wikipedia – gibt es das? Und wenn ja, in welchem Umfang?

Eine Studie der Cornell University hat kürzlich nahegelegt: In den verschiedenen Sprachversionen der Wikipedia finden sich Artikel, die mittels KI erstellt wurden. Allerdings nicht in einem großen Ausmaß. Von den knapp 3.000 Artikeln, die im August neu in der englischsprachigen Wikipedia eingestellt wurden, waren rund 5 Prozent KI-generiert. In der deutschsprachigen Ausgabe waren es etwa 2 Prozent.

Für die Community ist das dennoch kein Grund, den Entwicklungen bloß zuzusehen. Denn die Wikipedia ist – ebenso wie Wissen im Allgemeinen – von jeher eines: von Menschen gemacht. Ist also die Nutzung von KI-Anwendungen für die Wikipedia generell ein Problem? Die Antworten der Community auf diese Frage sind differenziert – und hängen davon ab, welche KI-Anwendungen für welchen Zweck genutzt werden können.

„Artikel in die Wikipedia einzustellen, die komplett mit KI erzeugt wurden, ist ein No-Go!“

„Weder Panik noch ein ‚Verdrängen des Problems‘ scheinen angemessen. Es kommt aber auf uns zu“, schreibt der Wikipedianer Wortulo dazu auf der Seite WikiProjekt KI und Wikipedia, die er nach dem Zukunftskongress von Wikimedia Deutschland mit ins Leben gerufen hat. Dieses KI-Wiki ist ein beachtliches und hoch informatives Projekt, das vom Begriffsglossar bis hin zu Urheberrechtsfragen so ziemlich alle Aspekte des Themas beleuchtet.

Wortulo vergleicht die KI-Frage gern mit einem Korb geschenkter Pilze. Viele sind vermutlich essbar – allerdings weiß man ohne Kontrolle nicht, ob ein Giftpilz darunter ist, der wie ein Genießbarer aussieht. Ganz ähnlich verhält es sich in seinen Augen mit dem Wahrheitsgehalt von KI-generierten Texten: „Es lässt sich zunehmend schwer überprüfen“, erklärt der Wikipedia-Autor, „wo eine Künstliche Intelligenz halluziniert“ – wo also das Sprachmodell falsche oder erfundene Informationen in einen Text schmuggelt, die nicht automatisch als solche zu erkennen sind. Da KI-Anwendungen nicht angeben, auf welchen Quellen ihre Aussagen beruhen, ist Misstrauen geboten. Weswegen für den Wikipedianer feststeht: „Artikel in die Wikipedia einzustellen, die komplett mit KI erzeugt wurden, ist ein No-Go.“

Was auf die Community zukommt

Über die Frage, welche Auswirkungen der rasante technische Fortschritt von Chatbots wie ChatGPT, Perplexity oder Microsoft Co-Pilot kurz- oder langfristig auf die Arbeit an der Wikipedia haben wird, diskutiert die Wiki-Community schon seit längerem intensiv.

Die technologischen Neuerungen waren Thema auf dem Zukunftskongress, auch auf der WikiCon 2024 kreiste die Keynote des Professors für Wissenschaftskommunikation Dietram A. Scheufele um das Thema, ebenso wurde dort auf einem Panel über „Künstliche Intelligenz im Wissenszeitalter: Revolution der Informationsbeschaffung und -rezeption“ diskutiert. Podiumsteilnehmer Lukas Mezger, Wikipedianer und Rechtsanwalt, stellte in dieser Runde in Hinblick auf die freie Online-Enzyklopädie fest: „Die Nutzenden erwarten nach wie vor, dass ein Mensch die Artikel geschrieben hat.“

Der digitale Aufräumtrupp

Angestoßen durch die Cornell-Studie hat sich in der englischsprachigen Wikipedia das „WikiProject AI Cleanup“gegründet – ein Team von Ehrenamtlichen aus der Community mit über 90 Mitgliedern, das KI-generierte Inhalte aufspürt und prüft, ob sie korrigiert oder sogar gelöscht werden müssen, wenn sie fehlerhaft sind. Darüber wurde zuletzt auch in der Presse viel berichtet, unter anderem auf Netzpolitik.org, bei Deutschlandfunk Kultur oder im österreichischen Standard.

Ein vergleichbarer Aufräumtrupp existiert in der deutschsprachigen Community zwar noch nicht, aber immer mehr Wikipedia-Aktive haben das Thema im Blick und diskutieren engagiert darüber. Schon im vergangenen Jahr wurde eine Umfrage initiiert, um zu eruieren, ob die Community sich feste Regeln für den Umgang mit künstlich erstellten Artikeln geben soll. Eine Mehrheit von 119 Wikipedianer*innen votierte dabei für ein Komplettverbot KI-generierter Texte („immer zu löschen wegen Mischung aus Wahrheit und Erfindung“), 76 empfanden den Status quo als ausreichend und die KI-Texte als unproblematisch, sofern sie korrekt sind. 24 Ehrenamtlichen sprachen sich für eine Deklarationspflicht aus, ähnlich wie beim sogenannten paid editing. Also die Kenntlichmachung, dass ein Large Language Model (LLM) als Autor am Werk war.

Ein interessantes Stimmungsbild, das allerdings keinen Anspruch darauf erhebt, repräsentativ für die gesamte Community zu sein. Die eine Haltung zum Einsatz von KI in der Wikipedia gibt es derzeit nicht – zumal man bei den Anwendungen differenzieren muss.

Halluzination und Bias

Wenn es um die Erstellung kompletter Artikel mittels KI geht, sind die Vorbehalte bei vielen Wikipedianer*innen groß: „Problematisch ist, dass die Texte sprachlich meist logisch erscheinen, inhaltlich aber nur auf statistischen Wahrscheinlichkeiten, nicht jedoch auf Fakten basieren“, erklärt Salino01 zum Thema Halluzinationen. „Manche Fehler sind für jemanden, der sich mit der Materie gut auskennt, offensichtlich. Andere Fehler können aber selbst von Experten erst nach mehrfachem Lesen entdeckt werden. Für diese Autoren ist es häufig einfacher, die Texte selbst zu schreiben, zumal gültige Einzelnachweise immer noch von Hand hinzugefügt werden müssen!“. Jemand, der kein Experte auf dem Gebiet sei, müsse jede einzelne Aussage manuell überprüfen.

„Erschwerend kommt hinzu“, so der Wikipedianer, „dass die Qualität der mit KI generierten Texte abnimmt, je weniger Informationen für das Training der KI zu diesem Thema vorliegen. Es sind aber gerade diese Themen, zu denen Wikipedia-Artikel fehlen und wo manche ‚Autoren‘ versuchen, Texte künstlich generieren zu lassen.“

An diesem Beispiel zeigt sich ein grundlegender Unterschied zwischen Mensch und KI: Large Language Models können – anders als Menschen – kein neues Wissen generieren. Sie verfügen nur über die Informationen, mit denen sie trainiert wurden – und nicht über schöpferische Fähigkeiten. Eine KI kann nicht in eine analoge Bibliothek gehen und in einem Buch nachschlagen. Sehr wahrscheinlich weiß sie nicht, dass im vergangenen Monat eine wegweisende neue Studie zu einem Thema erschienen ist.

Nicht zu vergessen: die Inhalte der Wikipedia dienen ja selbst als Trainingsmaterial für KI. Wenn sich in der Enzyklopädie also fehlerhafte KI-Texte finden, werden entweder schlichte Falschinformationen reproduziert, oder es kann ein sogenannter Bias entstehen – eine Verzerrung, die menschlichen Urteilsfehlern gleicht und über die Trainingsdaten Eingang in die KI findet. Dazu zählen stereotype Annahmen oder Vorurteile gegenüber bestimmten Gruppen von Menschen.

Wo KI zur Hand gehen kann

Anders sieht es in den Augen von Salino01 aus, wenn es um die Verbesserung von Artikeln geht, die Ehrenamtliche geschrieben und geprüft haben: „KI kann diese Texte sprachlich vereinfachen, stilistisch verbessern und Rechtschreib-, bzw. Grammatikfehler entfernen“. Als Beispiel nennt er das Textanalyse-Tool Wortliga. Aber auch hier gelte: „Bei allen Vorschlägen der KI muss der entstandene Text inhaltlich immer von einem Menschen überprüft werden, denn nicht alles, was die KI vorschlägt, ist sinnvoll. Ähnliches gilt auch für maschinelle Übersetzungen, sei es durch Google Übersetzer oder DeepL Translate. Eine maschinelle Übersetzung sollte kritisch geprüft werden und nur als Gerüst dienen“, findet der Wikipedianer.

Freilich gibt es noch zahlreiche andere Fälle, in denen Künstliche Intelligenz der Community hilfreich zur Hand gehen könnte. Zum Beispiel, wenn es um die Bekämpfung von Vandalismus in der Wikipedia geht. Dazu gibt es eine Reihe von Werkzeugen. Wobei darunter auch KI fällt, die hilft, KI-generierte Texte zu identifizieren. Auch hierzu hat Wortulo die entsprechenden Tools auf seiner KI-Projektseite nebst Studien und weiterführenden Diskussionen aufgelistet: darunter ZeroGPT, GPTZero oder Binoculars

Wo KI zur Hand gehen kann

Der Blick in die Zukunft

Differenzierte Antworten erhält man auch, wenn man die Ehrenamtlichen nach ihren Erwartungen für die Zukunft fragt. Salino01 erwartet zum einen, dass „der Aufwand für die menschliche Eingangskontrolle“ in der Wikipedia „deutlich höher wird und viel mehr Quellenarbeit bedarf.“

Er kann sich aber auch Vorteile dank des technologischen Fortschritts vorstellen, „zum Beispiel das Durchsuchen von Wikipedia-Texten anhand einer Frage, die in natürlicher Sprache gestellt wird (‚Wie alt ist der Sänger XY?‘). Als Ergebnis gäbe es eine farbige Hervorhebung von entsprechenden Textpassagen im Text oder in der Infobox. Auch die Beantwortung einer vom Leser gestellten Frage in einer separaten Antwortbox wäre in allgemeinverständlicher Sprache möglich“.

Erste Ansätze in diese Richtung existierten bereits mit Wiki-Bot.org. Dieses für ChatGPT entwickelte Tool greift nur auf das verlässliche Wissen der Wikipedia zu – und vermittelt es klar und verständlich.

Wortulo wiederum sieht mit Blick in die Zukunft der KI-Entwicklungen vor allem eine Aufgabe für die Wikipedianer*innen: „Wir müssen dafür sorgen, dass unser Ehrenamt als ein Hobby erhalten bleibt, das für viele Engagierte sinnstiftend erscheint.“

Kommentare sind geschlossen.