zur Artikelübersicht

Künstliche Intelligenz

Feind oder Helfer? Wie die Wikipedia-Community über den Einsatz von KI diskutiert

Nicht nur im Alltag, auch in der Wikipedia kommt Künstliche Intelligenz längst zum Einsatz. Zum Beispiel ergeben sich Möglichkeiten bei der Bekämpfung von Vandalismus. Aber wie steht es um Artikel, die nicht von Menschen, sondern von KI-Programmen verfasst wurden? Eine von vielen Fragen rund um KI, die in der Wiki-Community aktuell intensiv diskutiert werden. Im Kern geht es darum, ob die Online-Enzyklopädie neue verbindliche Regeln braucht.

Patrick Wildermann

25. November 2024

Grundsätzlich gelten für alle Inhalte, die in die Wikipedia eingebracht werden, die Relevanzkriterien, die Regeln enzyklopädischen Schreibens sowie die Belegpflicht. Werden diese Kriterien nicht erfüllt, wird das in der Regel von der Community erkannt – und die Artikel werden entsprechend korrigiert, bzw. gelöscht. Was zu der Frage führt: KI-generierte Texte in der Wikipedia – gibt es das? Und wenn ja, in welchem Umfang?

Eine Studie der Cornell University hat kürzlich nahegelegt: In den verschiedenen Sprachversionen der Wikipedia finden sich Artikel, die mittels KI erstellt wurden. Allerdings nicht in einem großen Ausmaß. Von den knapp 3.000 Artikeln, die im August neu in der englischsprachigen Wikipedia eingestellt wurden, waren rund 5 Prozent KI-generiert. In der deutschsprachigen Ausgabe waren es etwa 2 Prozent.

Für die Community ist das dennoch kein Grund, den Entwicklungen bloß zuzusehen. Denn die Wikipedia ist – ebenso wie Wissen im Allgemeinen – von jeher eines: von Menschen gemacht. Ist also die Nutzung von KI-Anwendungen für die Wikipedia generell ein Problem? Die Antworten der Community auf diese Frage sind differenziert – und hängen davon ab, welche KI-Anwendungen für welchen Zweck genutzt werden können.

„Artikel in die Wikipedia einzustellen, die komplett mit KI erzeugt wurden, ist ein No-Go!“

„Weder Panik noch ein ‚Verdrängen des Problems‘ scheinen angemessen. Es kommt aber auf uns zu“, schreibt der Wikipedianer Wortulo dazu auf der Seite WikiProjekt KI und Wikipedia, die er nach dem Zukunftskongress von Wikimedia Deutschland mit ins Leben gerufen hat. Dieses KI-Wiki ist ein beachtliches und hoch informatives Projekt, das vom Begriffsglossar bis hin zu Urheberrechtsfragen so ziemlich alle Aspekte des Themas beleuchtet.

Wortulo vergleicht die KI-Frage gern mit einem Korb geschenkter Pilze. Viele sind vermutlich essbar – allerdings weiß man ohne Kontrolle nicht, ob ein Giftpilz darunter ist, der wie ein Genießbarer aussieht. Ganz ähnlich verhält es sich in seinen Augen mit dem Wahrheitsgehalt von KI-generierten Texten: „Es lässt sich zunehmend schwer überprüfen“, erklärt der Wikipedia-Autor, „wo eine Künstliche Intelligenz halluziniert“ – wo also das Sprachmodell falsche oder erfundene Informationen in einen Text schmuggelt, die nicht automatisch als solche zu erkennen sind. Da KI-Anwendungen nicht angeben, auf welchen Quellen ihre Aussagen beruhen, ist Misstrauen geboten. Weswegen für den Wikipedianer feststeht: „Artikel in die Wikipedia einzustellen, die komplett mit KI erzeugt wurden, ist ein No-Go.“

Was auf die Community zukommt

Über die Frage, welche Auswirkungen der rasante technische Fortschritt von Chatbots wie ChatGPT, Perplexity oder Microsoft Co-Pilot kurz- oder langfristig auf die Arbeit an der Wikipedia haben wird, diskutiert die Wiki-Community schon seit längerem intensiv.

Die technologischen Neuerungen waren Thema auf dem Zukunftskongress, auch auf der WikiCon 2024 kreiste die Keynote des Professors für Wissenschaftskommunikation Dietram A. Scheufele um das Thema, ebenso wurde dort auf einem Panel über „Künstliche Intelligenz im Wissenszeitalter: Revolution der Informationsbeschaffung und -rezeption“ diskutiert. Podiumsteilnehmer Lukas Mezger, Wikipedianer und Rechtsanwalt, stellte in dieser Runde in Hinblick auf die freie Online-Enzyklopädie fest: „Die Nutzenden erwarten nach wie vor, dass ein Mensch die Artikel geschrieben hat.“

Der digitale Aufräumtrupp

Angestoßen durch die Cornell-Studie hat sich in der englischsprachigen Wikipedia das „WikiProject AI Cleanup“gegründet – ein Team von Ehrenamtlichen aus der Community mit über 90 Mitgliedern, das KI-generierte Inhalte aufspürt und prüft, ob sie korrigiert oder sogar gelöscht werden müssen, wenn sie fehlerhaft sind. Darüber wurde zuletzt auch in der Presse viel berichtet, unter anderem auf Netzpolitik.org, bei Deutschlandfunk Kultur oder im österreichischen Standard.

Ein vergleichbarer Aufräumtrupp existiert in der deutschsprachigen Community zwar noch nicht, aber immer mehr Wikipedia-Aktive haben das Thema im Blick und diskutieren engagiert darüber. Schon im vergangenen Jahr wurde eine Umfrage initiiert, um zu eruieren, ob die Community sich feste Regeln für den Umgang mit künstlich erstellten Artikeln geben soll. Eine Mehrheit von 119 Wikipedianer*innen votierte dabei für ein Komplettverbot KI-generierter Texte („immer zu löschen wegen Mischung aus Wahrheit und Erfindung“), 76 empfanden den Status quo als ausreichend und die KI-Texte als unproblematisch, sofern sie korrekt sind. 24 Ehrenamtlichen sprachen sich für eine Deklarationspflicht aus, ähnlich wie beim sogenannten paid editing. Also die Kenntlichmachung, dass ein Large Language Model (LLM) als Autor am Werk war.

Ein interessantes Stimmungsbild, das allerdings keinen Anspruch darauf erhebt, repräsentativ für die gesamte Community zu sein. Die eine Haltung zum Einsatz von KI in der Wikipedia gibt es derzeit nicht – zumal man bei den Anwendungen differenzieren muss.

Halluzination und Bias

Wenn es um die Erstellung kompletter Artikel mittels KI geht, sind die Vorbehalte bei vielen Wikipedianer*innen groß: „Problematisch ist, dass die Texte sprachlich meist logisch erscheinen, inhaltlich aber nur auf statistischen Wahrscheinlichkeiten, nicht jedoch auf Fakten basieren“, erklärt Salino01 zum Thema Halluzinationen. „Manche Fehler sind für jemanden, der sich mit der Materie gut auskennt, offensichtlich. Andere Fehler können aber selbst von Experten erst nach mehrfachem Lesen entdeckt werden. Für diese Autoren ist es häufig einfacher, die Texte selbst zu schreiben, zumal gültige Einzelnachweise immer noch von Hand hinzugefügt werden müssen!“. Jemand, der kein Experte auf dem Gebiet sei, müsse jede einzelne Aussage manuell überprüfen.

„Erschwerend kommt hinzu“, so der Wikipedianer, „dass die Qualität der mit KI generierten Texte abnimmt, je weniger Informationen für das Training der KI zu diesem Thema vorliegen. Es sind aber gerade diese Themen, zu denen Wikipedia-Artikel fehlen und wo manche ‚Autoren‘ versuchen, Texte künstlich generieren zu lassen.“

An diesem Beispiel zeigt sich ein grundlegender Unterschied zwischen Mensch und KI: Large Language Models können – anders als Menschen – kein neues Wissen generieren. Sie verfügen nur über die Informationen, mit denen sie trainiert wurden – und nicht über schöpferische Fähigkeiten. Eine KI kann nicht in eine analoge Bibliothek gehen und in einem Buch nachschlagen. Sehr wahrscheinlich weiß sie nicht, dass im vergangenen Monat eine wegweisende neue Studie zu einem Thema erschienen ist.

Nicht zu vergessen: die Inhalte der Wikipedia dienen ja selbst als Trainingsmaterial für KI. Wenn sich in der Enzyklopädie also fehlerhafte KI-Texte finden, werden entweder schlichte Falschinformationen reproduziert, oder es kann ein sogenannter Bias entstehen – eine Verzerrung, die menschlichen Urteilsfehlern gleicht und über die Trainingsdaten Eingang in die KI findet. Dazu zählen stereotype Annahmen oder Vorurteile gegenüber bestimmten Gruppen von Menschen.

Wo KI zur Hand gehen kann

Anders sieht es in den Augen von Salino01 aus, wenn es um die Verbesserung von Artikeln geht, die Ehrenamtliche geschrieben und geprüft haben: „KI kann diese Texte sprachlich vereinfachen, stilistisch verbessern und Rechtschreib-, bzw. Grammatikfehler entfernen“. Als Beispiel nennt er das Textanalyse-Tool Wortliga. Aber auch hier gelte: „Bei allen Vorschlägen der KI muss der entstandene Text inhaltlich immer von einem Menschen überprüft werden, denn nicht alles, was die KI vorschlägt, ist sinnvoll. Ähnliches gilt auch für maschinelle Übersetzungen, sei es durch Google Übersetzer oder DeepL Translate. Eine maschinelle Übersetzung sollte kritisch geprüft werden und nur als Gerüst dienen“, findet der Wikipedianer.

Freilich gibt es noch zahlreiche andere Fälle, in denen Künstliche Intelligenz der Community hilfreich zur Hand gehen könnte. Zum Beispiel, wenn es um die Bekämpfung von Vandalismus in der Wikipedia geht. Dazu gibt es eine Reihe von Werkzeugen. Wobei darunter auch KI fällt, die hilft, KI-generierte Texte zu identifizieren. Auch hierzu hat Wortulo die entsprechenden Tools auf seiner KI-Projektseite nebst Studien und weiterführenden Diskussionen aufgelistet: darunter ZeroGPT, GPTZero oder Binoculars

Wo KI zur Hand gehen kann

Der Blick in die Zukunft

Differenzierte Antworten erhält man auch, wenn man die Ehrenamtlichen nach ihren Erwartungen für die Zukunft fragt. Salino01 erwartet zum einen, dass „der Aufwand für die menschliche Eingangskontrolle“ in der Wikipedia „deutlich höher wird und viel mehr Quellenarbeit bedarf.“

Er kann sich aber auch Vorteile dank des technologischen Fortschritts vorstellen, „zum Beispiel das Durchsuchen von Wikipedia-Texten anhand einer Frage, die in natürlicher Sprache gestellt wird (‚Wie alt ist der Sänger XY?‘). Als Ergebnis gäbe es eine farbige Hervorhebung von entsprechenden Textpassagen im Text oder in der Infobox. Auch die Beantwortung einer vom Leser gestellten Frage in einer separaten Antwortbox wäre in allgemeinverständlicher Sprache möglich“.

Erste Ansätze in diese Richtung existierten bereits mit Wiki-Bot.org. Dieses für ChatGPT entwickelte Tool greift nur auf das verlässliche Wissen der Wikipedia zu – und vermittelt es klar und verständlich.

Wortulo wiederum sieht mit Blick in die Zukunft der KI-Entwicklungen vor allem eine Aufgabe für die Wikipedianer*innen: „Wir müssen dafür sorgen, dass unser Ehrenamt als ein Hobby erhalten bleibt, das für viele Engagierte sinnstiftend erscheint.“

Kommentare

  1. C.Suthorn
    2. Dezember 2024 um 15:17 Uhr

    Dieser Blog-Beitrag enthält eine derivatives Werk, das aus drei Bildern zusammengesetzt ist:

    1) Das Foto einer Bibliothek,
    2) Die Darstellung eines androiden Roboters,
    3) Den Wikiball.

    zu 1 und 2: Was ist die Source? Wer sind die Authors? Was sind die Lizenzen?

    zum derivativen Werk: Wer ist der Author? Wie ist die Lizenz?

    zu 3: Das ist das offizielle Logo von Wikipedia: https://commons.wikimedia.org/wiki/File:Wikipedia-logo-v2.svg

    Es steht unter cc-by-sa-3.0. Die Verwendung hier ist ohne Nennung von Author und Lizenz nicht lizenzkonform. Da die Version der Lizenz 3.0 lautet, bedeutet das, das das Bild gelöscht werden muss und für die lizenzwidrige Verwendung eine Entschädigung an den Rechteinhaber zu zahlen ist.

    1. Corinna Schuster
      4. Dezember 2024 um 11:21 Uhr

      Hallo C.Suthorn. Die Lizenz des Bildes lautet Leonardo.ai / Leonardo Kino XL / Wikipedia logo by Nohat (concept by Paullusmagnus); Wikimedia., KI und Wikipedia 2, CC BY-SA 4.0.

      Aufgrund eines Bugs wurde allerdings der Lizenzhinweis des Headerbildes mobil vorübergehend nicht angezeigt; das haben wir mittlerweile beheben können.

      Liebe Grüße
      Corinna (WMDE)

  2. Elmar
    1. Dezember 2024 um 16:33 Uhr

    Auch bei Anwendung und Entwicklung der KI ist wie bei allen andern Dingen der Nutzen und das Risiko zu bewerten.
    In dieser Angelegenheit ist evtl. das Risiko höher zu bewerten, d.h. Artikel mit KI schreiben und dann durch “Fachpersonal” überprüfen.
    Eine klar ersichtliche Kennzeichnung die auf die KI hinweist macht Sinn. Die Korrektur oder Überprüfung duch einen
    geeigneten Verantwortlichen liefert weitere Sicherheit.
    Aufhalten wird man den Einsatz von KI nicht, aber die sinnvolle und nützliche Anwendung kann man steuern (noch).

  3. Justus Manske
    30. November 2024 um 14:15 Uhr

    Hallo, ich meine: Menschen machen und benutzen Werkzeuge seit sie denken können, um sich das Leben leichter zu machen. Ist das Werkzeug gut zu gebrauchen, wird es benutzt und verbessert. Das scheint mir unaufhaltsam. Sich regelmäßig und frühzeitig mit einen komplexen Werkzeug wie Künstlicher Intelligenz auseinanderzusetzen, finde ich gut. Die Frage “Feind oder Helfer?” in der Überschrift empfinde ich als polemisch, zu krass. Brauche ich den Hammer, um ein Haus aufzubauen oder niederzureißen?

  4. Gebauer, Günter
    29. November 2024 um 12:46 Uhr

    falls KI verwendet wird erscheint es mir wichtig, auch den genauen Anfragetext mit anzugeben, was eine ev. Fehlinformation leichter auffindbar macht.

  5. Eva Hörner
    27. November 2024 um 13:31 Uhr

    KI ist ein Werkzeug, das viele Arbeiten am Computer sehr viel effizienter machen kann.
    Ziel muss sein, KI-Werkzeuge verantwortungsbewusst einzusetzen. (Das kann auch eine Vorbildfunktion für andere haben.)

    Vielleicht will Wikipedia:
    => einen Abschnitt über den Gebrauch von KI in den Code of Conduct aufnehmen. https://foundation.wikimedia.org/wiki/Policy:Universal_Code_of_Conduct

    => Und KI Tools verlinken, die verantwortungsbewusstes Nutzen von KI unterstützen. (Beispielsweise Tools zum Aufspüren von Links, die es nicht mehr gibt; Tools zum zuverlässigen Übersetzen von Wikipedia-Texten in andere Sprachen; Tools zum Aufspüren von Fake News, Desinformation usw.)

  6. Anton Schäffner
    26. November 2024 um 14:11 Uhr

    Hallo alle,

    fragen an KI können sehr fundiertes Wissen und Hintergründe zusammentragen. Insofern wird Wikipedia obsolet, es sein denn, es hebt sich klar und eindeutig davon ab. “Alleinstellungsmerkmale” könnten u. A. sein:
    1) Zugriff zu abgelegten Begriffen und Themen, ohne dadurch die weltweiten Bemühungen zur Energieeinsparung zu konterkarieren (KI Anfragen sind zumindest noch extrem energiefressend).
    2) KI Antworten können auch auf nicht menschlich kontrollierten und geprüften (Fake-)Informationen beruhen. Wikipedia könnte garantieren, dass dort alles – wie bisher – durch eine menschliche Redaktion geprüft ist. Also, bei allen dennoch möglichen Fehler, könnte es eine/die weltweit verlässlichste Quelle sein.
    3) Punkt 1 und 2 müssen keine generelle Absage an KI sein, sie kann dennoch sinnvoll, etwa zur Unterstützung der redaktionellen Arbeit und Überprüfung, eingesetzt werden. Sogar Mithilfe bei Artikeln ist sinnvoll, wenn sie anschließend sozusagen mit Wikipedia Siegel geprüft veröffentlicht wird.

    Viele Grüße,
    Anton Schäffner

  7. Manfred Eckelt
    26. November 2024 um 09:47 Uhr

    Moin. Wo liegt der Mehrwert von KI, der hinreichend nicht ohnehin aus dem Internet generiert oder gebastelt werden kann? Es fehlt der potentielle Gewinn aus Dialogen und Diskussionen. Für mich ist bis auf Weiteres KI ein Marketing-Tool wie Prosecco statt Schaumwein, Latte Macchiato statt Milchkaffe. KI kann zum Entlarven von nicht wissensbasierten Publikationen wie zB. objektiv rechtswidrigen Gerichtsurteilen, jede Art von unbewiesenen Behauptungen, Meinungs- Umfragen, Leistungsbilanzen des Top-Personals aus Politik undWirtschaft sowie als Peer-Review eingesetzt werden. Aber Vorsicht: Populismus und Pluralismus sind Falten desselben Gewandes. Fehlt eine Falte, fehlt auch die Würze im Diskurs. Wer will das schon? Nichtsfür ungut. M.

  8. Barbara Werner
    25. November 2024 um 22:51 Uhr

    Guten Tag,

    KI kommt, ob uns das paßt oder nicht. Also damit Leben lernen, klug einsetzen, selbst denken bitte.
    Es kommt auf uns selbst an was wir draus machen, Wie bei so vielem im Leben.
    Bei Ihnen vertrau ich auf kritische Geister.
    Vielen Dank für Ihre sehr zuverlässige Arbeit.
    Mit Dank und vielen Grüßen
    Barbara Werner

    1. Franziska Kelch
      27. November 2024 um 10:01 Uhr

      Liebe Frau Werner, es geht uns auch gar nicht darum, KI-Anwendungen per se zu verteufeln. Ich denke, das wird im Artikel auch deutlich. Auch in der Wikipedia-Community werden nützliche Aspekte ja gesehen – wie im Artikel beschrieben. Wir sind aber der Ansicht, dass die Wikipedia einige sehr wichtige Vorteile hat. Das ist neben der Tatsache, dass Inhalte belegt werden müssen – und damit für alle Lesenden nachvollziehbar ist, aus welchen Quellen das Wissen stammt – auch die allgemeine Transparenz. Die Versionsgeschichte macht jede Änderung an einem Artikel nachvollziehbar, die Diskussionsseiten zeigen auch, welche Inhalte diskutiert wurden, warum man sich beispielsweise für oder gegen einen Begriff entschieden hat. Wer die Wikipedia nutzt kann sich also selbst in Quellenkritik schulen und Artikel als Ausgangspunkt nehmen, um mit den genannten Quellen weiterzulesen. Es ist unrealistisch zu glauben, dass nirgendwo Fehler geschehen. Aber die Arbeit der vielen tausend ehrenamtlichen Wikipedianer*innen führt eben dazu, dass Inhalte in der Wikipedia nach klaren Regeln, geprüft und belegt zusammengetragen werden. Aus unserer Sicht das schönste Beispiel für Schwarmintelligenz.

  9. T. kloppe
    25. November 2024 um 22:22 Uhr

    Das ist genau die richtige Linie. Glaubwürdigkeit von Wikipedia schützen und offen für den Einsatz neuer Technologien sein.

    Weiter so!

    1. Franziska Kelch
      27. November 2024 um 10:02 Uhr

      Danke Herr Kloppe, das Lob gebührt der Community :-)

  10. Lothar Tesche
    25. November 2024 um 22:16 Uhr

    “Es gibt also kein Schwarzweiß, kein richtig oder falsch, wenn es um den Einsatz von KI geht.”, sagt Patrick Wildermann in seinem Beitrag.
    So ist es wohl mit allem was Menschenhirn erdacht und erdenkt. Gedanken können als sein geronnener Geist in Druckerschwärze gegossen, die Welt verändern ( Bibel, Koran usw.), aber auch durch seiner Hände Geschicklichkeit in materielle Dinge verwandelt werden.

    War die Erfindung der Atombombe richtig/gut oder falsch/böse? Die einen sagen sie war gut, weil es seit gut 80 Jahren keinen Weltkrieg gegeben hat. Die anderen sagen, sie sei böse, weil es sich im Kopf nicht gut anfühlt, dass tausende Atombomben den größten Teil der Menschheit recht schlagartig auslöschen könnten.

    Ich kann mit einem Knüppel einen Menschen erschlagen, aber auch eine schöne Figur daraus schnitzen und sie meinem besten Freund schenken. Der könnte tausend Kienspäne daraus schnitzen um tausend Wälder anzuzünden. Er könnte auch seine Frau damit totschlagen.
    Wie groß wäre mein Schuldanteil als Schnitzer dieser Figur?

    Jeder Mensch ist ein Individuum, quasie eine eigenständige Spezies. Jeder Mensch ist aber auch unbedingter Teil einer sozial determinierten Spezies: HOMO SAPIENS. Alle denkenden Menschen sind sich dieser Tatsache bewusst.

    Nun aber sind wir an einem Punkt angelangt, an dem wir unser individuelles UND kollektives Ich bewusst einer von uns erschaffenen, über uns stehenden/waltenden nicht sichtbaren Substanz überantworten. Diese Substanz (vielleicht könnte man einen besseren Begriff dafür erfinden) ist weder richtig/gut noch falsch/böse.

    Kein Mensch kann beweisen ob es Gott/Götter gibt. Ebenso kann kein Mensch beweisen, dass es ihn/sie nicht gibt. Hier aber hat die Spezies Mensch mit der KI sehr bewusst eine Entität geschaffen, die sie über ihr Dasein absolut bestimmen lässt. Diese Entität ist weder GUT noch BÖSE, sie ist einfach da.
    Die Welt wird sich weiter drehen wie bisher und jeder Mensch wird sich wie bisher selbst für sein glückliches oder unglückliches Leben verantwortlich machen.
    Vor rund zehn Jahren hatte ich einen Traum – so einen, wo man sich im Traum fragt, ob das gerade Wirklichkeit oder Traum ist- der vielleicht, wer kann das schon sagen, irgendwann Realität werden könnte.

    Ich kannte schon viele Galaxien, die ich in meinem kleinen Raumschiff durchmaß, bevor ich eines Tages mein Reiseziel von einem Zufallsgenerator bestimmen ließ. Infrage kamen allerdings Planeten , die meinem Heimatplaneten ähnelten. So landete ich zufällig auf einem, der  offensichtlich von Menschen bewohnt war, die meinem Äußeren entsprachen. Ich stellte den Xylutacator meines Gehirns auf ihre Sprache ein, und erhielt Landeerlaubnis. Sie begrüßten mich freundlich. Nach einer Weile erfuhr ich, dass es sich bei ihnen nicht um Menschen aus Fleisch und Blut , wie ich vermutete, sondern um Roboter handelte. Wie waren sie doch erstaunt, als ich ihnen erklärte, dass ich ein Lebewesen aus Fleisch und Blut wäre.

    Nachdem sie meinen Körper untersuchen durften, war das Staunen groß. Sie erzählten, dass sie von genau solch einem Wesen wie ich es war, abstammten; was allerdings schon über 1000 Jahre zurück lag. Das sei auch der Grund, weshalb ihre äußere Form der meinen  gleiche. Ich sei sozusagen ein längst ausgestorbenes Fossil ihrer Geschichte. Auf meine Frage, ob es denn Wesen wie mich auf ihrem Planeten noch gäbe, lächelten sie geheimnisvoll und führten mich in einen großen Raum ganz in der Nähe. Dort standen in langen Reihen schalenartige Stühle, auf denen madenartige Geschöpfe lagen, von denen jedes einzelne wohl nicht mehr als 16 Kilo wog. In dieser Geschöpfen steckten ein paar Drähte. Ich nahm ein sanftes Pulsieren  auf ihrer Hautoberfläche wahr.

    Als ich um Aufklärung bat, was es mit diesen augenlosen Geschöpfen auf sich habe, erklärte man, dass sich die Menschheit vor zweitausend Jahren aufgrund ihrer eigenen natur- und geisteswissenschaftlichen Entwicklung zu solcher Form entwickelt habe. Weltweit gäbe es 30 Millionen von ihnen. Ich erfuhr, dass alle miteinander über einen bestimmten „Draht“in Kontakt stünden. Sie können jederzeit mit all den Millionen anderen Individuen  Kontakt aufnehmen und sich virtuell-virtuelle Mails schreiben, um so ihre Gedanken auszutauschen. Sie sind unablässig am diskutieren. Meiner Frage, worüber  diskutiert werde, kamen sie mit der Antwort zuvor, sie würden über Mails und Bilder Zugang zu ihrer Welt haben. Sie können sich selbst jedoch nicht sehen. Sie wissen auch nichts von ihrem Maden-Körper. Es ist ihnen als träumten sie; und in einem Traum sähe man sich ja schließlich auch nicht selbst.In einem Traum existiere keine Zeit. Sie wissen, dass sie existieren und glauben auch, sie seien wie eh und je die Herren der Welt und die Herren  über uns, “ihre Roboter” eben.

    Das seien sie natürlich nicht wirklich, denn schließlich genüge nur ein entsprechender Klick, um eins dieser “Dinger”  implodieren zu lassen.

    Normalerweise stürben sie nach 200 Jahren und würden retortenmäßig ersetzt.

    Meiner Frage, warum man diese Geschöpfe weiter existieren lasse, obwohl  sie doch offensichtlich zu nichts Nutze seien, widersprach mein Gesprächspartner aufs heftigste. Diese 30 Millionen Gehirn-Maden hätten die Funktion eines Riesencomputers, wie man ihn besser und optimaler nicht produzieren könne. Sie, die Gehirnmaden, glauben die Welt zu beherrschen, in dem Sinne, dass es ihre Welt sei, und diskutieren untereinander wie man sie verbessern könnte. Sie wissen ja gar nicht, dass sie in ihrer Gedankenwelt gefangen sind und sich gar nicht aus ihren Schalensitzen erheben können, um an die frische Luft zu kommen. Man könne auch sagen, dass diese Maden-Gehirne eine unerschöpfliche Inspirationsquelle seien.
    Auf meine Frage, ob man damals vor 2000 Jahren die Menschen irgendwie gezwungen habe, sich zu Gehirn- Maden zu entwickeln, erhielt ich die Antwort, dass man das zwar nicht exakt wisse, aber sehr stark davon ausginge, dass sich diese damaligen Homo Sapiens, wie sie sich auch nannten, freiwillig so entwickelt haben, dass es praktisch ihre naturwissenschaftlichen und geisteswissenschaftlichen Erkenntnisse waren, die sie ganz zwanglos zu dem werden ließen, was ich hier in diesen Liegemulden sehen könne. Im Großen und Ganzen seien die Gehirn-Maden übrigens glücklich. In virtuellen Gesprächsräumen könne ich gern mit ihnen in Kontakt treten, wenn ich dies wünsche.

    Als ich mich von ihnen verabschiedete, wünschte ich ihnen noch alles Gute in der Hoffnung, dass nicht eine neue Robotergeneration komme, die sie zu einer Art Gehirn- Maden mutieren ließen. Sie lachten. „Nein, so dumm sind wir nicht. Schließlich haben wir uns zu Höherem entwickelt“.

    Bevor ich diesen Planeten verließ, umrundete ich ihn noch einige Male in geringer Höhe. Ich sah viele Ruinenstädte, viele tierartige,menschenähnliche Lebewesen, viel niedrigen Pflanzenwuchs.

    Mit lieben Grüßen
    Lothar Tesche

  11. Jürgen Suffa
    25. November 2024 um 20:42 Uhr

    Der Umgang mit KI, ist mit Risiken behaftet. Eure Ansätze die ich eben gelesen habe, finde ich gut und ausbaufähig. Danke für die vielen Gedanken die Ihr euch macht, und für die viele Arbeit. Ich bin stolz bei Wikipedia Fördermitglied zu sein. Seid weiterhin so fleißig, aber nicht vergessen auch zu Leben.

    1. Franziska Kelch
      27. November 2024 um 10:05 Uhr

      Lieber Herr Suffa, die Debatte um den Umgang mit KI-Anwendungen ist in der Tat eine andauernde. Bei einer so großen und vielfältigen Community wie der der Wikipedianer und Wikipedianerinnen ist das auch kein Wunder. Es freut uns, dass sie so positiv auf die Ansätze blicken.

  12. Jörg Witzel
    25. November 2024 um 19:35 Uhr

    Der Einsatz der aktuellen LLM-Systeme, die gern als KI vermarktet werden, ist komplett abzulehnen. Denn diese Systeme können nur Bullshit produzieren. Ich verwende diesen Begriff entsprechend der Definition des amerikanischen Philosophen Harry Frankfurt: Als Quintessenz von Bullshit bestimmt Frankfurt die vollständige Gleichgültigkeit des Bullshitters gegenüber der Wahrheit. Das entspricht exakt dem was LLMs produzieren. Sie können nur Sätze erzeugen, die korrekt aufgebaut sind und zum Thema passen.
    Das sollte aber für eine Enzyklopädie wie Wikipedia ein Ausschlusskriterium sein. In Amerika sind schon Anwälte vom Gericht belangt worden, weil Sie von LLM generierte Texte vor Gericht eingereicht haben und das Gericht festgestellt hat, daß die Referenzen frei erfunden waren!
    Dazu möchte ich noch Brandolinis Gesetz anführen welches lautet:
    “The amount of energy needed to refute bullshit is an order of magnitude bigger than to produce it.”
    „Das Widerlegen von Schwachsinn erfordert eine Größenordnung mehr Energie als dessen Produktion.“

    1. Franziska Kelch
      27. November 2024 um 10:09 Uhr

      Lieber Herr Witzel, ja, so lange von LLMs erzeugte Texte nicht den Kriterien für enzyklopädisches Schreiben entsprechen, können sie auch der Wikipedia nicht gerecht werden. Denn letztendlich müssen auch LLM-generierte Texte den Kriterien entsprechen (Belegpflicht, neutraler Standpunkt etc. pp.) und das können LLMs nicht leisten – neben der Tatsache, dass sie einfach zu viele Fehler produzieren.

  13. Barleben
    25. November 2024 um 19:21 Uhr

    Ich bin weiblich, 71 Jahre alt, nutze und schätze Wikipedia seit ca 15 Jahren und bin seit einigen Jahren auch Mitglied. Im Rahmen meiner Möglichkeiten werde ich meinen Mitgliedsbeitrag erhöhen, weil ich meinen bescheidenen Beitrag zum Erhalt von Wikipedia leisten möchte. Den Beitrag zur Anwendung von KI habe ich mit Interesse gelesen, um dann festzustellen, dass ich mit pro und contra total überfordert bin!!!!! Ich kann nur darum bitten, dass diejenigen, die letztendlich auch in den Entscheidungsprozess, ob und in welcher Form KI Anwendung finden soll, einbezogen sind, die Interessen der Nutzer*innen, die auf die Verlässlichkeit von Wikipedia angewiesen sind und die bis jetzt auch darauf vertraut haben, bedenken und einbeziehen. Vielen Dank!

  14. Günter Seydack
    25. November 2024 um 18:24 Uhr

    Der Artikel zur Diskussion über den Einsatz von KI in Wikipedia war notwendig und aufschlussreich. Meinung: Wenn es um die Entscheidung geht, welche Beiträge in Wikipedia veröffentlicht werden dürfen, gilt es, einige klare Unterschiede zu machen:
    1a) Autor: ein Mensch, der geistiges Eigentum beiträgt; und
    1b) Werkzeug des Autors: dieses kann, und wird zunehmend, KI einschließen.
    2a) Verantwortung: diese muss von einem oder mehreren mitarbeitenden Autoren getragen werden; für as
    2b) Produkt: der veröffentlichte Beitrag; wie auch immer das Produkt erschaffen wurde, ist es nur akzeptabel, wenn Autor oder Autoren identifizierbar und ansprechbar sind – also zur Verantwortung gezogen werden können.
    KI kann, und wird unvermeidlich, Wikimedia als Werkzeug dienen, um unakzeptable Beiträge zu identifizieren und für Leser erkennbar zu markieren. Leser werden selbst Verantwortung übernehmen müssen, darüber eine Entscheidung zu treffen.
    Wichtig:
    * Administratoren, um als unakzeptabel bestätigte Beiträge zu auf verantwortliche Weise löschen;
    * KI, mit der Eigenschaft eines Werkzeugs, ist nicht verantwortungsfähig;
    * KI Automation sollte der direkte Zugriff auf Wikipedia zur Erstellung von Beiträgen verwehrt werden; diese Aufgabe wird aber wiederum für Wikipedia nur mit Hilfe von KI lösbar sein.

  15. Hans-W. Schütte
    25. November 2024 um 15:05 Uhr

    Die Probleme mit KI sind hier insgesamt korrekt und differenziert beschrieben. Es ist ein Problem, dass KI die Grenzen des eigenen Wissens bzw. Nichtwissens nicht erkennt und anfängt, zu fabulieren, wenn zuzugeben wäre, dass die vorliegenden Informationen nicht ausreichen.
    Wenn Gendern, dann bitte sprachlich richtig. “… bei vielen Wikipedianer*innen” enthält nicht “Wikipedianern”. Es müsste entweder heißen “… bei vielen Wikipedianern und Wikipedianerinnen” oder aber “… bei vielen Wikipedianer(inne)n”. Unabhängig davon dürfte die Frage strittig sein, ob nicht auch Frauen Wikipedianer sein können. Ich meine: Sie können.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert