Die wahrscheinliche Zukunft

Werden Wikipedia-Artikel künftig von Künstlicher Intelligenz verfasst? Laufen wir Gefahr, dass Machine-Learning-Modelle gesellschaftliche Schieflagen verstärken? Und wie wird das Lehren und Lernen von morgen aussehen? Das Aufkommen von Textbots wie ChatGPT schafft neue Herausforderungen – aber auch Chancen.

  • Patrick Wildermann (freier Autor)
  • 15. März 2023

Künstliche Intelligenz und maschinelles Lernen bestimmen unseren Alltag. Kaum jemand findet sich noch ganz ohne KI-Navigation zurecht (siehe Google Maps & Co), viele lassen sich bei der Arbeit von Spracherkennungs- und Übersetzungstools helfen. Mit dem für Furore sorgenden Textbot ChatGPT – entwickelt vom US-amerikanischen Unternehmen OpenAI, hinter dem hauptsächlich Microsoft sowie der Milliardär Elon Musk stehen – rückt die Diskussion um die Potenziale und Gefahren von KI nun aber zunehmend in die Mitte der Gesellschaft. ChatGPT, mittlerweile in Microsofts Suchmaschine Bing integriert, beantwortet Fragen, analysiert und produziert Texte oder löst mathematische Aufgaben auf bereits so hohem Niveau, dass eine neue Entwicklungsstufe des maschinellen Lernens erreicht zu sein scheint. 

Entsprechend eilig zieht die Konkurrenz nach: Google hat jüngst einen artverwandten Chatbot namens Bard angekündigt, der Facebook-Mutterkonzern Meta entwickelt das Modell LLaMA (Large Language Model Meta AI). Die New York Times schrieb bereits von einem „Wettrüsten mit KI“, der Tagesspiegel prognostizierte eine bevorstehende „neue Ära der Internetsuche“. Was aber bedeutet diese Entwicklung für die Wikimedia-Projekte – und was für die digitalen gesellschaftlichen Zusammenhänge, in denen sie sich verorten und wachsen? 

Von Chancen, Risiken und Nebenwirkungen

„Chancen und Risiken“, fasst es Franziska Heine, Geschäftsführende Vorständin von Wikimedia Deutschland, zusammen. Natürlich tritt ein Chatbot, der vermeintlich schnelle Antworten liefert, in Konkurrenz zur freien Online-Enzyklopädie Wikipedia. Zudem wird der Traffic auf der Wikipedia oft über Google-Suchen generiert – weichen Menschen aber auf ChatGPT und andere Modelle aus, um Informationen zu erhalten, wird ihnen kein Link zur Wikipedia vorgeschlagen. „Und wenn weniger Menschen auf Wikipedia zugreifen und eine eigene User-Experience haben, verringert sich die Wahrscheinlichkeit, dass sie selbst zu Beitragenden werden“, so Heine. Worunter die Qualität des Wissensprojektes leiden könnte, das auf eine große und diverse Community angewiesen ist. Werden Wikipedia-Artikel nicht mehr ausreichend aktualisiert, hat das wiederum Auswirkungen auf alle Projekte, die auf diese Daten zugreifen – auch ChatGPT. 

Was Heine außerdem zu Denken gibt, ist eine mögliche Monopolbildung durch OpenAI: „Wir haben mehrfach den Aufstieg von Plattformen erlebt, die für ein bestimmtes Marktsegment zumindest zeitlich befristet einen de facto Monopol-Charakter mit Netzwerk-Effekten hatten“. Sei es Facebook oder TikTok. Der Konzern Microsoft, der auch LinkedIn übernommen hat, könnte der nächste Platzhirsch auf dem Feld der Machine-Learning-Programme werden. Monopole aber schaffen Abhängigkeiten – die Nebenwirkungen mangelnder Alternativen demonstriert aktuell etwa Twitter, das viele aufgrund des Geschäftsgebarens von Neubesitzer Elon Musk gern verlassen würden. Zugleich sind sie aber auf das Informationsmedium angewiesen. „Warum nicht von vornherein wirksame Regularien gegen Monopole schaffen?“, fragt Heine.

Kein Chatbot ohne freies Wissen  

Dabei sind Entstehung und Aufstieg von ChatGPT und ähnliche Projekte nicht zuletzt der Tatsache zu verdanken, dass Wissen im Netz frei verfügbar ist. „Alle Machine-Learning-Systeme, die gegenwärtig existieren, sind irgendwann im Lauf ihrer Entwicklung auch mit Wikimedia-Content trainiert worden“, ist sich Wikimedia-Präsidiumsmitglied und früherer Wikidata-Mitentwickler Jens Ohlig sicher – mit Inhalten aus der Wikipedia oder der freien Wissensdatenbank Wikidata, die auch schon in Sprachassistenten wie Amazons Alexa stecken. Beim Training eines Sprachmodells kommen gigantische Datenmengen zum Einsatz. Die Aufgabe für den Algorithmus besteht darin, Lückentexte zu füllen – die Vorschläge des Programms werden dann daraufhin überprüft, ob sie sinnvoll sind oder nicht. „Die gesamte Magie hinter ChatGPT ist Hochleistungs-Stochastik“, erklärt Ohlig. „Das Programm versucht, statistische Muster oder Korrelationen in einem Wust aus Daten zu erkennen“. Auf der Basis des Gelernten macht eine KI Vorschläge, wie der nächste Satz in einem Text lauten könnte. 

Das Problem ist, dass Textbots wie ChatGPT auf dem gegenwärtigen Stand schlicht raten, wenn sie eine Antwort nicht kennen – ein Phänomen, das als Halluzination bezeichnet wird. So mischt sich Plausibles mit Nonsens, ohne dass es auf den ersten Blick identifizierbar wäre. „Grundsätzlich ist unser Anliegen, dass keine Falschinformationen in die Welt gesetzt werden“, so Raja Amelung, Co-Leiterin der Software-Entwicklung bei Wikimedia Deutschland. „Wenn Programme auf der Basis von Wikipedia oder Wikidata trainiert werden, wissen wir, dass die Daten von Menschen kuratiert und geprüft worden sind – was begrüßenswert ist“. Allerdings legen OpenAI, Google und Co nicht offen, welche Daten darüber hinaus verwendet werden. Eine Intransparenz, die auch Gefahren birgt. Schließlich können Algorithmen – je nach Trainingsmaterial – gesellschaftliche Biases und Vorurteile reproduzieren und bestehende Wissensungerechtigkeit verstärken. 

Ein großes Datenset sei „nicht notwendigerweise auch divers“, haben schon die US-amerikanische Forscherin Emily M. Bender und Kolleg*innen in einem Paper mit dem Titel „On the dangers of stochastic parrots“ festgestellt. Die Schwierigkeit beginnt schon damit, dass aufgrund der Datenlage ein Bot wie ChatGPT die besten Ergebnisse auf Englisch produziert, wodurch andere Sprachen noch mehr marginalisiert werden könnten.

Beschleuniger der digitalen Mündigkeit

Auch im Bildungsbereich führt der Aufstieg der Chatbots zu neuen Herausforderungen. Die Aufgabe „Schreibe ein Referat über Georg Friedrich Händel“ lasse sich jetzt vermeintlich einfach mit KI lösen, so Heike Gleibs, Leiterin des Bereichs Bildung, Wissenschaft und Kultur bei Wikimedia Deutschland. Entsprechend seien die Lehrkräfte gefragt, andere Aufgaben und Fragestellungen zu finden. „Die Entwicklung der Sprachprogramme macht unter dem Brennglas sichtbar, dass digitale Mündigkeit sowie Data und Information Literacy Kernthemen im gesamten Bildungsbereich sind“, betont Gleibs.

Ob ChatGPT und ähnliche Bots allerdings als so genannte Open Educational Resources (OER) zu betrachten sind – also als freies und offenes Bildungsmaterial, beziehungsweise Bildungstool – bezweifelt sie. Schon weil sie sich vorstellen kann, dass Microsoft und andere Tech-Giganten mittelfristig Bezahlschranken wie Abo-Modelle für die Dienste einführen. Was aus einer Schülerschaft wiederum eine Zwei-Klassen-Gesellschaft machen würde – geteilt in diejenigen, die es sich leisten können. Und die anderen. Zudem seien die Bots voraussetzungsreich. Die Prompts – also die Aufgaben an das Programm – müssen gelernt sein: „Je besser die Frage, desto besser die Antwort“. Gleibs ist aber auch überzeugt: „ChatGPT oder die ähnliche KI Perplexity werden in Schulen genutzt werden – Lehrende und Lernende müssen einen sinnvollen, produktiven Umgang damit finden“.

Die Zukunft der Mensch-Maschine-Interaktion

In der Wikipedia-Community wird derweil durchaus kontrovers diskutiert, wie mit Artikeln umzugehen wäre, die ChatGPT generiert hat – mal abgesehen davon, dass der Bot gegenwärtig noch nicht in der Lage ist, Quellenangaben oder Referenzen zu liefern. Auch die denkt er sich im Zweifelsfalle aus. Der Wikipedianer und Mitgründer des Kinderlexikons Klexikon Ziko van Dijk erklärt in einem Beitrag im Wikipedia Kurier, dass er die bestehenden Community-Regeln für robust genug hält, um eventuelle von Chatbots produzierte Unsinnigkeiten schnell auszumachen – wenngleich jede Löschung Aufwand bedeute.

„Gravierender könnte ein anderes Problem werden“, schreibt van Dijk: „Kaum ein Leser hat Lust, einen 30-seitigen Artikel zu lesen, um eine einzige Frage beantwortet zu bekommen. Dann fragt man doch lieber den Chatbot. Müsste die Wikipedia nicht selbst einen Chatbot haben, der Antworten liefert?“. Eine Diskussion, die bereits seit einer Weile virulent sei, so Raja Amelung: „Hinsichtlich der Mensch-Maschine-Interaktion müssen die Wikimedia-Projekte perspektivisch nachziehen. Schon allein, um auch für zukünftige, jüngere User attraktiv zu bleiben.“

Nicht die einzige offene Frage, wenn es um Wikimedia und das Feld der KI geht. Schließlich werfen Texte – und auch Bilder – die mit freien Inhalten aus dem Netz generiert wurden, neue Urheberrechtsdebatten auf. Sind die so entstehenden Inhalte automatisch auch rechtefrei? Darum geht es in der zweiten Folge unserer Blogreihe.  

Was für viele aber bereits zweifelsfrei feststeht: Dass wir mit dem Aufkommen von ChatGPT und Co eine Zäsur erleben. „Viele werden sich in 20 Jahren noch daran erinnern, wann sie in ChatGPT die erste Frage gestellt haben – so wie sich manche noch erinnern, wann sie das erste Mal einen Wikipedia-Artikel gelesen haben“, ist Franziska Heine überzeugt.  

  1. > mal abgesehen davon, dass der Bot gegenwärtig noch nicht in der Lage ist, Quellenangaben oder Referenzen zu liefern.

    In den – zunächst in der Regel einfachen – und zusammenfassenden Antworten von ChatGPT werden keine Quellen geliefert. Aber auf Nachfrage oder ausdrückliche Aufforderung, Antworten oder Texte mit Quellen samt z.B. Formatierung der Belege im Harvard-Stil zu liefern, ist dies ohne Weiteres möglich.
    Dieses “auf den Zahn fühlen” ist in mehrerer Hinsicht wichtig, denn die Lücken und der Bias sind beträchtlich. Wie lernfähig (und “-willig”) das System angelegt ist, wird eine wichtige Nagelprobe…

    Kommentar von ChatGPT Checker am 15. März 2023 um 14:46

  2. ChatGPT ist lernfähig und -willig. Bei meinem Test-Chat neulich habe ich ihm eine Frage zu Biochemie gestellt. In der Antwort kam das Stichwort “pH-Wert” vor. Dann habe ich mir den pH-Wert erklären lassen. Die Antwort war ok. Darauf habe ich einige Details dazu ausgeführt. Der Bot hat sich bedankt und erklärt, dass er mehr lernen möchte. Ich fühle mich dazu aufgefordert noch mehr Input zu bringen. Wer Lust und Zeit hat (mich eingeschlossen) möge dies gern tun!

    Kommentar von FK1954 am 16. März 2023 um 16:34

Hinterlasse einen Kommentar