Zum Inhalt überspringen
Zum Inhalt überspringen

Weniger Menschen, mehr Bots – so verändert sich die Art der Zugriffe auf Wikipedia

Führte die Suche nach Informationen im Netz jahrelang schnell zu einem Wikipedia-Artikel, präsentieren uns heute Suchmaschinen und Chatbots wie ChatGPT direkt KI-generierte Antworten. Diese Entwicklung hat mittlerweile spürbare Auswirkungen auf die Wikipedia – und zwar auf mehreren Ebenen.

Eine aktuelle Untersuchung der Wikimedia Foundation zeigt, dass die Zahl der Wikipedia-Seitenaufrufe durch Menschen um etwa 8 Prozent zurückgegangen ist. „Diese Rückgänge kommen nicht unerwartet. Suchmaschinen nutzen zunehmend generative KI, um Suchenden direkt Antworten zu liefern, anstatt auf Websites wie die Wikipedia zu verlinken“, so die Wikimedia Foundation. Und selbst wenn die Wikipedia als Quelle angegeben wird, klicken Nutzer*innen eher selten auf die weiterführenden Links. Hinzu kommt, dass insbesondere jüngere Menschen Informationen vor allem auf Videoplattformen wie Youtube, oder in sozialen Netzwerken wie TikTok oder Instagram suchen.

„Wir begrüßen neue Wege, auf denen Menschen Wissen erwerben können“, so die Wikimedia Foundation weiter. Allerdings müssten Large Language Models, KI-Chatbots, Suchmaschinen und soziale Plattformen, die Wikipedia-Inhalte nutzen, mehr Besucher*innen zu Wikipedia führen – damit das freie Wissen, auf das so viele Menschen und Plattformen angewiesen sind, auch weiterhin nachhaltig fließen könne.

Während auf der einen Seite weniger Menschen direkt in der Wikipedia nach Informationen suchen, sind die Zugriffe durch Bots und Crawler deutlich gestiegen. Mit Folgen.

Bots und Crawler belasten Infrastruktur der Wikipedia

Mit ihren 65 Millionen Artikeln in über 300 Sprachen ist Wikipedia die wichtigste Quelle für generative KI-Programme. Fast alle großen Sprachmodelle (Large Language Models) werden mit Wikipedia-Datensätzen trainiert. Suchmaschinen und Social-Media-Plattformen priorisieren Wikipedia, um die Fragen ihrer Nutzer*innen zu beantworten. Das Wissen in der Wikipedia ist seit jeher frei zugänglich und kann von allen genutzt werden – also auch von Unternehmen, die Sprachmodelle und generative KI-Anwendungen entwickeln. Doch die intensive Nutzung hat mittlerweile Folgen für die Infrastruktur der Wikipedia.

Automatisierte Zugriffe durch Bots und Crawler verursachen eine enorme Last  auf den Servern, beanspruchen viele Ressourcen und belasten damit die Stabilität der Plattform für menschliche Nutzer*innen. Während die Wikipedia kurzfristige Zugriffsspitzen – etwa bei aktuellen Ereignissen – gut abfedern kann, stellen die dauerhaften, massiven Abrufe durch Bots ein strukturelles Problem dar. Daher beobachtet die Wikimedia Foundation diese Zugriffe von Bots und Crawlern genau, analysiert sie und kann im Zweifel Zugriffe drosseln oder blockieren.

Mittlerweile werden Bots aber so ausgefeilt programmiert, dass sie menschlich wirken. Dies hat sich zuletzt im Frühjahr dieses Jahres gezeigt, als ungewöhnlich hohe, scheinbar menschliche Zugriffe auf die Wikipedia aus Brasilien zu beobachten waren. Die Wikimedia Foundation hat daraufhin ihre Bot-Erkennungssysteme aktualisiert und festgestellt, dass ein Großteil des ungewöhnlich hohen Traffics von Bots stammte, die so entwickelt wurden, dass sie der Erkennung entgehen.

Wie Wikimedia auf die Entwicklung reagiert

25 Jahre nach ihrem Start ist die Wikipedia einer der wichtigsten Orte im Internet, wenn es um gesichertes und verlässliches Wissen geht. Und damit sie das auch in Zukunft bleibt – und vor allem weiterhin viele Ehrenamtliche motiviert sind, daran mitwirken – braucht es entsprechende Maßnahmen.

Um die Sichtbarkeit und Relevanz von Wikipedia dauerhaft und insbesondere bei jüngeren Zielgruppen zu erhalten, hat die Wikimedia Foundation zwei neue Teams an den Start gebracht (Reader Growth und Reader Experience). Diese sollen neue Ideen dafür entwickeln, wie Menschen Wikipedia-Inhalte finden und lesen. Das Future Audiences-Projekt testet zudem neue Wege, um das Wissen aus Wikipedia insbesondere einem jüngeren Publikum näherzubringen.

Auch bei Wikimedia Deutschland arbeiten wir an neuen Ansätzen. Vor Kurzem wurde mit dem Wikidata Embedding-Projekt eine neue Vektordatenbank veröffentlicht, die die offenen Daten aus Wikidata so aufbereitet, dass sie leichter für die Entwicklung von generativer KI genutzt werden können. Insbesondere auch von Entwicklerteams aus dem Open-Source-Bereich, die weniger Ressourcen besitzen als große Tech-Konzerne. Ende Januar findet zudem das erste Wikimedia Futures Lab statt, bei dem Teilnehmer*innen aus aller Welt über weitere Lösungsansätze sprechen werden.

Warum sich die direkte Suche in der Wikipedia lohnt

Natürlich erscheinen KI-Zusammenfassungen oder Chatbot-Antworten erst einmal praktisch, servieren sie uns doch Informationen schnell und übersichtlich. Doch auch wenn die Programme unter anderem mit Wikipedia trainiert werden, spucken sie am Ende nicht immer wirklich zuverlässige Antworten aus. Halluzinationen sind jederzeit möglich, akkurate Quellenhinweise können fehlen und viele KI-Systeme basieren auf weiteren oft undurchsichtigen Datensätzen.

Wer also wirklich sichergehen will und verlässliche Antworten auf seine Fragen bekommen möchte, dem empfiehlt sich immer noch die direkte Suche in der Wikipedia. Hinter der Online-Enzyklopädie steckt ein ausgeklügeltes System, das dafür sorgt, dass Informationen überprüfbar und vertrauenswürdig bleiben. Wie genau das funktioniert und wie damit Wissen geschützt wird, zeigen wir in einer neuen Blogreihe. Hier stellen wir unter anderem die drei Grundpfeiler der Wikipedia und die acht wichtigsten Mechanismen vor.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert