Community
Faktencheck durch Community: Warum das bei Wikipedia klappt – und bei Social Media nicht


Hanna Klein
21. Januar 2025
Bisher spielten auf Metas Plattformen, darunter Facebook, Instagram und Threads, professionelle Faktenchecker eine zentrale Rolle. Sie prüften Inhalte, die besonders stark verbreitet oder von Nutzenden häufig gemeldet wurden, auf ihren Wahrheitsgehalt. Anfang Januar erklärte Meta-Chef Mark Zuckerberg nun, die Zusammenarbeit mit den Faktencheckern in den USA zu beenden. Begründung: Sie würden das Vertrauen der Nutzer*innen untergraben. Statt Faktencheckern soll es sogenannte Community-Notes geben: Nutzende sollen dann markieren dürfen, was stimmt und was nicht – ein System, das bereits auf X eingeführt wurde.
Diese Umstellung birgt Risiken: Wenn Einzelpersonen ohne klare Regeln Inhalte bewerten, steigt die Gefahr, dass Meinungen und Falschinformationen als Wahrheit präsentiert werden. Zwar schreibt das EU-Recht durch den Digital Services Act (DSA) weiterhin vor, dass die Plattformen Inhalte moderieren und illegale Inhalte entfernen müssen. Dennoch sind fragliche Posts aus den USA künftig ungeprüft.
Warum funktioniert das Community-Prinzip bei Wikipedia?
Auf den ersten Blick könnte man meinen, dass das Prinzip, Inhalte durch die Community prüfen zu lassen, vielversprechend klingt – schließlich zeigt Wikipedia, wie effektiv es sein kann. Doch der entscheidende Unterschied liegt in der Struktur und den Zielen der jeweiligen Plattformen.
Die Wikipedia-Community besteht aus Ehrenamtlichen, die dabei unterschiedliche Rollen übernehmen. Einige spezialisieren sich auf das Schreiben von Artikeln zu bestimmten Themen, andere sichten Änderungen oder prüfen Quellen. Besonders bei kontroversen und aktuellen Themen achten Wikipedianer*innen darauf, Manipulationen und Falschinformationen schnell zu erkennen und zu korrigieren. Dabei orientieren sie sich an einem klar definierten Regelwerk und einem gemeinsamen Ziel: verlässliches Wissen für alle kostenlos bereitzustellen.
Ein Regelwerk als Basis für Vertrauen
Seit ihrer Gründung 2001 hat die Wikipedia-Community ein komplexes Regelwerk geschaffen, das Transparenz und Neutralität gewährleistet. Es ist definiert, was relevant für einen eigenen Artikel ist – und was nicht. Artikelinhalte müssen mit Quellen belegt werden und es ist definiert, welche Quellen verlässlich sind. Auch wichtig: Artikel sollten objektiv geschrieben sein. Das heißt nicht, dass in der Wikipedia keine Meinungen dargestellt werden dürfen. Es muss jedoch transparent sein, was Meinung und was Fakt ist und auch welcher Forscher, welche Partei oder welche Journalistin einen Standpunkt geäußert hat, der im Artikel wiedergegeben wird.
Die Regeln haben eine hohe Akzeptanz – weil die Community sie gemeinschaftlich erstellt hat und ihre Einhaltung gemeinsam überwacht. Jeder Artikel ist öffentlich nachvollziehbar: Die Versionsgeschichte zeigt jede Änderung, und auf Diskussionsseiten werden Inhalte ausgehandelt. Dieses gut funktionierende System ermöglicht es der Community, Desinformationen effektiv zu bekämpfen.
Warum das Community-Prinzip bei Big-Tech-Plattformen zum Scheitern verurteilt ist
Können Facebook, Instagram und X plötzlich nach einem ähnlichen Prinzip funktionieren? Vermutlich nicht, jedenfalls nicht so, wie sie gestaltet sind: Ohne einheitliche Prinzipien oder eine gemeinsame Vision ist es nahezu unmöglich, eine Community zu motivieren, Verantwortung für ihre Inhalte zu übernehmen. Stattdessen dominieren Algorithmen und wirtschaftliche Interessen auch darüber, welche Inhalte für wen sichtbar sind. Denn die Plattformen sind anders als die Wikipedia in erster Linie gewinnorientiert.
Die Herausforderungen der Wikipedia-Community
Natürlich ist auch bei Wikipedia nicht immer alles eitler Sonnenschein. Meinungsverschiedenheiten über die Auslegung von Regeln und die aufwendige Kleinarbeit können frustrierend sein. Dabei braucht Wikipedia neue Mitstreiter*innen, die sich einbringen und das Projekt lebendig halten – damit das Schwarmprinzip weiter erfolgreich ist und die Wikipedia so bleibt, wie wir sie schätzen: offen, verlässlich und unabhängig. Und vor allem eins: Ein Gemeinschaftsprojekt.
Fazit: Ein Modell mit Vorbildcharakter
Wikipedia zeigt, wie verantwortungsvoller Umgang mit Wissen im Internet gelingt. Während große Tech-Plattformen den Schutz vor Desinformation zunehmend vernachlässigen, setzt Wikipedia auf Gemeinschaft, klare Regeln und Transparenz.
Für kommerzielle Plattformen ist ein solches Modell schwer umzusetzen. Doch eines steht fest: Ohne verbindliche Strukturen und gemeinsame Ziele bleibt der Kampf gegen Desinformation eine enorme Herausforderung.
Für mich ist WIKIPEDIA eine der ganz wenigen Quellen geworden, denen ich noch "ziemlich vorbehaltlos" vertraue! Leider sind selbst die öffentlich-rechtlichen Medien in Deutschland zunehmend tendentiös, v.a. durch das "Nicht-Senden" oder "Nicht-Erwähnen" von Fakten oder Ereignissen, was einer "schiefen Entscheidung" Vorschub leisten kann und ggf. auch soll. Ich fordere immer wieder Freunde und Bekannte auf, für diese einmalige Struktur der Wissensvermittlung auch "etwas Geld zu geben"; ein Brockhaus o.ä. ähnliche Enzyklopädien waren jedenfalls früher deutlicher teurer ... und dann schnell veraltet. Bitte WEITERMACHEN!