“Wir alle verdienen ein besseres, sichereres Internet” Unsere Forderungen an den Digital Services Act
Amanda Keton
Dr. Christian Humborg
30. November 2021
Als das Coronavirus sich im letzten Jahr rasant über die ganze Welt ausbreitete, waren Menschen überall auf der Suche nach verlässlichen Informationen. Ein weltweites Netzwerk aus Freiwilligen zeigte sich dieser Herausforderung gewachsen, trug Informationen von Wissenschaftler*innen, Journalist*innen und medizinischen Fachleuten zusammen und machte es für eine breite Leserschaft zugänglich. Zwei dieser Freiwilligen leben beinahe 3.200 Kilometer voneinander entfernt: Dr. Alaa Najjar ist Arzt und freiwilliger Wikipedia-Autor, der die Pausen während seiner Arbeit in der Notaufnahme damit verbringt, falsche Informationen über COVID-19 in der arabischen Sprachversion der Wikipedia zu korrigieren. Die in Schweden ansässige Dr. Netha Hussain, eine Ärztin und klinische Neurowissenschaftlerin, bearbeitete in ihrer freien Zeit Artikel zu COVID-19 in der englischsprachigen Wikipedia und jener in Malayalam (einer Sprache aus dem Südwesten Indiens) und konzentrierte sich schließlich auf das Verbessern von Wikipedia-Artikeln über COVID-19-Impfungen.
Dank Dr. Najjar, Dr. Hussain und mehr als 280.000 Freiwilligen hat sich Wikipedia als eine der vertrauenswürdigsten Quellen für aktuelles, umfassendes Wissen zu COVID-19 etabliert, mit beinahe 7.000 Artikeln in 188 Sprachen. Sei es durch die Information der Öffentlichkeit über eine bedeutende Krankheit oder durch die Unterstützung von Schüler*innen und Studierenden bei der Prüfungsvorbereitung – vor allem in den letzten Monaten haben wir gesehen, welch enormen Beitrag die Wikipedia für die Allgemeinheit leisten kann. Die Reichweite der Wikipedia und ihre Fähigkeit, die globale Verbreitung von Wissen zu unterstützen , sind jedoch nur möglich, wenn gesetzliche Rahmenbedingungen ihr auf Zusammenarbeit und freiwilliges Engagement ausgerichtetes Modell auch ermöglichen. Die Europäische Union plant neue Regeln, um große Tech-Plattformen für die von ihnen verbreiteten Inhalte zur Verantwortung zu ziehen, etwa das Gesetz über digitale Dienste (Digital Services Act, DSA). Dabei ist es wichtig, dass die Möglichkeit für alle Bürger*innen, im öffentlichen Interesse zusammenzuarbeiten, geschützt wird.
Die Europäische Union tut gut daran, gegen die Verbreitung von potenziell physisch wie psychisch schädlichen Inhalten vorzugehen, vor allem, wenn diese in vielen Rechtsordnungen ohnehin illegal sind. Wir begrüßen viele der Vorschläge, die im Parlament für den umfassenden DSA gemacht wurden, etwa die Forderung nach mehr Transparenz hinsichtlich der Funktionsweise der Moderation von Beiträgen auf den Plattformen. Doch im aktuellen Entwurf sind auch verpflichtende Vorgaben zur Art der Durchsetzung von Nutzungsbedingungen vorgesehen. Auf den ersten Blick mögen solche Vorgaben notwendig erscheinen, um die wachsende Macht der sozialen Medien einzuschränken, die Verbreitung illegaler Inhalte zu verhindern und die Sicherheit virtueller Räume im Internet sicherzustellen. Aber was bedeutet das für Projekte wie Wikipedia? Einige der vorgeschlagenen Bedingungen könnten die Macht weiter von den Menschen zu den großen Plattformen verschieben, wodurch diejenigen Plattformen, die anders als die kommerziellen Produkte funktionieren, in ihrer Existenz bedroht würden.
Big-Tech-Plattformen funktionieren völlig anders als nicht-gewinnorientierte, kollaborative Websites wie Wikipedia. Alle von Freiwilligen geschriebenen Wikipedia-Artikel sind kostenlos verfügbar sowie werbefrei, und das Browsing-Verhalten der Leser*innen wird nicht nachverfolgt. Die Anreizstrukturen der kommerziellen Plattformen sind auf Profit und auf die auf der Website verbrachte Zeit ausgerichtet, wofür durch Algorithmen detaillierte Nutzer*innenprofile erstellt werden, um Menschen gezielt mit Inhalten zu versorgen, die sie am ehesten beeinflussen. Weitere Algorithmen werden für automatisierte Moderation verwendet, wodurch regelmäßig problematische Inhalte durchrutschen oder fälschlich unproblematische Inhalte erfasst werden. So verwechseln Filter etwa beim Versuch, die Regeln der Plattform durchzusetzen, häufig Kunst und Satire mit illegalen Inhalten, da sie die notwendigen menschlichen Nuancen und den Kontext nicht verstehen kann.
Die Wikimedia Foundation und angeschlossene Länderorganisationen, wie Wikimedia Deutschland, unterstützen Wikipedia-Aktive und deren autonome Entscheidungsgewalt darüber, welche Informationen in der Wikipedia stehen sollen und welche nicht. Das offene Bearbeitungsmodell der Online-Enzyklopädie gründet auf der Überzeugung, dass Menschen über die Informationen in Wikipedia entscheiden sollten. Dabei orientieren sie sich an von Freiwilligen entwickelten Regeln hinsichtlich Neutralität und vertrauenswürdiger Quellen. Durch dieses Modell können Menschen, die das Wissen über und das Interesse für ein bestimmtes Thema haben, entscheiden, welche Inhalte in den entsprechenden Artikeln stehen dürfen. Außerdem ist die Moderation bei uns transparent und rechenschaftspflichtig: Alle Diskussionen zwischen Beitragenden sind auf der Plattform öffentlich einsehbar. Das System ist nicht perfekt, aber es ist überwiegend erfolgreich darin, Wikipedia zu einer globalen Quelle für neutrale und gesicherte Informationen zu machen.
Wikipedia zu zwingen, mehr wie eine kommerzielle Plattform mit einer Top-down-Hierarchie zu arbeiten, ohne Rechenschaftspflicht gegenüber Leser*innen und Beitragenden, würde die eigentlichen, dem öffentlichen Interesse verpflichteten Absichten des DSA untergraben, wenn unsere Communitys von wichtigen Entscheidungen über Inhalte ausgeschlossen werden.
Das Internet steht an einem Wendepunkt. Demokratie und das bürgerliche Umfeld sind in Europa und weltweit in Gefahr. Wir alle müssen jetzt mehr als je zuvor sorgfältig darüber nachdenken, wie neue Regeln eine Online-Umgebung fördern – und nicht behindern – können, die neue Formen von Kultur, Wissenschaft, Beteiligung und Wissen zulässt. Politiker*innen sollten sich mit Communitys des öffentlichen Interesses wie den unseren austauschen, um inklusivere, durchsetzbarere und effektivere Standards und Prinzipien zu entwickeln. Aber sie sollten keine Regeln einführen, die nur auf die mächtigsten kommerziellen Internetplattformen abzielen.
Amanda Keton ist General Counsel (Justiziarin) der Wikimedia Foundation. Christian Humborg ist Geschäftsführender Vorstand von Wikimedia Deutschland.
Dieser Beitrag erschien in englischer Version auf TechCrunch.
Kommentare sind geschlossen.