Warum der Digital Services Act verschiedene Modelle der Inhalte-Moderation ermöglichen muss

Der Digital Services Act (DSA) der EU soll einheitliche Regeln für die Moderation von rechtswidrigen Inhalten auf Online-Plattformen schaffen. Das Moderationsmodell der Wikipedia sieht jedoch vor, dass die Community selbst Verantwortung für die Moderation übernimmt. Das muss der DSA berücksichtigen.

  • Justus Dreyling
  • 22. März 2022

Das Netz erleichtert den Zugang zu Wissen und Informationen und schafft neue Räume für den öffentlichen Austausch. Dadurch verbreiten sich aber auch potenziell schädliche und illegale Inhalte einfacher und schneller: Gewaltaufrufe, Hassrede oder auch unsichere Produkte können über Online-Plattformen in kurzer Zeit ein großes Publikum erreichen. Der deutsche Gesetzgeber und die EU arbeiten daher seit Jahren an neuen Regeln für Online-Netzwerke. Der Fokus lag dabei meist auf den großen kommerziellen Social-Media-Plattformen wie Facebook oder YouTube. So auch beim Netzwerkdurchsetzungsgesetz.

Im Dezember 2020 hat die EU-Kommission den Entwurf für eine grundsätzliche Neuordnung des Rechtsrahmens für Plattformen und die Moderation von Online-Inhalten vorgelegt: das Gesetz über digitale Dienste, besser bekannt als Digital Services Act (DSA). Auch das Europäische Parlament und der Rat haben sich zum Gesetzesvorhaben positioniert.

Viele der Neuerungen im DSA sind begrüßenswert. Regeln zum Umgang mit Hinweisen auf illegale Inhalte schaffen Klarheit für Nutzer*innen und Plattformbetreiber. Der Kommission ist der Spagat zwischen einem besseren Schutz vor illegalen Inhalten und dem Schutz der Meinungsfreiheit im Netz gelungen. Allerdings hatte die Kommission in ihrem Vorschlag Community-Projekte nicht berücksichtigt – Plattformen, auf denen Ehrenamtliche Inhalte erstellen und selbst moderieren, wie die Wikipedia. Gut, dass das Europäische Parlament jetzt nachgebessert hat.

Diesen und weitere Beiträge zum Digital Services Act jetzt nachlesen im Wikimedia-Politikbrief.

Community-Moderation: Worum geht’s?

In den kommerziellen sozialen Netzwerken entscheiden bezahlte Moderator*innen über das Löschen oder Sperren von Inhalten und Benutzerkonten. Oft unter Zeitdruck. An vielen Moderationsentscheidungen sind überhaupt keine Menschen beteiligt. Sie werden von automatisierten Filtern getroffen. Der Kontext einer Äußerung wird so kaum oder gar nicht berücksichtigt. Das führt dazu, dass auch von der Meinungsfreiheit geschützte Äußerungen gelöscht werden.

Auf gemeinschaftlich betriebenen Plattformen wie der Wikipedia hingegen werden alle inhaltlichen Entscheidungen von Ehrenamtlichen getroffen, oft erst nach gründlicher Diskussion. Es gehört zu den Grundprinzipien der Wikipedia, dass sich alle beteiligen dürfen und jeder Schritt für alle transparent dokumentiert wird.

Auch die meisten Moderationsentscheidungen werden von Ehrenamtlichen getroffen. Die Wikimedia Foundation, die Betreiberin der Wikipedia, bekam in der ersten Hälfte 2021 lediglich 296 Lösch- und Änderungsanfragen.1 Die großen kommerziellen Anbieter erhalten Abertausende Benachrichtigungen im Monat. Wir glauben, dass auch deshalb so wenige Beschwerden eingereicht werden, weil die Community problematische Äußerungen in Artikeln und auf Diskussionsseiten in aller Regel erkennt und schnell entfernt.2 Kurz: Das Moderationsmodell der Wikipedia, bei dem Nutzer*innen selbst Verantwortung für einen öffentlichen Raum übernehmen, funktioniert.

Endlich ein klarer gesetzlicher Rahmen für „Notice and Action“

Ein Grundpfeiler bei der Moderation von Online-Inhalten ist das Prinzip, dass Nutzende dem Plattformbetreiber Benachrichtigungen über rechtswidrige Tätigkeiten oder Informationen schicken können. Der Betreiber ist verpflichtet, diese Benachrichtigungen zu prüfen und die Inhalte gegebenenfalls zu sperren oder zu löschen. Wird der Betreiber trotz Kenntnis eines rechtswidrigen Inhalts nicht tätig, drohen Konsequenzen. Das sieht bereits die EU-Richtlinie über den elektronischen Geschäftsverkehr aus dem Jahr 2000 vor. Wie genau diese Prüfung vonstatten gehen muss und welche Rechte betroffene Nutzer*innen dabei haben, war aber nicht geregelt.

Durch den DSA soll die EU nun einen klareren gesetzlichen Rahmen für sogenannte „Notice and Action“-Verfahren bekommen. Das ist gut. Der Teufel steckt allerdings im Detail. Das Haftungsprivileg ist wichtig, um die Meinungsfreiheit im Netz zu garantieren. Droht dem Betreiber ab Hinweis der Verlust seines Haftungsprivilegs, schafft das Anreize, mehr Inhalte zu sperren als notwendig – auch grundrechtlich geschützte Inhalte. Es droht also ein sog. Overblocking. Ein Hinweis allein ist kein Beleg für einen rechtswidrigen Inhalt. Der Rahmen muss so gestaltet sein, dass Diensteanbieter Hinweise sorgfältig prüfen können – und in Community-Projekten wie der Wikipedia den Ehrenamtlichen genug Zeit gegeben wird, selbst zu moderieren.

Verpflichtung zur einheitlichen Anwendung von Verhaltensregeln

Der DSA sieht auch eine Verpflichtung für Anbieter vor, Nutzungsbedingungen und andere Verhaltensregeln einheitlich anzuwenden. Leisten sich also zwei Nutzer*innen einen ähnlichen Verstoß, muss auch das Moderationsverfahren zu einem ähnlichen Ergebnis kommen. Das ist eine begrüßenswerte Neuerung. Wichtig ist aber, dass dadurch die Möglichkeiten der eigenverantwortlichen Moderation durch Communitys nicht eingeschränkt werden.

Zum einen benötigen Ehrenamtliche, die Inhalte moderieren, Rechtssicherheit. Für engagierte Community-Mitglieder sollte davon ausgegangen werden, dass diese in guter Absicht handeln. Nur wenn sie das nachweislich nicht tun, sollten sie bei Fehlverhalten rechtliche Konsequenzen tragen. Zum anderen sollte der Betreiber nicht über die Umsetzung communityseitig beschlossener Regeln wachen müssen. Bürgerschaftliches Engagement funktioniert dann am besten, wenn Hauptamtliche sich möglichst wenig einmischen müssen.

Das Europäische Parlament hat in seiner Verhandlungsposition für den Trilog klargestellt, dass der Betreiber nur für die eigenen Nutzungsbedingungen verantwortlich ist, nicht für communityseitige Verhaltensregeln. Das ist eine notwendige Unterscheidung. Noch besser wäre es, Ehrenamtliche zu stärken und von guten Absichten auszugehen. Der Community-Ansatz ist eine positive Alternative zum Geschäftsmodell der großen kommerziellen Anbieter. Ein ziviler Umgangston und das Einhalten gesellschaftlicher Normen sind dort zu erwarten, wo Menschen Verantwortung übernehmen.

1 https://wikimediafoundation.org/about/transparency/2021-1/requests-for-content-alteration-and-takedown/ und https://wikimediafoundation.org/about/transparency/2021-1/dmca-takedown-notices/

2 Eine Studie des Berkman Klein Center for Internet & Society der Harvard University bestätigt diesen Eindruck: “The researchers conclude that Wikipedia is largely successful at identifying and quickly removing a vast majority of harmful content despite the large scale of the project” (https://cyber.harvard.edu/publication/2019/content-and-conduct).