Warum der Digital Services Act verschiedene Modelle der Inhalte-Moderation ermöglichen muss
Der Digital Services Act (DSA) der EU soll einheitliche Regeln für die Moderation von rechtswidrigen Inhalten auf Online-Plattformen schaffen. Das Moderationsmodell der Wikipedia sieht jedoch vor, dass die Community selbst Verantwortung für die Moderation übernimmt. Das muss der DSA berücksichtigen.
Das Netz erleichtert den Zugang zu Wissen und Informationen und schafft neue Räume für den öffentlichen Austausch. Dadurch verbreiten sich aber auch potenziell schädliche und illegale Inhalte einfacher und schneller: Gewaltaufrufe, Hassrede oder auch unsichere Produkte können über Online-Plattformen in kurzer Zeit ein großes Publikum erreichen. Der deutsche Gesetzgeber und die EU arbeiten daher seit Jahren an neuen Regeln für Online-Netzwerke. Der Fokus lag dabei meist auf den großen kommerziellen Social-Media-Plattformen wie Facebook oder YouTube. So auch beim Netzwerkdurchsetzungsgesetz.
Im Dezember 2020 hat die EU-Kommission den Entwurf für eine grundsätzliche Neuordnung des Rechtsrahmens für Plattformen und die Moderation von Online-Inhalten vorgelegt: das Gesetz über digitale Dienste, besser bekannt als Digital Services Act (DSA). Auch das Europäische Parlament und der Rat haben sich zum Gesetzesvorhaben positioniert.
Viele der Neuerungen im DSA sind begrüßenswert. Regeln zum Umgang mit Hinweisen auf illegale Inhalte schaffen Klarheit für Nutzer*innen und Plattformbetreiber. Der Kommission ist der Spagat zwischen einem besseren Schutz vor illegalen Inhalten und dem Schutz der Meinungsfreiheit im Netz gelungen. Allerdings hatte die Kommission in ihrem Vorschlag Community-Projekte nicht berücksichtigt – Plattformen, auf denen Ehrenamtliche Inhalte erstellen und selbst moderieren, wie die Wikipedia. Gut, dass das Europäische Parlament jetzt nachgebessert hat.
Diesen und weitere Beiträge zum Digital Services Act jetzt nachlesen im Wikimedia-Politikbrief.
Community-Moderation: Worum geht’s?
In den kommerziellen sozialen Netzwerken entscheiden bezahlte Moderator*innen über das Löschen oder Sperren von Inhalten und Benutzerkonten. Oft unter Zeitdruck. An vielen Moderationsentscheidungen sind überhaupt keine Menschen beteiligt. Sie werden von automatisierten Filtern getroffen. Der Kontext einer Äußerung wird so kaum oder gar nicht berücksichtigt. Das führt dazu, dass auch von der Meinungsfreiheit geschützte Äußerungen gelöscht werden.
Auf gemeinschaftlich betriebenen Plattformen wie der Wikipedia hingegen werden alle inhaltlichen Entscheidungen von Ehrenamtlichen getroffen, oft erst nach gründlicher Diskussion. Es gehört zu den Grundprinzipien der Wikipedia, dass sich alle beteiligen dürfen und jeder Schritt für alle transparent dokumentiert wird.
Auch die meisten Moderationsentscheidungen werden von Ehrenamtlichen getroffen. Die Wikimedia Foundation, die Betreiberin der Wikipedia, bekam in der ersten Hälfte 2021 lediglich 296 Lösch- und Änderungsanfragen.1 Die großen kommerziellen Anbieter erhalten Abertausende Benachrichtigungen im Monat. Wir glauben, dass auch deshalb so wenige Beschwerden eingereicht werden, weil die Community problematische Äußerungen in Artikeln und auf Diskussionsseiten in aller Regel erkennt und schnell entfernt.2 Kurz: Das Moderationsmodell der Wikipedia, bei dem Nutzer*innen selbst Verantwortung für einen öffentlichen Raum übernehmen, funktioniert.
Endlich ein klarer gesetzlicher Rahmen für „Notice and Action“
Ein Grundpfeiler bei der Moderation von Online-Inhalten ist das Prinzip, dass Nutzende dem Plattformbetreiber Benachrichtigungen über rechtswidrige Tätigkeiten oder Informationen schicken können. Der Betreiber ist verpflichtet, diese Benachrichtigungen zu prüfen und die Inhalte gegebenenfalls zu sperren oder zu löschen. Wird der Betreiber trotz Kenntnis eines rechtswidrigen Inhalts nicht tätig, drohen Konsequenzen. Das sieht bereits die EU-Richtlinie über den elektronischen Geschäftsverkehr aus dem Jahr 2000 vor. Wie genau diese Prüfung vonstatten gehen muss und welche Rechte betroffene Nutzer*innen dabei haben, war aber nicht geregelt.
Durch den DSA soll die EU nun einen klareren gesetzlichen Rahmen für sogenannte „Notice and Action“-Verfahren bekommen. Das ist gut. Der Teufel steckt allerdings im Detail. Das Haftungsprivileg ist wichtig, um die Meinungsfreiheit im Netz zu garantieren. Droht dem Betreiber ab Hinweis der Verlust seines Haftungsprivilegs, schafft das Anreize, mehr Inhalte zu sperren als notwendig – auch grundrechtlich geschützte Inhalte. Es droht also ein sog. Overblocking. Ein Hinweis allein ist kein Beleg für einen rechtswidrigen Inhalt. Der Rahmen muss so gestaltet sein, dass Diensteanbieter Hinweise sorgfältig prüfen können – und in Community-Projekten wie der Wikipedia den Ehrenamtlichen genug Zeit gegeben wird, selbst zu moderieren.
Verpflichtung zur einheitlichen Anwendung von Verhaltensregeln
Der DSA sieht auch eine Verpflichtung für Anbieter vor, Nutzungsbedingungen und andere Verhaltensregeln einheitlich anzuwenden. Leisten sich also zwei Nutzer*innen einen ähnlichen Verstoß, muss auch das Moderationsverfahren zu einem ähnlichen Ergebnis kommen. Das ist eine begrüßenswerte Neuerung. Wichtig ist aber, dass dadurch die Möglichkeiten der eigenverantwortlichen Moderation durch Communitys nicht eingeschränkt werden.
Zum einen benötigen Ehrenamtliche, die Inhalte moderieren, Rechtssicherheit. Für engagierte Community-Mitglieder sollte davon ausgegangen werden, dass diese in guter Absicht handeln. Nur wenn sie das nachweislich nicht tun, sollten sie bei Fehlverhalten rechtliche Konsequenzen tragen. Zum anderen sollte der Betreiber nicht über die Umsetzung communityseitig beschlossener Regeln wachen müssen. Bürgerschaftliches Engagement funktioniert dann am besten, wenn Hauptamtliche sich möglichst wenig einmischen müssen.
Das Europäische Parlament hat in seiner Verhandlungsposition für den Trilog klargestellt, dass der Betreiber nur für die eigenen Nutzungsbedingungen verantwortlich ist, nicht für communityseitige Verhaltensregeln. Das ist eine notwendige Unterscheidung. Noch besser wäre es, Ehrenamtliche zu stärken und von guten Absichten auszugehen. Der Community-Ansatz ist eine positive Alternative zum Geschäftsmodell der großen kommerziellen Anbieter. Ein ziviler Umgangston und das Einhalten gesellschaftlicher Normen sind dort zu erwarten, wo Menschen Verantwortung übernehmen.
2 Eine Studie des Berkman Klein Center for Internet & Society der Harvard University bestätigt diesen Eindruck: “The researchers conclude that Wikipedia is largely successful at identifying and quickly removing a vast majority of harmful content despite the large scale of the project” (https://cyber.harvard.edu/publication/2019/content-and-conduct).
Hinterlasse einen Kommentar
Noch keine Kommentare
Hinterlasse einen Kommentar
Wir verwenden Cookies auf unserer Website, um Ihnen die beste Erfahrung zu bieten, indem wir Ihre Präferenzen speichern auch bei wiederholten Besuchen. Durch Klicken auf "Akzeptieren" stimmen Sie der Verwendung aller Cookies zu. Sie können jedoch die Cookie-Einstellungen aufrufen, um eine kontrollierte Einwilligung zu erteilen. Mehr Informationen finden Sie auch in unserer Datenschutzerklärung
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept”, you consent to the use of ALL the cookies. However you may visit Cookie Settings to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these cookies, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may have an effect on your browsing experience.
This cookie is set by GDPR Cookie Consent plugin. The purpose of this cookie is to check whether or not the user has given the consent to the usage of cookies under the category ‚Scripts'.
Um besser zu verstehen, was die Besucher/innen auf unseren Websites interessiert und ob diese sich dort zurechtfinden, setzen wir das Open-Source Analyse-Tool Matomo (vormals Piwik) ein. Dieses Tool setzt einen Cookie, um einzelne Nutzer/innen voneinander zu unterscheiden.
_pk_ses.2.b225
0
30 minutes
Um besser zu verstehen, was die Besucher/innen auf unseren Websites interessiert und ob diese sich dort zurechtfinden, setzen wir das Open-Source Analyse-Tool Matomo (vormals Piwik) ein. Dieses Tool setzt einen Cookie, um einzelne Nutzer/innen voneinander zu unterscheiden.
Dieses Cookie wird von Youtube gesetzt und registriert eine eindeutige ID zum Verfolgen von Benutzern basierend auf ihrem geografischen Standort
IDE
1
2 years
Wird von Google DoubleClick verwendet und speichert Informationen darüber, wie der Nutzer die Website und andere Werbung verwendet, bevor er die Website besucht. Dies wird verwendet, um Nutzern Anzeigen zu präsentieren, die für sie entsprechend dem Nutzerprofil relevant sind.
VISITOR_INFO1_LIVE
1
5 months
Dieser Cookie wird von Youtube gesetzt. Wird verwendet, um die Informationen der eingebetteten YouTube-Videos auf einer Website zu verfolgen.
vuid
0
2 years
Diese Cookies werden vom Vimeo-Videoplayer auf Websites verwendet.
YSC
1
Diese Cookies werden von Youtube gesetzt und dienen zum Verfolgen der Ansichten eingebetteter Videos.
Dieser Cookie-Name ist mit Funktionen zum Konvertieren einer Benutzer-IP-Adresse in einen geografischen Standortdatensatz verknüpft. Es wird am häufigsten verwendet, um einem Benutzer Inhalte basierend auf seinem Standort bereitzustellen.
Hinterlasse einen Kommentar
Noch keine Kommentare
Hinterlasse einen Kommentar