Filtertüten-Verteilaktion beim SPD-Parteitag am 7.12.2017. Foto: Christian Schneider, CC BY-SA 4.0

Update: Wikimedia Deutschland hat ein Info-Papier zu Upload-Filtern zusammengestellt:
Infosheet #Nouploadfilter – Die gefilterte Wikipedia.


Auf Initiative der EU-Kommission wird in der Europäischen Union eine Reform des Urheberrechts vorangetrieben. Ein Knackpunkt ist die geplante Einführung so genannter Uploadfilter für alle Plattformen, die auf nutzergenerierten Inhalten beruhen. Sollten sie EU-weit vorgeschrieben werden, können auf communitygetriebene Projekte wie die Wikipedia große Probleme zukommen.

Zuletzt berichteten verschiedene Medien (u.a. hier), dass Wikipedia von Uploadfiltern existenziell bedroht sei. Wir beleuchten im Folgenden den Hintergrund der geplanten Regelung – und möchten gemeinsam weiterdiskutieren.

Was sind Uploadfilter und was sollen sie tun?

Uploadfilter können hochgeladene Dateien durchleuchten und den Upload blockieren, wenn sie zum Ergebnis kommen, dass es sich um urheberrechtlich geschütztes Material handelt. Sie tun dies mithilfe einer automatischen Erkennungssoftware durch einen Abgleich von Ähnlichkeit mit einer Datenbank. Urheberrechtlich geschützte Werke sollen so schlicht nicht mehr hochgeladen werden können.

Aber: Gesetzlich gibt es viele Fälle, in denen Material trotz Urheberrechtsschutz genutzt werden darf, z. B. als Parodie, im Rahmen von Zitaten und weiteren Fällen. Und oft ist ohne gerichtliche Prüfung auch nicht eindeutig zu sagen, ob eine Nutzung erlaubt ist oder nicht, denn abstrakte rechtliche Regeln müssen auf eine komplexe Wirklichkeit angewendet werden. Filter würden all diese Fälle im Zweifel schon beim Upload ausbremsen und die Nutzenden müssten über Beschwerden jeweils einzeln versuchen, ihr Nutzungsrecht zu belegen.

Publikum bei „Monsters of Law – Die juristische Veranstaltungsreihe rund um Freies Wissen“. Foto: Katja Ullrich (WMDE), CC BY-SA 3.0

Bisher gilt das Flagging-Prinzip. Das heißt: Wenn ein Werk von einer Nutzerin oder einem Nutzer unrechtmäßig eingestellt wurde, wird der Betreiber informiert. Entfernt er oder sie das Werk dann nicht umgehend, ist er oder sie haftbar zu machen.

Einen Uploadfilter einzustellen bedeutet großen technischen Aufwand. Das heißt auch: Es wird teuer. Viele Projekte müssten daher wahrscheinlich in die Knie gehen – oder den Grafikupload ganz abstellen. Es gibt auch rechtmäßige Verwendungsmöglichkeiten von urheberrechtlich geschützten Werken – im Rahmen eines Zitats, einer Besprechung oder auch Berichterstattung zum Beispiel. Das kann ein Filter nicht ohne weiteres erkennen. Er verhindert sie einfach.

Community kann Kontext. Filter nicht.

Für die Wikipedia kann das heißen, dass Autorinnen und Autoren mit großen Hindernissen zu kämpfen hätten. Die Wikipedia-Community müsste Filter installieren, die sie nicht will. Sie müsste Autorinnen und Autoren vorab kontrollieren, was sie noch weniger will.

Die Wikipedia-Community selbst ist der beste Schutz vor Rechtsverletzungen, wie sie seit 2001 unter Beweis stellt. Menschen sind bei Abwägungen schlicht besser als Maschinen. Menschen können den Kontext erkennen, sie können argumentieren und differenzierte Entscheidungen treffen. So können Rechteinhaberinnen und -inhaber ihre Interessen durchsetzen, ohne dass Maschinen den Upload von vornherein abwürgen.

Wird gerade die Büchse der Pandora geöffnet?

Schon heute wird das Urheberrecht oft dazu missbraucht, anderweitig störende Inhalte aus dem Netz zu bekommen. Uploadfilter würden das so vereinfachen, dass man dann wirklich von einem “Zensurheberrecht” sprechen müsste. Sind Uploadfilter erst einmal für alle Online-Plattformen vorgeschrieben, sind auch weitere Rechtsbereiche jenseits des Urheberrechts denkbar, für die sie eingesetzt werden könnten, Stichwort: Salamitaktik.

Wir brauchen keine Uploadfilter, sondern für möglichst viele Online-Plattformen verantwortungsvolle, aktive Communitys, die den Kontext einer Nutzung bewerten, etwaigen Missbrauch einhegen und “schwarze Schafe” aktiv bekämpfen können. Ein lebendiges Netzwerk sorgt selbst für fairen Umgang miteinander. Ein Zwang zu Uploadfiltern dagegen ist eine Gefahr nicht nur für ungehinderte Aushandlung und Verbreitung von Freiem Wissen, sondern beim Blick auf das Netz insgesamt für die Meinungsäußerungsfreiheit einer digital erschlossenen Gesellschaft.

Darum setzt sich Wikimedia Deutschland für eine Streichung des Artikels 13 aus dem Vorschlag für eine neue Urheberrechtsrichtline ein.

„Monsters of Law – Die gefilterte Wikipedia?“ am 9.1.2018

In der ersten Ausgabe der juristischen Wikimedia-Veranstaltungsreihe „Monsters of Law” im Jahr 2018 wurde unter dem Titel „#NoUploadFilter – Die gefilterte Wikipedia?“ über die Konsequenzen der geplanten Einführung sogenannter Upload-Filter für communitygetriebene Internet-Plattformen wie Wikipedia diskutiert.

Zu Gast waren:

  • Lina Ehrig, Leiterin Team Digitales und Medien, Verbraucherzentrale Bundesverband e.V.
  • Judith Steinbrecher, Bereichsleiterin Gewerblicher Rechtsschutz & Urheberrecht, Bitkom e.V.
  • Jan Scharringhausen, Geschäftsführer Gesellschaft zur Verfolgung von Urheberrechtsverletzungen
  • Julia Reda, Europaabgeordnete der Piratenpartei (per Schalte aus Brüssel)
  • John Weitzmann, Leiter Politik und Recht, Wikimedia Deutschland e. V.

Hier das vollständige Video der Veranstaltung:

 

Kurzinterview Lina Ehrig, Leiterin Team Digitales, Verbraucherzentrale Bundesverband:

 

Kurzinterview Judith Steinbrecher, Bereichsleiterin Gewerblicher Rechtsschutz & Urheberrecht, Bitkom e.V.:

 

John Weitzmann, Syndikus und Leiter Politik & Recht bei Wikimedia Deutschland e. V., über Vorfilterung durch Algorithmen:

 

John Weitzmann, Syndikus und Leiter Politik & Recht bei Wikimedia Deutschland e. V., über Beweislastumkehr durch Upload-Filter: