Update vom 28. Februar 2018: In einem Offenen Brief an die geschäftsführende Bundesregierung sowie an Europaabgeordnete aus Deutschland fordert Wikimedia Deutschland gemeinsam mit Vertreterinnen und Vertreter der Zivilgesellschaft, der Wirtschaft und der Internetkultur ein klares Bekenntnis zum Einsatz gegen die von der EU-Kommission geforderten automatisierten Filtersysteme für Online-Plattformen, die mit nutzergenerierten Inhalten arbeiten. Mehr dazu hier.
Upload-Filter, Overblocking, Value Gap – es sind keine alltagstauglichen Begriffe, mit denen die Debatte über den Vorstoß der EU-Kommission zur Urheberrechtsreform geführt wird. Wenn Netzpolitik auf juristische Fachdebatten trifft, ist das selten einladend.
Doch geht es hier um Grundrechte, um Meinungs- und Äußerungsfreiheit, und es geht um den Fortbestand eines Internets jenseits der Großkonzerne. Denn mit den von der Kommission vorgeschlagenen automatischen Filtern wird hier eine Maßnahme diskutiert, die die Grundfesten community-betriebener Plattformen wie Wikipedia angreift. Grund für uns, die Debatte in die Öffentlichkeit zu tragen.
In der ersten Ausgabe der Wikimedia-Veranstaltungsreihe „Monsters of Law” im Jahr 2018 diskutierte John Weitzmann, Leiter Politik und Recht bei Wikimedia Deutschland, unter dem Titel #NoUploadFilter – Die gefilterte Wikipedia? mit Vertreterinnen und Vertretern des Verbraucherschutzes, der Telekommunikationsbranche und der Gesellschaft zur Verfolgung von Urheberrechtsverletzungen (GVU) über die Konsequenzen der geplanten Einführung sogenannter Upload-Filter für community-getriebene Internet-Plattformen wie Wikipedia.
Der Hintergrund
Auf Initiative der EU-Kommission wird in der Europäischen Union eine Reform des Urheberrechts vorangetrieben. Es ist der erste solche Vorstoß seit 15 Jahren. Gesetzgeber haben sich lange gescheut, eine europäische Reform des Urheberrechts einzuleiten. Gefordert wird eine Modernisierung des Urheberrechts schon seit einiger Zeit sowohl von gemeinnützigen Organisationen wie Wikimedia, als auch von Seiten betroffener Rechteinhaber z. B. innerhalb der Musikbranche. Ein Gleichgewicht der verschiedenen Interessen zwischen Nutzenden, Rechteinhabern und Giganten der Internetwirtschaft wie YouTube und Facebook zu finden, stellt jedoch eine Herausforderung dar, an der der aktuelle Reformvorschlag bereits zu scheitern droht.
Zentraler Streitpunkt des Reformvorschlags ist die geplante Einführung von Upload-Filtern für alle Plattformen, auf denen nutzergenerierte Inhalte vorkommen. Automatisierte Filtersysteme sollen sämtliche Inhalte (ob Video, Text, Foto oder Meme, etc.) schon vor dem Hochladen auf potenzielle Rechtsverletzungen scannen und durch Abgleich mit einer Datenbank urheberrechtlich geschützten Materials vermutete illegitime Inhalte blockieren.
In Zeiten zunehmenden Unmuts gegenüber Großplattformen, die enorme Einkünfte generieren ohne zwingend auch die Verantwortung für etwaiges Fehlverhalten ihrer Nutzenden zu übernehmen, sehen die Befürworter der Reform neue technische Schranken als ein effizientes Mittel zur Beseitigung ungewollter Grauzonen. So mahnte Jan Scharringhausen von der GVU, das bisherige System des „notice and take down” (zu deutsch nachlaufender Rechtsschutz), also der nachträglichen, menschlichen Überprüfung einzig solcher Inhalte, die als potenziell rechtsverletzend markiert wurden, möge in Deutschland zwar funktionieren, in den globalen Netzwerken käme man als Rechteinhaber Verstößen aber aufgrund der schieren Masse an Daten nicht mehr hinterher. Die Europaabgeordnete Julia Reda hielt dagegen, teils berechtigte Vorbehalte gegenüber Plattformen wie YouTube und Facebook würden hier „in einen Topf geworfen” mit einer Reformdebatte, die Konsequenzen für die gesamte Bandbreite der Online-Plattformen birgt.
Vielfaltsverlust als Kollateralschaden?
Die ganze Veranstaltung zum Nachschauen:
Für John Weitzmann, Leiter Politik und Recht bei WMDE, ist die Einführung von Upload-Filtern „nicht verhältnismäßig” zu den Konsequenzen, die eine derartige „Umkehr der Beweislast” mit sich trüge. Auch Wikimedia sehe sich grundsätzlich auf Seiten der Rechteinhaber, zu denen auch die Freiwilligen der Wikimedia-Projekte gehören. Communitybasierte Projekte lebten aber von freiem Zugang und der Möglichkeit kollaborativ zu arbeiten. Derartige Filtersysteme mit Blockaderechten würde Nutzende zwingen, sich bereits „im Vorfeld für jede Äußerung zu rechtfertigen”. Der damit einhergehende „Kollateralschaden” in Hinblick auf europäische Grundrechte und das Potenzial für Missbrauch seien mit dem Zugewinn an Sicherheit für Rechteinhaber nicht zu rechtfertigen.
Auch Lina Ehrig, Leiterin Digitales und Medien im Verbraucherzentrale Bundesverband e. V., stellte die Verhältnismäßigkeit der Mittel „angesichts der durch sie drohenden Gefährdung der Meinungsfreiheit” in Frage. Der Abschreckungseffekt bei Nutzenden könnte zu einem “Vielfaltsverlust” führen, der gerade in Zeiten von Fake News besorgniserregend sei.
Weitzmann und Ehrig stellten in Frage, inwiefern derartige Filter in der Praxis überhaupt in der Lage seien, den Kontext eines Nutzerinhalts zu erkennen und rechtlich zu deuten. So häufen sich Reporte über fehlerhafte Blockierungen durch YouTubes freiwillig installiertes Scansystem „Content ID”, von angeblich urheberrechtlich geschütztem Vogelgezwitscher bis hin zu blockierten Aufnahmen von weißem Rauschen. Bitkom-Referentin Judith Steinbrecher warnte in diesem Kontext vor dem „wahnsinnigen Kostenaufwand”, den die Filter-Verpflichtung mit sich bringen würde. Google hat seit 2007 circa 60 Millionen Euro in die „Content ID”-Software investiert. „Kleinere Plattformen werden so etwas nicht händeln können”.
Blick nach Brüssel
Julia Reda warnte daher, die Pläne der EU-Kommission drohten, die insbesondere von kleinen Plattformen getriebene Innovation im Internet zu hemmen. Bedenken, die auch von Teilen der EU-Mitgliedsstaaten sowie des Parlaments geäußert wurden. Zwei beratende parlamentarische Ausschüsse haben sich bereits gegen die Einführung von Upload-Filtern ausgesprochen, für die letztliche EU-Parlamentsabstimmung ausschlaggebend ist jedoch vor allem das Votum des federführenden Rechtsausschusses. Dies ist nach mehrfachen Verzögerungen für März 2018 angesetzt.
Auf der Ebene der Mitgliedsstaaten zeichnet sich ebenfalls Uneinigkeit ab. Man schielt deshalb nicht zuletzt auf Entwicklungen hinsichtlich der deutschen Regierungsbildung.
Für Verbraucherzentrale Bundesverband (vzbv) und Wikimedia bedeutet dies, die Aufklärungsarbeit über Risiken der Upload-Filter geht weiter, in Brüssel und Berlin! So hat sich auch die Wikimedia Foundation in einem offenen Statement an EU
In unserem Blog informieren wir weiterhin regelmäßig über unsere Kampagnenarbeit und weitere Events im Jahr 2018.
Hier noch ein kleines ABC der Begrifflichkeiten:
Upload-Filter: Automatisierte Filterprogramme, die Inhalte während des Hochladens auf Internetplattformen durchleuchten und den Upload blockieren, wenn sie zum Ergebnis kommen, dass es sich um urheberrechtlich geschütztes Material handelt, das der jeweilige Nutzende nicht hochladen darf. Sie tun dies mithilfe eines Abgleichs des hochzuladenden Materials mit einer durch Rechteinhaber kuratierten Datenbank geschützter Inhalte.
„Notice and takedown”: Nach dem derzeit praktizierten “notice and takedown”-Grundsatz erfolgt eine Löschung nachträglich. Es gilt also: Grundsätzlich darf alles online erscheinen, es sei denn, es stellt sich nachträglich als rechtsverletzend heraus. Upload-Filter würden dies umkehren, Nutzer-Posts und Uploads würden blockiert, außer sie werden von automatisierten Systemen als rechtmäßige Nutzung eingestuft.
Overblocking: Im Fall der Reformdebatte befürchten Kritiker die Schaffung falscher Anreize für Großplattformen, eventuelle Strafen durch das exzessive Blockieren auch legitimer Inhalte zu umgehen.
Value gap: Die Differenz zwischen dem Einkommen, das Plattformen mit eingebetteten Inhalten durch Werbeverträge generieren, und der Vergütung der Rechteinhaber der Inhalte selbst.