[...] Twitter weiterhin möglich ist, auch mit einem kurzen Teaser versehen – und selbstverständlich auch in Wikipedia und bei den kommerziellen Weiterverwertern. Die Online-Nutzung von „Inhalten“ einschließlich Pressetexten hat eine so große Bedeutung [...]
Die Auslistung und das Operieren mit robots.txt nehmen in der letzten Zeit zu. Ich finde für die Artikelarbeit immer weniger über Google News. Zeitungsarchive sind auch oft nur noch auf der jeweiligen Website durchsuchbar, Artikel werden dann nur noch gegen Bezahlung angeboten.
Wir könnten dagegen vorgehen, indem wir Links zu kommerziellen Anbietern schrittweise aus Wikipedia löschen und nur noch nicht-kommerzielle Plattformen einschließlich der Blogs verlinken. Ich könnte mir überhaupt vorstellen, daß die Zivilgesellschaft sich ihre eigenen Informationskanäle schaffen wird und die Verlage dadurch am Ende ganz außen vor bleiben. Ihre Lobbyisten haben dann dafür gesorgt, daß sie sich selbst vom gesellschaftlichen Diskurs und von der politischen Meinungsbildung ausschließen.
Es wäre für die Verlage auch technisch kein Problem Deeplinks zu verhindern. Oder sich ganz aus Suchmaschinen auslisten zu lassen. Im Zweifelsfall ließe es sich auch verhindern, dass Artikel über Facebook geshart werden können.
Richtig bitter wird es, wenn man etwa Facebook-Likebuttons auf der eigenen Seite einbindet. Beim Klick auf den Button bindet Facebook dann automatisch den Artikel mit einem kleinen Teaser auf der eigenen Wall ein - und damit ist der Nutzer dann abmahngefährdet.
@Christian Hartmann - Natürlich könnten sich die Verlage bei GoogleNews einfach auslisten lassen, indem sie eine Datei mit dem Namen robots.txt auf dem Werbserver hinterlegen und folgenden Inhalt hineinschreiben: User-agent: * Disallow: /
Siehe dazu auch: http://support.google.com/webmasters/bin/answer.py?hl=de&answer=156449
Insofern ist das Argument, man wolle mit einer gesetzlichen Regelung endlich faire Ausgangsbedingungen zwischen Verlagsindustrie und Internetwirtschaft schaffen, tatsächlich fadenscheinig. Es geht schlicht um einen Revenue Share, für den der Staat von Springer zu Hilfe gerufen wurde. Vor allem BDI und Bitkom haben auf diese versteckte Subvention wiederholt kritisch hingewiesen.
Ein verstehe ich nicht: Warum stelle Verlage dann ihre Artikel für alle allgemein verfügbar ins Netz, wollen dann Geld für den Abruf haben und etablieren selbst keine geeigneten Massnahmen, sondern nutzen das Gesetz als Inkassoinstitut.
@Michael Good Point, aber: Die haftungsrechtliche Konstellation verkompliziert m.E. das Problem eher, als es zu dessen Lösung beitragen würde. Wir werden uns bemühen, auch diesen Aspekt in einer erweiterten öffentlichen Stellungnahme aufzunehmen.
Ein sehr guter Beitrag, der die Probleme des LSR aufzeigt. Ich habe nur eine Frage: Die Wikipedia ist ja in der sehr komfortablen Situation, dass sie eben von einem US-Verein in den USA gehostet wird und sich eigentlich um solche beknackten deutschen Gesetze keine Sorgen machen müsste, oder?
Hinzu kommt noch, dass ja nicht die Wikipedia als Ganzes Anspruchsgegnerin eines Leistungsschutzrechts wäre, sondern die individuelle Autorin. Und diese kann ja sehr wohl hier in Deutschland sitzen.
Wir verwenden Cookies auf unserer Website, um Ihnen die beste Erfahrung zu bieten, indem wir Ihre Präferenzen speichern auch bei wiederholten Besuchen. Durch Klicken auf "Akzeptieren" stimmen Sie der Verwendung aller Cookies zu. Sie können jedoch die Cookie-Einstellungen aufrufen, um eine kontrollierte Einwilligung zu erteilen. Mehr Informationen finden Sie auch in unserer Datenschutzerklärung
Diese Website verwendet Cookies, um Ihre Erfahrung zu verbessern, während Sie durch die Website navigieren. Von diesen Cookies werden die Cookies, die nach Bedarf kategorisiert werden, in Ihrem Browser gespeichert, da sie für das Funktionieren der grundlegenden Funktionen der Website wesentlich sind. Wir verwenden auch Cookies von Drittanbietern, mit denen wir analysieren und verstehen können, wie Sie diese Website nutzen. Diese Cookies werden nur mit Ihrer Zustimmung in Ihrem Browser gespeichert. Sie haben auch die Möglichkeit, diese Cookies zu deaktivieren. Das Deaktivieren einiger dieser Cookies kann sich jedoch auf Ihre Browser-Erfahrung auswirken.
Diese Website benutzt den Open Source Webanalysedienst Matomo zur statistischen Analyse der Website-Nutzung.
Wir verwenden zudem die Matomo-Funktion „Heatmaps“, welche Bewegungen des Mauszeigers und Interaktionen mit Elementen analysiert und so besonders nützliche Informationen zur Nutzung der Seite liefert.
[...] Wikimedia: https://blog.wikimedia.de/2012/06/15/wikipedia-bequellen-nur-mit-leistungsschutzgeld/ [...]
[...] Wikipedia bequellen: nur mit Leistungsschutzgeld © [...]
[...] Twitter weiterhin möglich ist, auch mit einem kurzen Teaser versehen – und selbstverständlich auch in Wikipedia und bei den kommerziellen Weiterverwertern. Die Online-Nutzung von „Inhalten“ einschließlich Pressetexten hat eine so große Bedeutung [...]
[...] dieser Irrsinn bedeutet, haben andere schon ausführlich aufgeschrieben. Die spannende Frage: was passiert [...]
Die Auslistung und das Operieren mit robots.txt nehmen in der letzten Zeit zu. Ich finde für die Artikelarbeit immer weniger über Google News. Zeitungsarchive sind auch oft nur noch auf der jeweiligen Website durchsuchbar, Artikel werden dann nur noch gegen Bezahlung angeboten. Wir könnten dagegen vorgehen, indem wir Links zu kommerziellen Anbietern schrittweise aus Wikipedia löschen und nur noch nicht-kommerzielle Plattformen einschließlich der Blogs verlinken. Ich könnte mir überhaupt vorstellen, daß die Zivilgesellschaft sich ihre eigenen Informationskanäle schaffen wird und die Verlage dadurch am Ende ganz außen vor bleiben. Ihre Lobbyisten haben dann dafür gesorgt, daß sie sich selbst vom gesellschaftlichen Diskurs und von der politischen Meinungsbildung ausschließen.
Es wäre für die Verlage auch technisch kein Problem Deeplinks zu verhindern. Oder sich ganz aus Suchmaschinen auslisten zu lassen. Im Zweifelsfall ließe es sich auch verhindern, dass Artikel über Facebook geshart werden können. Richtig bitter wird es, wenn man etwa Facebook-Likebuttons auf der eigenen Seite einbindet. Beim Klick auf den Button bindet Facebook dann automatisch den Artikel mit einem kleinen Teaser auf der eigenen Wall ein - und damit ist der Nutzer dann abmahngefährdet.
@Christian Hartmann - Natürlich könnten sich die Verlage bei GoogleNews einfach auslisten lassen, indem sie eine Datei mit dem Namen robots.txt auf dem Werbserver hinterlegen und folgenden Inhalt hineinschreiben: User-agent: * Disallow: / Siehe dazu auch: http://support.google.com/webmasters/bin/answer.py?hl=de&answer=156449 Insofern ist das Argument, man wolle mit einer gesetzlichen Regelung endlich faire Ausgangsbedingungen zwischen Verlagsindustrie und Internetwirtschaft schaffen, tatsächlich fadenscheinig. Es geht schlicht um einen Revenue Share, für den der Staat von Springer zu Hilfe gerufen wurde. Vor allem BDI und Bitkom haben auf diese versteckte Subvention wiederholt kritisch hingewiesen.
Ein verstehe ich nicht: Warum stelle Verlage dann ihre Artikel für alle allgemein verfügbar ins Netz, wollen dann Geld für den Abruf haben und etablieren selbst keine geeigneten Massnahmen, sondern nutzen das Gesetz als Inkassoinstitut.
@Michael Good Point, aber: Die haftungsrechtliche Konstellation verkompliziert m.E. das Problem eher, als es zu dessen Lösung beitragen würde. Wir werden uns bemühen, auch diesen Aspekt in einer erweiterten öffentlichen Stellungnahme aufzunehmen.
Ein sehr guter Beitrag, der die Probleme des LSR aufzeigt. Ich habe nur eine Frage: Die Wikipedia ist ja in der sehr komfortablen Situation, dass sie eben von einem US-Verein in den USA gehostet wird und sich eigentlich um solche beknackten deutschen Gesetze keine Sorgen machen müsste, oder?
Hinzu kommt noch, dass ja nicht die Wikipedia als Ganzes Anspruchsgegnerin eines Leistungsschutzrechts wäre, sondern die individuelle Autorin. Und diese kann ja sehr wohl hier in Deutschland sitzen.