Bild: getty images/watson kollage
Digital
Die Meinungsschlacht um die umstrittene EU-Urheberrechtsreform ist entschieden, Artikel 17, ehemals 13, kommt. Aber: Das Votum des EU-Parlaments lässt viel Gestaltungsspielraum offen. Und so steht noch nicht genau fest, welche Regeln
in Zukunft in Deutschland gelten sollen. Die CDU will die Richtlinie
ohne Uploadfilter umsetzen. Doch wie soll das funktionieren?
Fest steht: Nun rücken Fragen in den Mittelpunkt, die sich mit der konkreten Umsetzung der Reform beschäftigen. Wir haben die wichtigsten hier gesammelt.
Ist die Urheberrechtsreform bereits geltendes Recht?
Nein. Im Gegensatz zu einer EU-Verordnung muss eine Richtlinie von
den einzelnen EU-Staaten in nationales Recht umgesetzt werden. Für
diese Aufgabe haben sie zwei Jahre Zeit. Bevor die Richtlinie in
Kraft tritt, müssen die EU-Staaten dem nun vom Parlament gebilligten
Kompromiss aber noch einmal zustimmen. Dieses Votum wird
voraussichtlich am 9. April stattfinden.
Werden mit der Richtlinie nun tatsächlich Uploadfilter zur Pflicht?
Uploadfilter werden in der Richtlinie nicht explizit erwähnt. Doch
die meisten Experten gehen davon aus, dass Uploadfilter trotzdem
eingesetzt werden müssen, weil die Masse der hochgeladenen Inhalte
nicht manuell auf ihre Nutzungsrechte überprüft werden kann. Die CDU
hat allerdings schon vor der Abstimmung im EU-Parlament angekündigt,
die Richtlinie ohne Uploadfilter umsetzen zu wollen.
Keine Uploadfilter – wie soll das funktionieren?
Nach den Vorstellungen der CDU sollen geschützte Inhalte – "jedes
original Musikstück, Film oder Audiobook" – mit einem digitalen
Fingerabdruck versehen werden. Damit könne jedes Werk zweifelsfrei
identifiziert und dem Urheber zugeordnet werden.
Statt Filter also "Fingerabdruck" – damit sollen Uploadfilter überflüssig werden?
Auch nach dem Konzept der CDU muss es ein technisches System geben,
das einen Abgleich vornimmt, die Union nennt es aber nicht
"Uploadfilter". Der "Fingerabdruck" der Inhalte soll dem Konzept
zufolge bei den Plattform-Betreibern hinterlegt werden und sei
Voraussetzung dafür, dass Urheber für ihre Werke von den Plattformen
bezahlt werden können. "Oberhalb einer Bagatellgrenze würde der
Urheber von den Plattformen bei einem Upload eines nicht bereits
lizenzierten Inhalts informiert werden und hätte dann drei
Möglichkeiten:
- 1. Er verlangt die Löschung von der Plattform.
- 2. Er bietet eine Lizenz an und wird entsprechend vergütet.
- 3. Er verzichtet auf weitere Maßnahmen, wodurch der entsprechende Inhalt dauerhaft lizenzfrei auf der Plattform erscheinen kann."
Das Papier der CDU gibt aber bislang keine Auskunft darüber, was
passieren soll, wenn Urheber sich weigern, eine Lizenz zu vergeben
und sich nicht an dem "Fingerabdruck"-System beteiligen.
Sind solche Filter nicht schon bereits im Einsatz?
Ja. So hat Microsoft das System "PhotoDNA" entwickelt, mit dem
inzwischen etliche Provider sicherstellen, dass bekannte Fotos von
missbrauchten Kindern nicht ins Netz geladen werden können. Der
Google-Videodienst YouTube verwendet das System "Content ID", bei dem
Rechteinhaber ihre geschützten Inhalte für einen Abgleich
bereitstellen. "Content ID" vergleicht von YouTube-Usern hochgeladene
Videos mit diesen Referenzdateien. Die Rechteinhaber können selbst
entscheiden, ob sie den Upload zulassen, um dann die Werbeeinnahmen
zu erhalten oder das Video sperren. Facebook betreibt ein ähnlich
funktionierendes System.
Wo kommen Uploadfilter, so wie wir sie heute kennen, an ihre Grenzen?
Systeme wie "Content ID" und die entsprechenden Filter bei Facebook
erkennen unveränderte Musikvideos in der Regel sehr gut. Allerdings
kommt es auch immer wieder zu falschen Zuordnungen. So wurden in der
Vergangenheit immer wieder Videos gesperrt, in denen jemand
Klaviermusik von Johann Sebastian Bach spielt, weil die Rechte daran
fälschlicherweise Sony Music Global zugesprochen wurden. Dabei sind
die Stücke gemeinfrei.
Bislang eingesetzte Filter kommen auch dann an ihre Grenzen, wenn
plötzlich neue Anforderungen umgesetzt werden müssen. So hatten die
Systeme von YouTube und Facebook erhebliche Mühe, die Videoaufnahmen
des Attentäters von Christchurch zu blockieren, weil es etlichen
Nutzern gelang, die automatische Erkennung mit Veränderungen am Video
auszutricksen. Facebook konnte in den ersten 24 Stunden nach dem
Attentat zwar 1,2 Millionen Videos beim Hochladen stoppen,
hunderttausende Versionen wurden aber erst später erkannt und dann
gelöscht.
Sind von den Uploadfiltern vor allem die Internet-Riesen wie Google und Facebook betroffen?
Die Befürworter der Richtlinie haben immer wieder damit argumentiert,
es sei an der Zeit, große Internet-Konzerne stärker an der
Finanzierung der Inhalte zu beteiligen, von denen sie auch stark
profitieren. Daher zielt die Reform stark darauf, die
Rahmenbedingungen zu schaffen, um Google, Facebook und andere
Konzerne zur Kasse zu bitten.
Kritiker wie der Rechtsexperte Martin Kretschmer befürchten
allerdings, dass kleinere Plattformen viel härter getroffen werden
als die Netzgiganten. Für die Marktriesen sei es viel einfacher,
entsprechende Lizenzen zu erwerben als für die vielen kleinen
Dienste. In der Richtlinie werden zwar Anbieter von der Verpflichtung
befreit, deren Dienste seit weniger als drei Jahren zur Verfügung
stehen, weniger als zehn Millionen Euro Jahresumsatz machen und
weniger als fünf Millionen Nutzern haben. Es müssen allerdings alle
drei Bedingungen erfüllt sein, um bei der Haftungspflicht unter die
Ausnahme zu fallen.
Ein paar sind offenbar mausgerutscht...
(hau/dpa)