Upload-Filter

Aus AnthroWiki
Die druckbare Version wird nicht mehr unterstützt und kann Darstellungsfehler aufweisen. Bitte aktualisiere deine Browser-Lesezeichen und verwende stattdessen die Standard-Druckfunktion des Browsers.

Als Upload-Filter wird eine serverseitige Software bezeichnet, welche Medien und Dateien beim Hochladen prüft, gegebenenfalls abweist, verändert oder sonstige Maßnahmen initiiert. Maschinelle Datenverarbeitung soll hierbei eine inhaltliche Prüfung durch Menschen ersetzen. Besondere Bedeutung haben solche Filter für öffentlich zugängliche Dienste, wenn diese Inhalte anderer Benutzer Dritten zugänglich machen oder vollständig veröffentlichen, beispielsweise soziale Medien oder Videoportale. Upload-Filter können zum Beispiel eingesetzt werden, um zu verhindern, dass Rechtsgüter wie das Urheberrecht oder das Persönlichkeitsrecht verletzt werden. Andere Filter lassen nur bestimmte Dateiarten zu, oder beschränken die Größe einer Datei. Außerdem dienen sie der Rationalisierung von Arbeitsprozessen und können manuell prüfende Arbeitnehmer vor psychischer Belastung schützen.

Für Upload-Filter kommen Techniken der automatisierten Bild-, Sprach- und Texterkennung zum Einsatz. Das Erkennen von Kopien gelingt damit sehr gut, doch bei komplexeren Anforderungen, etwa bei veränderten Kopien, ist die Zuverlässigkeit der Erkennung mitunter umstritten.[1] Kritiker warnen vor der Gefahr des Overblocking, wenn Ausnahmen und Sonderfälle nicht zuverlässig als solche erkannt werden können.

Einsatz und Technik

Beim Upload von Dateien können Dateieigenschaften wie Dateiformat und Dateigröße limitiert sein. Zur Programmierung gibt es in der Regel vorgefertigten Code, wobei der so aussieht, dass die Datei, wenn sie nicht den Vorgaben entspricht, geblockt wird. Bei inhaltlichen Restriktionen von Dateien ist die Umsetzung in Programmcode meist schwierig und der technische Aufwand kann erheblich sein. Eine mögliche Umsetzung in ein Computerprogramm könnte so aussehen: Bestimmte Merkmale des Inhalts der Datei werden herausgearbeitet und anhand dieser Merkmale wird entschieden, ob die Datei noch innerhalb der Restriktionen ist und geladen werden darf. Dies funktioniert allerdings nicht fehlerfrei und wenn das zu Problemen mit den Anwendern führen würde, dann muss das Programm es möglich machen die Entscheidung manuell abzuändern. Im besten Falle in beide Richtungen.

Manche Anbieter setzen Upload-Filter ein, die Urheberrechtsverletzungen erkennen sollen. Stand der Technik (2019) für diesen Anwendungsfall ist ein einfacher Mustervergleich, wohingegen Methoden der künstlichen Intelligenz nicht eingesetzt werden. Für diesen Mustervergleich verwendet man typischerweise einen digitalen Fingerabdruck (z. B. den akustischen Fingerabdruck bei Musik) und gleicht dann den Fingerabdruck neu hochgeladener Inhalte mit den in einer Datenbank gespeicherten Fingerabdrücken ab.[2] Das Content-ID-System von YouTube setzt derartige Upload-Filter ein.

Bei PhotoDNA handelt es sich um eine von Microsoft zusammen mit der Universität Dartmouth entwickelte Technik, welche speziell dazu entwickelt wurde, den Behörden bekanntes kinderpornographisches Material wiederzuerkennen und dieses auch abzuweisen. Für den Abgleich von Aufnahmen werden digitale Fingerabdrücke basierend auf robusten Merkmalen wie Farbverläufen und Kanten erstellt und verglichen.[3] Eingesetzt wird diese Technik auch von anderen Anbietern als Microsoft.

Der Konzern Facebook setzt Upload-Filter zum Identifizieren von Rachepornos ein. Hierbei setzt der Konzern einerseits auf einen Abgleich von digitalen Fingerabdrücken, wodurch Betroffene das Foto an Facebook übermitteln müssen und woraus dann der Fingerabdruck berechnet wird. Zusätzlich kommen Algorithmen aus dem Bereich des maschinellen Lernens zum Einsatz, die auch unbekannte Aufnahmen erkennen sollen.[4]

Darüber hinaus wurden Upload-Filter als Methode zum Filtern extremistischer Inhalte ins Gespräch gebracht.[5]

Rechtliche und politische Lage

Vorlage:Staatslastig Anfang 2012 entschied der Europäische Gerichtshof, dass soziale Netzwerke nicht dazu verpflichtet sind, mittels automatisierter Upload-Filter die Beiträge der Nutzer auf Urheberrechtsverletzungen zu kontrollieren. Das Gericht begründete dies zum einen mit dem Verbot einer allgemeinen Überwachungspflicht. Zum anderen beeinträchtige dies die unternehmerische Freiheit, da teure und komplizierte Informatiksysteme dafür notwendig seien. Geklagt hatte eine Verwertungsgesellschaft gegen das soziale Netzwerk Netlog.[6]

Seit längerer Zeit plant die EU, das Urheberrecht dem Internet und digitalen Binnenmarkt anzupassen und dafür de facto auch den Einsatz von Upload-Filtern zur Verhinderung von Urheberrechtsverletzungen rechtlich vorzuschreiben. Dazu ist eine neue Richtlinie geplant, die Richtlinie des Europäischen Parlaments und des Rates über das Urheberrecht im digitalen Binnenmarkt. Sie wurde am 26. März 2019 im Europäischen Parlament verabschiedet.

Ob der Einsatz von Upload-Filtern zur Verhinderung von Urheberrechtsverletzungen vorgeschrieben werden sollte, ist jedoch umstritten. Aufgrund der Komplexität der Technologie und der Vielzahl möglicher Rechteinhaber warnt Ulrich Kelber in seiner Funktion als Bundesbeauftragter für den Datenschutz und die Informationsfreiheit vor der Entstehung technischer Oligopole, da die damit verbundenen hohen Entwicklungskosten dazu führen würden, dass viele Datenbewegungen über die Filterinfrastruktur weniger Anbieter geleitet werden würden.[7] Der Koalitionsvertrag der 24. Bundesregierung der Bundesrepublik Deutschland (Kabinett Merkel IV) lehnt die verpflichtende Einführung von Upload-Filtern aus urheberrechtlichen Gründen als unverhältnismäßig ab.[8] Den Internetpionieren Tim Berners-Lee und Vint Cerf zufolge könnten verpflichtende Upload-Filter dieser Art dem freien Internet großen Schaden zuführen.[9]

Vor- und Nachteile

Rationalisierung und Arbeitsschutz

Durch den Einsatz von Software kann der Personal- und Zeitaufwand durch menschliche Überprüfung erheblich gesenkt werden und durch eine Automatisierung effizienter gelöst werden. So konnte zum Beispiel YouTube die Arbeit von Moderatoren durch entsprechende Software ersetzen. Weiterhin können Mitarbeiter vor mental schädigenden Inhalten geschützt werden, da diese den Großteil der (für die Software) offenkundig unerwünschten Inhalten gar nicht erst zu Gesicht bekommen müssen.

Internetzensur und Einschränkung der Freiheit

Nach Ansicht einiger Kritiker können solche Filter genutzt werden, um Internetzensur zu betreiben und zum Beispiel Inhalte, die gegen eine bestimmte Meinung verstoßen, bereits vorher zu sperren und damit das Recht auf Meinungs- und Pressefreiheit erheblich einzuschränken. Hierbei fällt auch der Begriff der maschinellen Zensur.[10]

Fehleranfälligkeit

Der Abgleich zweier Inhalte, um zu erkennen, ob der eine Inhalt eine Kopie des anderen ist, funktioniert mit digitalen Fingerabdrücken sehr gut.[1] Beispielsweise wird PhotoDNA eine vergleichsweise hohe Zuverlässigkeit zugeschrieben.[11]

An ihre Grenzen stoßen Algorithmen jedoch, wenn es sich um bearbeitete oder manipulierte Daten handelt.[1]

Schwierig wird es, wenn der Kontext mit einbezogen werden muss. Dies ist nicht bei allen Einsatzgebieten der Fall. Der Haupteinsatzgebiet von PhotoDNA ist beispielsweise die Wiedererkennung kinderpornographischen Materials, welches in jedem Kontext illegal ist.[11] Anders sieht es bei der Erkennung von Urheberrechtsverletzungen aus. Hier muss dasselbe Material je nach Kontext unterschiedlich bewertet werden, um unter anderem erlaubte Parodien und Zitate von nicht erlaubten Urheberrechtsverletzungen abzugrenzen. Hierfür sind Methoden der künstlichen Intelligenz erforderlich, welche jedoch noch nicht ausgereift für diesen Einsatzzweck sind.[1] Die zuverlässige automatische Einordnung solcher Fälle wird daher von Florian Gallwitz, Professor für Medieninformatik, als derzeit nicht möglich angesehen, sodass es bei diesem Einsatzgebiet unausweichlich zu unerwünschten Begleiterscheinungen wie Overblocking komme.[2]

Viele Webvideoproduzenten auf YouTube und anderen Plattformen kritisieren beispielsweise eine falsche Einstufung ihrer Inhalte durch Uploadfilter. Zum Beispiel kann über eine Sperrung der Werbeeinnahmen oder von einzelnen Videos durch einen Uploadfilter dafür gesorgt werden, dass Videos, die sich auf kritische Themen beziehen und diese sachlich oder unterhaltsam behandeln, ohne dabei Rechtsverletzungen zu begehen, allein aufgrund des Inhaltes und bestimmter schematischer Merkmale des Filters als nicht werbefreundlich oder sogar als Rechtsverletzung eingestuft werden und deswegen gesperrt werden. Auch sei es sehr fraglich, einzelne Wörter in einem Video aus dem Kontext herauszuziehen, indem man zum Beispiel eine gespielte Beleidigung als Hass wertet. Damit werde die Kunstfreiheit zum Beispiel bei Satire erheblich eingeschränkt.[12][13]

Manche Upload-Filter sollen jedoch nicht nur bekanntes Material wiedererkennen, sondern auch neue Inhalte basierend auf maschinellem Lernen klassifizieren können, wie beispielsweise die bei Facebook im Einsatz befindlichen Upload-Filter. Hierbei kommt es jedoch immer wieder zu Falscheinstufungen. Um zu erwartenden Fehlerkennungen bei diesem Ansatz entgegenzuwirken, unterzieht Facebook Aufnahmen zusätzlich der manuellen Prüfung.[4]

Weblinks

Siehe auch

Einzelnachweise

  1. 1,0 1,1 1,2 1,3 so Dr.-Ing. Frank Pallas, TU Berlin, im Deutschlandfunk: Jan Rähm: Uploadfilter. Warum Kritiker Angst vor Zensur haben. 9. März 2019, abgerufen am 22. März 2019 (Viele technische Details nebst knapper Geschichte).
  2. 2,0 2,1 Prof. Dr. Florian Gallwitz, Professor für Medieninformatik, Technische Hochschule Nürnberg Georg Simon Ohm: EU-Urheberrechtsreform: Experten zu Upload-Filtern. Zur Frage, wie zuverlässig Upload-Filter in schwierigen Fällen, wie bei der Beurteilung satirischer Beiträge, wären. 8. März 2019, abgerufen am 13. März 2019 (rezipiert von Deutsche Welle: Memes could be filtered out by EU copyright law, 13. März 2019).
  3. PhotoDNA: Step-by-step. Microsoft, 21. September 2013, archiviert vom Original; abgerufen am 14. März 2019 (english).
  4. 4,0 4,1 heise online: Upload-Filter: Facebook und Instagram löschen Rachepornos automatisch. Abgerufen am 17. März 2019.
  5.  Kommentar von Simon Hurtz: Dieser Kompromiss gefährdet das freie Netz. In: sueddeutsche.de. 13. Februar 2019, ISSN 0174-4917 (https://www.sueddeutsche.de/digital/uploadfilter-ergebnis-eu-urheberrecht-1.4329775).
  6.  EuGH stoppt Upload-Filter für soziale Netzwerke. In: sueddeutsche.de. 16. Februar 2012, ISSN 0174-4917 (https://www.sueddeutsche.de/digital/gerichtsurteil-eugh-stoppt-upload-filter-fuer-soziale-netzwerke-1.1285690).
  7. Bundesbeauftragter für den Datenschutz und die Informationsfreiheit, Reform des Urheberrechts birgt auch datenschutzrechtliche Risiken, Bonn/Berlin 26. Februar 2019 (Pressemitteilung online)
  8. Regierungskoalition: Ein neuer Aufbruch für Europa. Eine neue Dynamik für Deutschland. Ein neuer Zusammenhalt für unser Land. Koalitionsvertrag zwischen CDU, CSU und SPD. 19. Legislaturperiode (Kabinett Merkel IV). Bundesregierung, 12. März 2018, abgerufen am 7. März 2019., S. 49, Z. 2212-2214.
  9. Open Letter of the EFF: Article 13 of the EU Copyright Directive Threatens the Internet, 12. Juni 2018
  10. Holger Bleich: EU-Kommission fordert den Einsatz von Upload-Filtern. In: heise.de. Abgerufen am 17. März 2018.
  11. 11,0 11,1  Interview von Simon Hurtz: "Diese Upload-Filter wären regelrechte Zensurmaschinen". In: sueddeutsche.de. 20. Juni 2018, ISSN 0174-4917 (https://www.sueddeutsche.de/digital/urheberrecht-upload-filter-interview-1.4022269).
  12. YouTube - MrTrashpack kritisiert stark eingebrochene Einnahmen. In: playnation.de. Abgerufen am 17. März 2018.
  13. Benjamin Köhler: YouTube verärgert Nutzer mit Werberichtlinie. In: derwesten.de. Abgerufen am 17. März 2018.


Dieser Artikel basiert (teilweise) auf dem Artikel Upload-Filter aus der freien Enzyklopädie Wikipedia und steht unter der Lizenz Creative Commons Attribution/Share Alike. In Wikipedia ist eine Liste der Autoren verfügbar.