Meta

Facebook veröffentlicht NetzDG-Transparenzbericht

Von Richard Allan, Vice President for Global Policy Solutions

Heute veröffentlichen wir unseren NetzDG-Transparenzbericht, wie vom Netzwerkdurchsetzungsgesetz (NetzDG) vorgesehen. Das Gesetz ist seit dem 1. Oktober 2017 in Kraft. Vorausgegangen war eine Diskussion darüber, wie man Hassrede bekämpfen kann.

Hassrede ist auf Facebook nicht erlaubt. Facebook entfernt Hassbotschaften, das heißt Inhalte, in denen Personen aufgrund von sogenannten “geschützten Eigenschaften” direkt angegriffen werden. Dazu zählen Ethnizität, nationale Herkunft, religiöse Zugehörigkeit, sexuelle Orientierung, Geschlecht bzw. geschlechtliche Identität sowie schwere Behinderungen oder Krankheiten. Dies spiegelt sich in unseren Gemeinschaftsstandards wider und wir entfernen entsprechende Inhalte, wenn wir auf sie aufmerksam werden. Unser Ansatz entwickelt sich kontinuierlich weiter, auch dank des Feedbacks von Experten und Nutzern von Facebook. Gleichzeitig gibt uns Technologie neue Werkzeuge an die Hand, um noch schneller und präziser arbeiten zu können.

Um dem NetzDG zu entsprechen, haben wir einen neuen, zusätzlichen Meldeweg entwickelt, über den Personen Inhalte melden können, von denen sie glauben, dass sie gegen das das deutsche Strafgesetzbuch verstoßen. Das NetzDG-Meldeformular ist seit dem 1. Januar 2018 für Menschen in Deutschland verfügbar und kann über den Facebook Hilfebereich und über das Impressum aufgerufen werden. Unabhängig davon können Nutzer weiterhin über den üblichen Prozess Inhalte melden, die ihrer Ansicht nach gegen unsere Gemeinschaftsstandards verstoßen.

Der Transparenzbericht beinhaltet unter anderem die Gesamtzahl der über das Meldeformular übermittelten Beschwerden (“NetzDG-Beschwerden”), die Anzahl der Beschwerden, die zu gelöschten oder gesperrten Inhalten geführt haben, sowie Informationen darüber, wie viele Personen NetzDG-Beschwerden bearbeiten.

  • Gesamtzahl der Beschwerden: Im Zeitraum zwischen 1. Januar 2018 und 30. Juni 2018 wurden uns insgesamt 1704 Inhalte in 886 NetzDG-Beschwerden gemeldet (Nutzer können mehrere Inhalte in einer einzigen NetzDG-Beschwerde anführen).
  • Anzahl der Beschwerden, die zu gelöschten oder gesperrten Inhalten geführt haben: Im Zeitraum zwischen 1. Januar 2018 und 30. Juni 2018 wurden 362 Inhalte infolge einer NetzDG-Beschwerde gelöscht oder gesperrt (ca. 21%). Insgesamt haben 218 NetzDG-Beschwerden dazu geführt, dass Inhalte gelöscht oder gesperrt wurden.
  • Anzahl der Personen, die NetzDG-Meldungen prüfen: NetzDG-Beschwerden werden durch Teams aus geschulten Fachkräften und Juristen geprüft. Die Teams, die die über das NetzDG-Formular übermittelten Beschwerden bearbeiten, bestehen aus etwa 65 Personen, wobei wir den Personalbestand bei einem erhöhten Beschwerdeaufkommen anpassen können.

Wir halten uns an die Vorgaben des NetzDG in Deutschland. Dennoch teilen wir nach wie vor die Kritik an dem Gesetz. Denn die Frage, ob ein Inhalt rechtswidrig ist, sollte bei Gerichten und nicht bei Unternehmen liegen. Einige öffentlich diskutierten Fälle haben die Komplexität des Gesetzes deutlich gemacht und die Herausforderungen aufgezeigt, vor denen Unternehmen stehen, wenn sie die Rechtswidrigkeit von Inhalten in Grenzfällen beurteilen müssen. In diesen Diskussionen wurde deutlich, dass deutsche Juristen bei der Bewertung der gleichen Sachverhalte anhand identischer Rechtsgrundsätze zu unterschiedlichen Ergebnissen gelangen können.

Nach unserer Überzeugung unterstreichen die Ergebnisse der von der Europäischen Kommission in Auftrag gegebenen Studien die Wirksamkeit unserer heutigen Prozesse, die auf unseren Gemeinschaftsstandards basieren. Weltweit haben wir im ersten Quartal 2018 etwa 2,5 Millionen Inhalte entfernt, die gegen unsere Richtlinien verstoßen haben. Wir haben uns mit den im deutschen Recht verankerten Werten sorgfältig auseinandergesetzt. Daher sind wir überzeugt, dass die überwiegende Mehrheit der Inhalte, die in Deutschland als Hassrede gelten, entfernt würde, wenn man sie auf einen Verstoß gegen unsere Gemeinschaftsstandards überprüft.

Unser globales Vorgehen gegen Hassrede

Unabhängig vom NetzDG tun wir alles, um Hassrede zu entfernen, sobald wir darauf aufmerksam werden. Uns ist bewusst, dass wir Fehler gemacht haben. Doch wir haben große Fortschritte erzielt:

Verbesserte Gemeinschaftsstandards: Seit vielen Jahren haben wir Gemeinschaftsstandards, die darlegen, welche Inhalte auf Facebook erlaubt sind und welche nicht. Wir haben diese Regeln, weil wir sicherstellen möchten, dass Facebook nicht nur ein sicherer Ort ist, sondern auch ein Ort, an dem verschiedene Sichtweisen offen diskutiert werden können. Unsere Gemeinschaftsstandards haben sich in den letzten Jahren deutlich verbessert und erst kürzlich haben wir die internen Richtlinien, die wir für die Durchsetzung dieser Standards nutzen, veröffentlicht.

Unsere Standards entwickeln sich kontinuierlich weiter – basierend auf Feedback von unabhängigen Experten und Organisationen auf der ganzen Welt sowie auf den Veränderungen sozialer Normen und in der Sprache. Als beispielsweise die Zahl der in Deutschland ankommenden geflüchteten Menschen zunahm, erhielten wir Rückmeldungen, dass Geflüchtete und Migranten in einigen Beiträgen auf Facebook bedroht wurden. Daraufhin haben wir untersucht, wie sich dieses Phänomen weltweit entwickelt und unsere Richtlinien dahingehend erweitert, dass Gewaltaufrufe oder entmenschlichende Verweise gegen Migranten entfernt werden – wie z.B. Vergleiche mit Tieren, Schmutz oder Müll. Wir ermöglichen jedoch weiterhin, dass Menschen ihre Meinung zum Thema Einwanderung äußern können. Und wir setzen uns stark dafür ein, dass Facebook weiterhin ein Ort für offene Diskussionen bleibt.

Wir wissen, dass uns bei der Anwendung unserer Gemeinschaftsstandards Fehler unterlaufen können. Aus diesem Grund haben wir kürzlich die Möglichkeit geschaffen, bei einzelnen Beiträgen gegen unsere Entscheidungen Einspruch zu erheben. Dadurch können Menschen eine Entscheidung erneut überprüfen lassen, wenn sie der Meinung sind, dass wir einen Fehler begangen haben. Weitere Informationen zu unserem Einspruchsprozess finden Sie hier.

Investitionen in unser Team: Facebook investiert stark in das Team, das gemeldete Inhalte überprüft. Weltweit verdoppeln wir in diesem Jahr die Zahl der Personen, die Inhalte überprüfen und sich um Sicherheitsthemen kümmern von 10.000 auf mehr als 20.000. Über mehrere Standorte weltweit verteilt, arbeitet das Community Operations Team täglich rund um die Uhr. In Deutschland gibt es derzeit zwei Standorte mit rund 1.500 Personen, die Inhalte im Auftrag von Facebook prüfen. Bis Ende 2018 soll die Zahl der Mitarbeiter in Berlin und Essen auf insgesamt rund 2.000 erhöht werden. Diese Teams prüfen Inhalte auf Deutsch und in mehreren anderen Sprachen.

Investitionen in Technologie: Neue Technologien wie Maschinelles Lernen, Computer Vision und Künstliche Intelligenz helfen uns, unangemessene Inhalte noch schneller und in einem weitaus größeren Umfang zu finden, als es Menschen je könnten. Beispielsweise haben unsere Investitionen in Technologie eine Schlüsselrolle dabei gespielt, Terroristen von Facebook fernzuhalten. Unsere neueste Technologie konzentriert sich aktuell auf ISIS, al-Qaida sowie deren Verbündete, da diese Gruppierungen derzeit die größte globale Bedrohung darstellen. Im ersten Quartal 2018 sind wir gegen 1,9 Millionen ISIS- und al-Qaida-Inhalte vorgegangen, etwa doppelt so viele wie im vorherigen Quartal. Darüber hinaus haben wir 99% der ISIS- und al-Qaida-Inhalte entfernt, bevor sie ein Nutzer gemeldet hat. In den meisten Fällen haben wir die Inhalte aufgrund von Verbesserungen unserer Technologie gefunden. Weitere Informationen über die Rolle von Technologie bei der Bekämpfung terroristischer Inhalte finden Sie hier.

Durchsetzungszahlen: Unsere Richtlinien sind nur so gut wie ihre Durchsetzung. Im Mai 2018 haben wir einen Bericht veröffentlicht, der unsere globalen Durchsetzungsmaßnahmen im Zeitraum von Oktober 2017 bis März 2018 erfasst. Der Bericht zeigt auf, wie viele Inhalte wir aufgrund von Verstößen gegen unsere Gemeinschaftsstandards zu terroristischer Propaganda, drastischer Gewaltdarstellung und Hassrede, entfernt haben. Die Zahlen zeigen zudem, wie viele Inhalte wir mithilfe unserer Technologie frühzeitig erkannt haben – noch bevor Facebook-Nutzer sie gemeldet haben. Mit Blick auf Hassrede haben wir zwischen Januar und März 2018 2,5 Mio. Inhalte entfernt (wovon 38% mithilfe von Technologie identifiziert wurden). Im vierten Quartal 2017 lag diese Zahl noch bei ca. 1,6 Mio. Der Anstieg der Zahl der entfernten Inhalte ist in erster Linie auf die Verbesserung unserer Technologie zurückzuführen. Weitere Informationen zu unseren Durchsetzungszahlen finden Sie hier.

Von Experten lernen und mit NGOs zusammenarbeiten: Facebook arbeitet eng mit NGOs zusammen, die sich in diesem Bereich engagieren. Wir kooperieren mit Experten, um mit Hilfe von Aufklärung, Gegenrede und Deradikalisierungskonzepten die effektivsten Wege zur Bekämpfung von Hassrede zu finden. Deshalb haben wir beispielsweise bereits Anfang 2016 gemeinsam mit dem Institute for Strategic Dialogue, dem International Centre for the Study of Radicalisation und der Amadeo-Antonio-Stiftung die Online Civil Courage Initiative (OCCI) ins Leben gerufen. Diese paneuropäische Initiative zielt darauf ab, Gegenrede zu fördern, Nichtregierungsorganisationen bei der Bekämpfung von Hassrede und Terrorismus im Internet zu unterstützen und Forschung zum Phänomen Online-Hassrede zu fördern. Darüber hinaus gibt es bedeutende wissenschaftliche Arbeiten in diesem Bereich, die wir aufmerksam verfolgen.

Wir arbeiten hart daran, unangemessene Inhalte von unserer Plattform zu entfernen und Informationen darüber bereitzustellen, wie wir dabei vorgehen. Wir haben hier eine Auswahl unserer Ansätze aufgezeigt. Unsere Teams arbeiten daran, noch mehr Informationen aufzubereiten, sodass jeder unsere Leistung hinsichtlich der Durchsetzung unserer Standards selbst beurteilen kann. Wir haben unseren Ansatz und unsere Einblicke in die Komplexität dieser Arbeit geteilt und freuen uns über Feedback und Verbesserungsvorschläge. Unsere Arbeit am NetzDG-Transparenzbericht findet parallel zu den zuvor beschriebenen globalen Datenanalysen statt. Wir halten uns dabei an die spezifischen Vorgaben des NetzDG.

NetzDG-Transparenzbericht – Deutsch
NetzDG Transparency Report – English
Hilfebereich / Help Centre



Wir setzen Cookies ein, damit wir Content personalisieren, Anzeigen individualisieren und messen und eine sichere Erfahrung bieten können. Indem du mit der Navigation auf der Seite fortfährst oder auf Inhalte klickst, stimmst du der Erfassung von Informationen auf und außerhalb von Facebook über Cookies zu. Mehr erfahren, auch zu den verfügbaren Steuerelementen: Cookie-Richtlinie