Heute veröffentlichen wir unseren achten NetzDG-Transparenzbericht, wie vom Netzwerkdurchsetzungsgesetz (NetzDG) vorgesehen.
Wenn eine Person der Ansicht ist, dass Inhalte auf Facebook gemäß einer oder mehrerer der im NetzDG aufgeführten Bestimmungen des deutschen Strafgesetzbuchs rechtswidrig sind, kann sie diese Inhalte über das NetzDG-Meldeformular von Facebook, das über einen Link neben dem Inhalt oder im Help Center zu erreichen ist, melden. Dieses Formular ist ausschließlich für Beschwerden wegen Verstößen gegen die im NetzDG aufgeführten Bestimmungen des deutschen Strafgesetzbuchs vorgesehen und steht seit dem 1. Januar 2018 für Nutzer*innen in Deutschland zur Verfügung.
Der Transparenzbericht beinhaltet unter anderem die Gesamtzahl der über das Meldeformular übermittelten Beschwerden (“NetzDG-Beschwerden”), die Anzahl der Beschwerden, die zu gelöschten oder gesperrten Inhalten geführt haben, sowie Informationen darüber, wie viele Personen NetzDG-Beschwerden bearbeiten.
- Gesamtzahl der NetzDG-Beschwerden: Im Zeitraum zwischen 1. Juli 2021 und 31. Dezember 2021 wurden uns insgesamt 95.659 Inhalte in 115.085 NetzDG-Beschwerden gemeldet (Hinweis: wenn uns ein Inhalt mehrfach gemeldet wurde, haben wir ihn als einen Inhalt gezählt).
- Anzahl der NetzDG-Beschwerden, die zu gelöschten oder gesperrten Inhalten geführt haben: Insgesamt haben 17.791 NetzDG-Beschwerden dazu geführt, dass Inhalte gelöscht oder gesperrt wurden. Dies machte insgesamt 17.730 gelöschte oder gesperrte Inhalte aus.
- Anzahl der Personen, die NetzDG-Beschwerden prüfen: NetzDG-Beschwerden werden durch Teams aus geschulten Fachkräften und Jurist*innen geprüft. Zu diesen Teams zählen derzeit insgesamt 142 Personen. Diese Personen sind auch in anderen Bereichen als der Bearbeitung von NetzDG-Beschwerden tätig, je nach Beschwerdeaufkommen.
Unser Vorgehen gegen Hassrede
Unabhängig vom NetzDG arbeiten wir hart daran, unzulässige Inhalte von unserer Plattform zu entfernen und Informationen darüber bereitzustellen, wie wir dabei vorgehen. Wir veröffentlichen quartalsweise Berichte, die darlegen, wie viele Inhalte wir aufgrund von Verstößen gegen unsere Gemeinschaftsstandards, wie beispielsweise Hassrede, entfernen. Außerdem zeigen die Berichte, wie viele dieser Inhalte mithilfe unserer Technologien entdeckt wurden, bevor sie jemand melden konnte. Weltweit haben wir im Zeitraum von Juli bis September 2021 rund 22,3 Millionen Inhalte entfernt, weil sie gegen unsere Richtlinien für Hassrede verstoßen haben. Mittlerweile erkennen wir fast 97 Prozent der Hasskommentare, die wir löschen, noch bevor Nutzer*innen sie melden – in 2017 waren es lediglich 24 Prozent. Für zukünftige Berichte möchten wir noch mehr Informationen aufbereiten und unterziehen unsere Metriken einer unabhängigen, externen Prüfung.
Wir wissen, dass uns bei der Anwendung unserer Gemeinschaftsstandards Fehler unterlaufen können. Aus diesem Grund geben wir Facebook-Nutzer*innen die Möglichkeit, eine Entscheidung erneut überprüfen zu lassen, wenn sie der Meinung sind, dass wir einen Fehler gemacht haben. Außerdem haben wir mit dem Oversight Board ein unabhängiges Gremium geschaffen, das ausgewählte, umstrittene Entscheidungen zu Inhalten auf Facebook überprüft. Seit Oktober 2020 nimmt das Board Beschwerden von Nutzerinnen und Nutzern entgegen. Seit dem 28. Januar 2021 hat das Board 21 Entscheidungen veröffentlicht, die für Facebook bindend sind. Weitere Informationen dazu finden Sie auf der Webseite des Oversight Board und hier in unserem Newsroom.
Downloads
NetzDG-Transparenzbericht (Deutsch)
NetzDG Transparency Report (English)