Heute veröffentlichen wir unseren siebten NetzDG-Transparenzbericht, wie vom Netzwerkdurchsetzungsgesetz (NetzDG) vorgesehen.
Wenn eine Person der Ansicht ist, dass Inhalte auf Facebook gemäß einer oder mehrerer der im NetzDG aufgeführten Bestimmungen des deutschen Strafgesetzbuchs rechtswidrig sind, kann sie diese Inhalte über das NetzDG-Meldeformular von Facebook, das über einen Link neben dem Inhalt oder im Help Center zu erreichen ist, melden. Dieses Formular ist ausschließlich für Beschwerden wegen Verstößen gegen die im NetzDG aufgeführten Bestimmungen des deutschen Strafgesetzbuchs vorgesehen und steht seit dem 1. Januar 2018 für Nutzer in Deutschland zur Verfügung.
Der Transparenzbericht beinhaltet unter anderem die Gesamtzahl der über das Meldeformular übermittelten Beschwerden (“NetzDG-Beschwerden”), die Anzahl der Beschwerden, die zu gelöschten oder gesperrten Inhalten geführt haben, sowie Informationen darüber, wie viele Personen NetzDG-Beschwerden bearbeiten.
- Gesamtzahl der NetzDG-Beschwerden: Im Zeitraum zwischen 1. Januar 2021 und 30. Juni 2021 wurden uns insgesamt 67,028 Inhalte in 77,671 NetzDG-Beschwerden gemeldet (Hinweis: wenn uns ein Inhalt mehrfach gemeldet wurde, haben wir ihn als einen Inhalt gezählt).
- Anzahl der NetzDG-Beschwerden, die zu gelöschten oder gesperrten Inhalten geführt haben: Von diesen wurden 11,699 Inhalte infolge einer NetzDG-Beschwerde gelöscht oder gesperrt. Insgesamt haben 11,560 NetzDG-Beschwerden dazu geführt, dass Inhalte gelöscht oder gesperrt wurden.
- Anzahl der Personen, die NetzDG-Beschwerden prüfen: NetzDG-Beschwerden werden durch Teams aus geschulten Fachkräften und Juristen geprüft. Zu diesen Teams zählen derzeit insgesamt 129 Personen. Diese Personen sind auch in anderen Bereichen als der Bearbeitung von NetzDG-Beschwerden tätig, je nach Beschwerdeaufkommen.
Unser Vorgehen gegen Hassrede
Unabhängig vom NetzDG arbeiten wir hart daran, unzulässige Inhalte von unserer Plattform zu entfernen und Informationen darüber bereitzustellen, wie wir dabei vorgehen. Wir veröffentlichen quartalsweise Berichte, die darlegen, wie viele Inhalte wir aufgrund von Verstößen gegen unsere Gemeinschaftsstandards, wie beispielsweise Hassrede, entfernen. Außerdem zeigen die Berichte, wie viele dieser Inhalte mithilfe unserer Technologien entdeckt wurden, bevor sie jemand melden konnte. Weltweit haben wir im Zeitraum von Januar bis März 2021 rund 25,2 Millionen Inhalte entfernt, weil sie gegen unsere Richtlinien für Hassrede verstoßen haben. Mittlerweile erkennen wir fast 97 Prozent der Hasskommentare, die wir löschen, noch bevor Nutzer*innen sie melden – in 2017 waren es lediglich 24 Prozent. Für zukünftige Berichte möchten wir noch mehr Informationen aufbereiten und unterziehen unsere Metriken einer unabhängigen, externen Prüfung.
Wir wissen, dass uns bei der Anwendung unserer Gemeinschaftsstandards Fehler unterlaufen können. Aus diesem Grund geben wir Facebook-Nutzer*innen die Möglichkeit, eine Entscheidung erneut überprüfen zu lassen, wenn sie der Meinung sind, dass wir einen Fehler gemacht haben. Außerdem haben wir mit dem Oversight Board ein unabhängiges Gremium geschaffen, das ausgewählte, umstrittene Entscheidungen zu Inhalten auf Facebook überprüft. Seit Oktober 2020 nimmt das Board Beschwerden von Nutzerinnen und Nutzern entgegen. Seit dem 28. Januar 2021 hat das Board 13 Entscheidungen veröffentlicht, die für Facebook bindend sind. Weitere Informationen dazu finden Sie auf der Webseite des Oversight Board und hier in unserem Newsroom.