{"id":9331,"date":"2018-05-22T11:16:01","date_gmt":"2018-05-22T10:16:01","guid":{"rendered":"http:\/\/de.newsroom.fb.com\/?p=9331"},"modified":"2018-05-22T11:16:01","modified_gmt":"2018-05-22T10:16:01","slug":"wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten","status":"publish","type":"post","link":"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/","title":{"rendered":"Wie messen wir, ob es uns gelingt, unerw\u00fcnschte Inhalte von Facebook fern zu halten?"},"content":{"rendered":"<p><em>Von Alex Schultz, VP, Data Analytics<\/em><\/p>\n<p>\u201eNur was man misst, das kann man auch verbessern\u201c \u2013 an diesem Grundsatz des bekannten Unternehmensberaters Peter Drucker orientiert sich jedes seri\u00f6se Unternehmen, denn fundierte Entscheidungen beruhen auf Messungen, nicht auf H\u00f6rensagen und Intuition. Das gilt auch bei Facebook, und insbesondere, wenn es um die Sicherheit auf unserer Plattform geht.<\/p>\n<p>Wir haben Facebook als Ort aufgebaut, an dem die Menschen frei und offen \u00fcber die unterschiedlichsten Ideen diskutieren k\u00f6nnen, sogar \u00fcber solche Ideen, die manchem kontrovers oder anst\u00f6\u00dfig erscheinen. Zudem m\u00f6chten wir aber daf\u00fcr sorgen, dass unser Dienst f\u00fcr alle Menschen sicher ist. Das kann eine schwierige Gratwanderung sein.<\/p>\n<p>Im vergangenen Monat haben wir erstmalig die Richtlinien ver\u00f6ffentlicht, die unserem \u00dcberpr\u00fcfungsteam bei der Entscheidung helfen, was auf Facebook bleibt und was entfernt wird. Und heute ver\u00f6ffentlichen wir \u2013 wiederum zum ersten Mal \u2013 die Daten, auf deren Basis wir intern unsere Effektivit\u00e4t bei der Durchsetzung dieser Standards messen. Die Methodologie ist noch nicht in Stein gemei\u00dfelt, das hei\u00dft, je mehr wir lernen, was wichtig ist und was funktioniert, desto besser werden wir in der Lage sein, unsere Vorgehensweise anzupassen.<\/p>\n<p>Der heutige Bericht liefert eine detaillierte Beschreibung unserer internen Prozesse sowie unserer Vorgehensweise in Bezug auf Daten. Es ist auch der Versuch, offener zu werden, so dass du selbst beurteilen kannst: Wie gut gelingt es uns eigentlich, unerw\u00fcnschte Inhalte aus unseren Diensten zu entfernen? Dar\u00fcber hinaus soll er es Wissenschaftlern, politischen Entscheidungstr\u00e4gern und Gruppen leichter machen, uns Feedback zu geben, damit wir besser werden k\u00f6nnen.<\/p>\n<p>Es wird immer Menschen geben, die versuchen, verletzende oder unerw\u00fcnschte Dinge auf Facebook zu posten \u2013 ganz gleich ob es sich um Hassrede, terroristische Propaganda oder Bilder mit Ausbeutung von Kindern handelt. Diese Tatsache k\u00f6nnen wir nicht \u00e4ndern. Was wir aber tun k\u00f6nnen, ist zu messen und damit letztendlich zu kontrollieren, wie h\u00e4ufig Inhalte, die gegen unsere Gemeinschaftsstandards versto\u00dfen, angesehen werden. Als Leiter von Data Analytics habe ich das Team geleitet, das unsere Arbeit auf diesem Gebiet misst, damit wir als Unternehmen besser verstehen, wie effektiv wir unsere Richtlinien durchsetzen.<\/p>\n<p><strong>Gesamtauswirkungen<em><br \/>\n<\/em><\/strong><br \/>\nUnsere wichtigste Messgr\u00f6\u00dfe sind die Auswirkungen, d. h. der Schaden, den jeder einzelne unerw\u00fcnschte Inhalt anrichtet, wenn er auf Facebook gepostet wird. Dabei gehen wir ziemlich einfach vor: Wir messen sowohl wie oft der Inhalt angesehen wird (\u201eAufrufe\u201c), als auch wie schwerwiegend die Auswirkungen jedes Aufrufs auf die Personen, die ihn sehen, sowie auf die gr\u00f6\u00dfere Community sind:<\/p>\n<p><em>Gesamtauswirkungen = Aufrufe von versto\u00dfendem Inhalt x Auswirkungen des versto\u00dfenden Inhalts je Aufruf<\/em><\/p>\n<p>Aufrufe lassen sich leicht z\u00e4hlen.\u00a0 Auswirkungen dagegen sind viel schwieriger zu messen. Beispiel: Wie stark wird jemand negativ beeinflusst, der Hassrede sieht, im Vergleich zu jemandem, der drastische Gewaltdarstellung sieht? Und was ist der prozentuale Unterschied? Wie vergleicht man die Schwere der Auswirkungen von terroristischer Propaganda mit der von Bildern, die Kindesmissbrauch zeigen?<\/p>\n<p>Die Antwort lautet: Wir k\u00f6nnen Auswirkungen nicht in Zahlen ausgedr\u00fcckt vergleichen. Aber wir k\u00f6nnen diese unterschiedlichen Schadensarten kategorisieren und priorisieren. Nat\u00fcrlich ist dieses Vorgehen in gewissem Ma\u00dfe subjektiv. Aber durch Priorisierung k\u00f6nnen wir schnellstm\u00f6glich Ressourcen f\u00fcr die Inhalte bereitstellen, die nach unserer Ansicht am unmittelbarsten gef\u00e4hrlich sind.<\/p>\n<p>Hier ist ein Beispiel: Angenommen, jemand postet ein Bild einer nackten Person auf Facebook. Das verst\u00f6\u00dft gegen unsere Richtlinien und wir bem\u00fchen uns, es zu entfernen. Unsere Nacktheit-Filter sind inzwischen tats\u00e4chlich \u00e4u\u00dferst effektiv. Aber angenommen, das Bild wurde von einem Mann gepostet, der sich an einer Frau r\u00e4chen m\u00f6chte, die ihn verlassen hat. In unserem Denkmodell hat dies gr\u00f6\u00dfere negative Auswirkungen und folglich wird dieser Fall in unserer Entfernungsliste nach oben rutschen. Er hat h\u00f6here Priorit\u00e4t. Das ist ein wenig wie bei der Klassifizierung in einer Notaufnahme. Jeder Patient z\u00e4hlt. Aber die kritischsten F\u00e4lle werden zuerst behandelt.<\/p>\n<p><strong>Wie oft wird unerw\u00fcnschter Inhalt auf Facebook angesehen?<br \/>\n<\/strong><br \/>\nInnerhalb jeder Missbrauchskategorie \u2013 gleichg\u00fcltig ob gef\u00e4lschte Konten, Hassrede oder Nacktheit \u2013 ist entscheidend, wie oft ein Inhalt, der gegen unsere Standards verst\u00f6\u00dft, tats\u00e4chlich angesehen wird, bezogen auf die Gesamtzahl der Male, die <em>jeder<\/em> Inhalt auf Facebook angesehen wird. Wir nennen das Pr\u00e4valenz. Diese Messgr\u00f6\u00dfe erfasst, wie oft etwas angesehen wird, nicht, wie lange etwas auf Facebook verbleibt. Wenn ein Inhalt mit Hassrede eine Millionen Mal in 10 Minuten angesehen wird, ist das weitaus schlimmer, als wenn ein Inhalt 10 Mal in 30 Minuten angesehen wird.<\/p>\n<p>Wir berechnen diese Kennzahl, indem wir eine Stichprobe von Facebook-Inhalten ausw\u00e4hlen und dann ermitteln, wie viel dieser Stichprobe nicht vorhanden sein sollte. N\u00e4here Einzelheiten hierzu findet ihr in unserem Leitfaden zu diesen Daten. Da es hier um Pr\u00e4valenz geht, konzentrieren wir uns darauf, wie viele Inhalte angesehen werden und nicht, wie viele Inhalte gegen unsere Regeln und Richtlinien versto\u00dfen. Mit anderen Worten: Wir behandeln nicht alle Inhalte gleich. Bei einem Post, der eine Million Mal angesehen wird, ist die Wahrscheinlichkeit, dass er Teil der Stichprobe wird, eine Million Mal h\u00f6her, als bei einem Post, der nur einmal angesehen wird. Und das ist auch gut so.<\/p>\n<p>Wir werden immer wieder aufgefordert, Kennzahlen dar\u00fcber zu ver\u00f6ffentlichen, wie lange es dauert, bis Facebook gegen unsere Standards versto\u00dfende Inhalte, seien es Texte oder Bilder, entfernt. Aber wir sind der Ansicht, dass \u201eZeit\u201c nicht die aussagekr\u00e4ftigste Kennzahl f\u00fcr die effektive Kontrolle unseres Dienstes ist. Dabei darf man ebenfalls nicht au\u00dfer Acht lassen, dass auch wir Fehler machen. Manchmal entfernen wir Inhalte, die eigentlich nicht gegen unsere Gemeinschaftsstandards versto\u00dfen (wir nennen das Falsch-Positive). In anderen F\u00e4llen haben wir Inhalte nicht entfernt, obwohl wir es h\u00e4tten tun sollen. Jeder Fehler kann Menschen verletzen \u2013 und genau das ist unsere Motivation, kontinuierlich besser zu werden.<\/p>\n<p>Facebook investiert viel Geld in die Einstellung von mehr Mitarbeitern und Mitarbeiterinnen, die markierte Inhalte \u00fcberpr\u00fcfen. Aber wie Guy Rosen vor zwei Wochen bereits erl\u00e4utert hat, unterst\u00fctzen uns neue Technologien wie maschinelles Lernen, Computer Vision und k\u00fcnstliche Intelligenz dabei, mehr unerw\u00fcnschte und sch\u00e4dliche Inhalte schneller \u2013 sehr viel schneller \u2013 und in sehr viel gr\u00f6\u00dferem Umfang aufzusp\u00fcren, als Menschen es jemals k\u00f6nnten. In der Tat ist es so, dass wir mithilfe k\u00fcnstlicher Intelligenz unerw\u00fcnschte und sch\u00e4dliche Inhalte sogar bereits von Facebook entfernen k\u00f6nnen, bevor sie \u00fcberhaupt gemeldet werden. Aus diesem Grund messen wir jetzt, wie oft Facebook Inhalte selbst aufdeckt, bevor sie gemeldet werden. Die kontinuierliche Verbesserung dieser Quote ist von entscheidender Bedeutung, da es unser Ziel ist, die negativen Auswirkungen, die unerw\u00fcnschte und sch\u00e4dliche Inhalte auf Nutzerinnen und Nutzer von Facebook haben, direkt zu reduzieren.<\/p>\n<p><strong>Das Gute finden<\/strong><\/p>\n<p>Als Homosexueller habe ich sowohl das Beste als auch das Schlimmste erlebt, das unser Dienst und seine Nutzerinnen und Nutzer zu bieten haben. Facebook hat mir geholfen, eine Community zu finden, als ich mich einsam und isoliert gef\u00fchlt habe. Dank unserer Privatsph\u00e4re-Einstellungen konnte ich Dinge mit Freunden und Freundinnen teilen und behielt dennoch die Kontrolle dar\u00fcber, wie weit ich mein Outing bekanntgemacht habe. Je mehr ich, auch aufgrund meiner Position bei Facebook, in der \u00d6ffentlichkeit stand, desto mehr wurde ich angegriffen, diffamiert und beleidigt. Diese Erfahrung hat mich h\u00e4ufig deprimiert und mir auch Angst gemacht.<\/p>\n<p>Gerade solche pers\u00f6nlichen Erlebnisse sind uns Ansporn sicherzustellen, dass Facebook eine durchweg positive Erfahrung ist \u2013 f\u00fcr alle Nutzerinnen und Nutzer. Ich hoffe, dass dieser Bericht, Blog und Leitfaden einen Eindruck vermitteln, wie wir das erreichen m\u00f6chten. Ich w\u00fcrde mich freuen, wenn sich daraus eine Diskussion erg\u00e4be, wie wir das noch besser machen k\u00f6nnen. Denn was man misst, kann man auch verbessern.<\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"Von Alex Schultz, VP, Data Analytics \u201eNur was man misst, das kann man auch verbessern\u201c \u2013 an diesem Grundsatz des bekannten Unternehmensberaters Peter Drucker orientiert sich jedes seri\u00f6se Unternehmen, denn fundierte Entscheidungen beruhen auf Messungen, nicht auf H\u00f6rensagen und Intuition. Das gilt auch bei Facebook, und insbesondere, wenn es um die Sicherheit auf unserer Plattform geht. Wir haben Facebook als Ort aufgebaut, an dem die Menschen frei und offen \u00fcber die unterschiedlichsten Ideen diskutieren k\u00f6nnen, sogar \u00fcber solche Ideen, die manchem kontrovers oder anst\u00f6\u00dfig erscheinen. Zudem m\u00f6chten wir aber daf\u00fcr sorgen, dass unser Dienst f\u00fcr alle Menschen sicher ist. Das kann eine schwierige Gratwanderung sein. Im vergangenen Monat haben wir erstmalig die Richtlinien ver\u00f6ffentlicht, die unserem \u00dcberpr\u00fcfungsteam bei der Entscheidung helfen, was auf Facebook bleibt und was entfernt wird. Und heute ver\u00f6ffentlichen wir \u2013 wiederum zum ersten Mal \u2013 die Daten, auf deren Basis wir intern unsere Effektivit\u00e4t bei der Durchsetzung dieser Standards messen. Die Methodologie ist noch nicht in Stein gemei\u00dfelt, das hei\u00dft, je mehr wir lernen, was wichtig ist und was funktioniert, desto besser werden wir in der Lage sein, unsere Vorgehensweise anzupassen. Der heutige Bericht liefert eine detaillierte Beschreibung unserer internen Prozesse sowie unserer Vorgehensweise in Bezug auf Daten. Es ist auch der Versuch, offener zu werden, so dass du selbst beurteilen kannst: Wie gut gelingt es uns eigentlich, unerw\u00fcnschte Inhalte aus unseren Diensten zu entfernen? Dar\u00fcber hinaus soll er es Wissenschaftlern, politischen Entscheidungstr\u00e4gern und Gruppen leichter machen, uns Feedback zu geben, damit wir besser werden k\u00f6nnen. Es wird immer Menschen geben, die versuchen, verletzende oder unerw\u00fcnschte Dinge auf Facebook zu posten \u2013 ganz gleich ob es sich um Hassrede, terroristische Propaganda oder Bilder mit Ausbeutung von Kindern handelt. Diese Tatsache k\u00f6nnen wir nicht \u00e4ndern. Was wir aber tun k\u00f6nnen, ist zu messen und damit letztendlich zu kontrollieren, wie h\u00e4ufig Inhalte, die gegen unsere Gemeinschaftsstandards versto\u00dfen, angesehen werden. Als Leiter von Data Analytics habe ich das Team geleitet, das unsere Arbeit auf diesem Gebiet misst, damit wir als Unternehmen besser verstehen, wie effektiv wir unsere Richtlinien durchsetzen. Gesamtauswirkungen Unsere wichtigste Messgr\u00f6\u00dfe sind die Auswirkungen, d. h. der Schaden, den jeder einzelne unerw\u00fcnschte Inhalt anrichtet, wenn er auf Facebook gepostet wird. Dabei gehen wir ziemlich einfach vor: Wir messen sowohl wie oft der Inhalt angesehen wird (\u201eAufrufe\u201c), als auch wie schwerwiegend die Auswirkungen jedes Aufrufs auf die Personen, die ihn sehen, sowie auf die gr\u00f6\u00dfere Community sind: Gesamtauswirkungen = Aufrufe von versto\u00dfendem Inhalt x Auswirkungen des versto\u00dfenden Inhalts je Aufruf Aufrufe lassen sich leicht z\u00e4hlen.\u00a0 Auswirkungen dagegen sind viel schwieriger zu messen. Beispiel: Wie stark wird jemand negativ beeinflusst, der Hassrede sieht, im Vergleich zu jemandem, der drastische Gewaltdarstellung sieht? Und was ist der prozentuale Unterschied? Wie vergleicht man die Schwere der Auswirkungen von terroristischer Propaganda mit der von Bildern, die Kindesmissbrauch zeigen? Die Antwort lautet: Wir k\u00f6nnen Auswirkungen nicht in Zahlen ausgedr\u00fcckt vergleichen. Aber wir k\u00f6nnen diese unterschiedlichen Schadensarten kategorisieren und priorisieren. Nat\u00fcrlich ist dieses Vorgehen in gewissem Ma\u00dfe subjektiv. Aber durch Priorisierung k\u00f6nnen wir schnellstm\u00f6glich Ressourcen f\u00fcr die Inhalte bereitstellen, die nach unserer Ansicht am unmittelbarsten gef\u00e4hrlich sind. Hier ist ein Beispiel: Angenommen, jemand postet ein Bild einer nackten Person auf Facebook. Das verst\u00f6\u00dft gegen unsere Richtlinien und wir bem\u00fchen uns, es zu entfernen. Unsere Nacktheit-Filter sind inzwischen tats\u00e4chlich \u00e4u\u00dferst effektiv. Aber angenommen, das Bild wurde von einem Mann gepostet, der sich an einer Frau r\u00e4chen m\u00f6chte, die ihn verlassen hat. In unserem Denkmodell hat dies gr\u00f6\u00dfere negative Auswirkungen und folglich wird dieser Fall in unserer Entfernungsliste nach oben rutschen. Er hat h\u00f6here Priorit\u00e4t. Das ist ein wenig wie bei der Klassifizierung in einer Notaufnahme. Jeder Patient z\u00e4hlt. Aber die kritischsten F\u00e4lle werden zuerst behandelt. Wie oft wird unerw\u00fcnschter Inhalt auf Facebook angesehen? Innerhalb jeder Missbrauchskategorie \u2013 gleichg\u00fcltig ob gef\u00e4lschte Konten, Hassrede oder Nacktheit \u2013 ist entscheidend, wie oft ein Inhalt, der gegen unsere Standards verst\u00f6\u00dft, tats\u00e4chlich angesehen wird, bezogen auf die Gesamtzahl der Male, die jeder Inhalt auf Facebook angesehen wird. Wir nennen das Pr\u00e4valenz. Diese Messgr\u00f6\u00dfe erfasst, wie oft etwas angesehen wird, nicht, wie lange etwas auf Facebook verbleibt. Wenn ein Inhalt mit Hassrede eine Millionen Mal in 10 Minuten angesehen wird, ist das weitaus schlimmer, als wenn ein Inhalt 10 Mal in 30 Minuten angesehen wird. Wir berechnen diese Kennzahl, indem wir eine Stichprobe von Facebook-Inhalten ausw\u00e4hlen und dann ermitteln, wie viel dieser Stichprobe nicht vorhanden sein sollte. N\u00e4here Einzelheiten hierzu findet ihr in unserem Leitfaden zu diesen Daten. Da es hier um Pr\u00e4valenz geht, konzentrieren wir uns darauf, wie viele Inhalte angesehen werden und nicht, wie viele Inhalte gegen unsere Regeln und Richtlinien versto\u00dfen. Mit anderen Worten: Wir behandeln nicht alle Inhalte gleich. Bei einem Post, der eine Million Mal angesehen wird, ist die Wahrscheinlichkeit, dass er Teil der Stichprobe wird, eine Million Mal h\u00f6her, als bei einem Post, der nur einmal angesehen wird. Und das ist auch gut so. Wir werden immer wieder aufgefordert, Kennzahlen dar\u00fcber zu ver\u00f6ffentlichen, wie lange es dauert, bis Facebook gegen unsere Standards versto\u00dfende Inhalte, seien es Texte oder Bilder, entfernt. Aber wir sind der Ansicht, dass \u201eZeit\u201c nicht die aussagekr\u00e4ftigste Kennzahl f\u00fcr die effektive Kontrolle unseres Dienstes ist. Dabei darf man ebenfalls nicht au\u00dfer Acht lassen, dass auch wir Fehler machen. Manchmal entfernen wir Inhalte, die eigentlich nicht gegen unsere Gemeinschaftsstandards versto\u00dfen (wir nennen das Falsch-Positive). In anderen F\u00e4llen haben wir Inhalte nicht entfernt, obwohl wir es h\u00e4tten tun sollen. Jeder Fehler kann Menschen verletzen \u2013 und genau das ist unsere Motivation, kontinuierlich besser zu werden. Facebook investiert viel Geld in die Einstellung von mehr Mitarbeitern und Mitarbeiterinnen, die markierte Inhalte \u00fcberpr\u00fcfen. Aber wie Guy Rosen vor zwei Wochen bereits erl\u00e4utert hat, unterst\u00fctzen uns neue Technologien wie maschinelles Lernen, Computer Vision und k\u00fcnstliche Intelligenz dabei, mehr unerw\u00fcnschte und sch\u00e4dliche Inhalte schneller \u2013 sehr viel schneller \u2013 und in sehr viel gr\u00f6\u00dferem Umfang aufzusp\u00fcren, als Menschen es jemals k\u00f6nnten. In der Tat ist es so, dass wir mithilfe k\u00fcnstlicher Intelligenz unerw\u00fcnschte und sch\u00e4dliche Inhalte sogar bereits von Facebook entfernen k\u00f6nnen, bevor sie \u00fcberhaupt gemeldet werden. Aus diesem Grund messen wir jetzt, wie oft Facebook Inhalte selbst aufdeckt, bevor sie gemeldet werden. Die kontinuierliche Verbesserung dieser Quote ist von entscheidender Bedeutung, da es unser Ziel ist, die negativen Auswirkungen, die unerw\u00fcnschte und sch\u00e4dliche Inhalte auf Nutzerinnen und Nutzer von Facebook haben, direkt zu reduzieren. Das Gute finden Als Homosexueller habe ich sowohl das Beste als auch das Schlimmste erlebt, das unser Dienst und seine Nutzerinnen und Nutzer zu bieten haben. Facebook hat mir geholfen, eine Community zu finden, als ich mich einsam und isoliert gef\u00fchlt habe. Dank unserer Privatsph\u00e4re-Einstellungen konnte ich Dinge mit Freunden und Freundinnen teilen und behielt dennoch die Kontrolle dar\u00fcber, wie weit ich mein Outing bekanntgemacht habe. Je mehr ich, auch aufgrund meiner Position bei Facebook, in der \u00d6ffentlichkeit stand, desto mehr wurde ich angegriffen, diffamiert und beleidigt. Diese Erfahrung hat mich h\u00e4ufig deprimiert und mir auch Angst gemacht. Gerade solche pers\u00f6nlichen Erlebnisse sind uns Ansporn sicherzustellen, dass Facebook eine durchweg positive Erfahrung ist \u2013 f\u00fcr alle Nutzerinnen und Nutzer. Ich hoffe, dass dieser Bericht, Blog und Leitfaden einen Eindruck vermitteln, wie wir das erreichen m\u00f6chten. Ich w\u00fcrde mich freuen, wenn sich daraus eine Diskussion erg\u00e4be, wie wir das noch besser machen k\u00f6nnen. Denn was man misst, kann man auch verbessern. &nbsp;","protected":false},"author":119732082,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[389306059,30697048],"tags":[],"class_list":["post-9331","post","type-post","status-publish","format-standard","hentry","category-hassrede","category-unternehmensmeldungen"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Wie messen wir, ob es uns gelingt, unerw\u00fcnschte Inhalte von Facebook fern zu halten? | \u00dcber Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Wie messen wir, ob es uns gelingt, unerw\u00fcnschte Inhalte von Facebook fern zu halten? | \u00dcber Meta\" \/>\n<meta property=\"og:description\" content=\"Von Alex Schultz, VP, Data Analytics \u201eNur was man misst, das kann man auch verbessern\u201c \u2013 an diesem Grundsatz des bekannten Unternehmensberaters Peter Drucker orientiert sich jedes seri\u00f6se Unternehmen, denn fundierte Entscheidungen beruhen auf Messungen, nicht auf H\u00f6rensagen und Intuition. Das gilt auch bei Facebook, und insbesondere, wenn es um die Sicherheit auf unserer Plattform geht. Wir haben Facebook als Ort aufgebaut, an dem die Menschen frei und offen \u00fcber die unterschiedlichsten Ideen diskutieren k\u00f6nnen, sogar \u00fcber solche Ideen, die manchem kontrovers oder anst\u00f6\u00dfig erscheinen. Zudem m\u00f6chten wir aber daf\u00fcr sorgen, dass unser Dienst f\u00fcr alle Menschen sicher ist. Das kann eine schwierige Gratwanderung sein. Im vergangenen Monat haben wir erstmalig die Richtlinien ver\u00f6ffentlicht, die unserem \u00dcberpr\u00fcfungsteam bei der Entscheidung helfen, was auf Facebook bleibt und was entfernt wird. Und heute ver\u00f6ffentlichen wir \u2013 wiederum zum ersten Mal \u2013 die Daten, auf deren Basis wir intern unsere Effektivit\u00e4t bei der Durchsetzung dieser Standards messen. Die Methodologie ist noch nicht in Stein gemei\u00dfelt, das hei\u00dft, je mehr wir lernen, was wichtig ist und was funktioniert, desto besser werden wir in der Lage sein, unsere Vorgehensweise anzupassen. Der heutige Bericht liefert eine detaillierte Beschreibung unserer internen Prozesse sowie unserer Vorgehensweise in Bezug auf Daten. Es ist auch der Versuch, offener zu werden, so dass du selbst beurteilen kannst: Wie gut gelingt es uns eigentlich, unerw\u00fcnschte Inhalte aus unseren Diensten zu entfernen? Dar\u00fcber hinaus soll er es Wissenschaftlern, politischen Entscheidungstr\u00e4gern und Gruppen leichter machen, uns Feedback zu geben, damit wir besser werden k\u00f6nnen. Es wird immer Menschen geben, die versuchen, verletzende oder unerw\u00fcnschte Dinge auf Facebook zu posten \u2013 ganz gleich ob es sich um Hassrede, terroristische Propaganda oder Bilder mit Ausbeutung von Kindern handelt. Diese Tatsache k\u00f6nnen wir nicht \u00e4ndern. Was wir aber tun k\u00f6nnen, ist zu messen und damit letztendlich zu kontrollieren, wie h\u00e4ufig Inhalte, die gegen unsere Gemeinschaftsstandards versto\u00dfen, angesehen werden. Als Leiter von Data Analytics habe ich das Team geleitet, das unsere Arbeit auf diesem Gebiet misst, damit wir als Unternehmen besser verstehen, wie effektiv wir unsere Richtlinien durchsetzen. Gesamtauswirkungen Unsere wichtigste Messgr\u00f6\u00dfe sind die Auswirkungen, d. h. der Schaden, den jeder einzelne unerw\u00fcnschte Inhalt anrichtet, wenn er auf Facebook gepostet wird. Dabei gehen wir ziemlich einfach vor: Wir messen sowohl wie oft der Inhalt angesehen wird (\u201eAufrufe\u201c), als auch wie schwerwiegend die Auswirkungen jedes Aufrufs auf die Personen, die ihn sehen, sowie auf die gr\u00f6\u00dfere Community sind: Gesamtauswirkungen = Aufrufe von versto\u00dfendem Inhalt x Auswirkungen des versto\u00dfenden Inhalts je Aufruf Aufrufe lassen sich leicht z\u00e4hlen.\u00a0 Auswirkungen dagegen sind viel schwieriger zu messen. Beispiel: Wie stark wird jemand negativ beeinflusst, der Hassrede sieht, im Vergleich zu jemandem, der drastische Gewaltdarstellung sieht? Und was ist der prozentuale Unterschied? Wie vergleicht man die Schwere der Auswirkungen von terroristischer Propaganda mit der von Bildern, die Kindesmissbrauch zeigen? Die Antwort lautet: Wir k\u00f6nnen Auswirkungen nicht in Zahlen ausgedr\u00fcckt vergleichen. Aber wir k\u00f6nnen diese unterschiedlichen Schadensarten kategorisieren und priorisieren. Nat\u00fcrlich ist dieses Vorgehen in gewissem Ma\u00dfe subjektiv. Aber durch Priorisierung k\u00f6nnen wir schnellstm\u00f6glich Ressourcen f\u00fcr die Inhalte bereitstellen, die nach unserer Ansicht am unmittelbarsten gef\u00e4hrlich sind. Hier ist ein Beispiel: Angenommen, jemand postet ein Bild einer nackten Person auf Facebook. Das verst\u00f6\u00dft gegen unsere Richtlinien und wir bem\u00fchen uns, es zu entfernen. Unsere Nacktheit-Filter sind inzwischen tats\u00e4chlich \u00e4u\u00dferst effektiv. Aber angenommen, das Bild wurde von einem Mann gepostet, der sich an einer Frau r\u00e4chen m\u00f6chte, die ihn verlassen hat. In unserem Denkmodell hat dies gr\u00f6\u00dfere negative Auswirkungen und folglich wird dieser Fall in unserer Entfernungsliste nach oben rutschen. Er hat h\u00f6here Priorit\u00e4t. Das ist ein wenig wie bei der Klassifizierung in einer Notaufnahme. Jeder Patient z\u00e4hlt. Aber die kritischsten F\u00e4lle werden zuerst behandelt. Wie oft wird unerw\u00fcnschter Inhalt auf Facebook angesehen? Innerhalb jeder Missbrauchskategorie \u2013 gleichg\u00fcltig ob gef\u00e4lschte Konten, Hassrede oder Nacktheit \u2013 ist entscheidend, wie oft ein Inhalt, der gegen unsere Standards verst\u00f6\u00dft, tats\u00e4chlich angesehen wird, bezogen auf die Gesamtzahl der Male, die jeder Inhalt auf Facebook angesehen wird. Wir nennen das Pr\u00e4valenz. Diese Messgr\u00f6\u00dfe erfasst, wie oft etwas angesehen wird, nicht, wie lange etwas auf Facebook verbleibt. Wenn ein Inhalt mit Hassrede eine Millionen Mal in 10 Minuten angesehen wird, ist das weitaus schlimmer, als wenn ein Inhalt 10 Mal in 30 Minuten angesehen wird. Wir berechnen diese Kennzahl, indem wir eine Stichprobe von Facebook-Inhalten ausw\u00e4hlen und dann ermitteln, wie viel dieser Stichprobe nicht vorhanden sein sollte. N\u00e4here Einzelheiten hierzu findet ihr in unserem Leitfaden zu diesen Daten. Da es hier um Pr\u00e4valenz geht, konzentrieren wir uns darauf, wie viele Inhalte angesehen werden und nicht, wie viele Inhalte gegen unsere Regeln und Richtlinien versto\u00dfen. Mit anderen Worten: Wir behandeln nicht alle Inhalte gleich. Bei einem Post, der eine Million Mal angesehen wird, ist die Wahrscheinlichkeit, dass er Teil der Stichprobe wird, eine Million Mal h\u00f6her, als bei einem Post, der nur einmal angesehen wird. Und das ist auch gut so. Wir werden immer wieder aufgefordert, Kennzahlen dar\u00fcber zu ver\u00f6ffentlichen, wie lange es dauert, bis Facebook gegen unsere Standards versto\u00dfende Inhalte, seien es Texte oder Bilder, entfernt. Aber wir sind der Ansicht, dass \u201eZeit\u201c nicht die aussagekr\u00e4ftigste Kennzahl f\u00fcr die effektive Kontrolle unseres Dienstes ist. Dabei darf man ebenfalls nicht au\u00dfer Acht lassen, dass auch wir Fehler machen. Manchmal entfernen wir Inhalte, die eigentlich nicht gegen unsere Gemeinschaftsstandards versto\u00dfen (wir nennen das Falsch-Positive). In anderen F\u00e4llen haben wir Inhalte nicht entfernt, obwohl wir es h\u00e4tten tun sollen. Jeder Fehler kann Menschen verletzen \u2013 und genau das ist unsere Motivation, kontinuierlich besser zu werden. Facebook investiert viel Geld in die Einstellung von mehr Mitarbeitern und Mitarbeiterinnen, die markierte Inhalte \u00fcberpr\u00fcfen. Aber wie Guy Rosen vor zwei Wochen bereits erl\u00e4utert hat, unterst\u00fctzen uns neue Technologien wie maschinelles Lernen, Computer Vision und k\u00fcnstliche Intelligenz dabei, mehr unerw\u00fcnschte und sch\u00e4dliche Inhalte schneller \u2013 sehr viel schneller \u2013 und in sehr viel gr\u00f6\u00dferem Umfang aufzusp\u00fcren, als Menschen es jemals k\u00f6nnten. In der Tat ist es so, dass wir mithilfe k\u00fcnstlicher Intelligenz unerw\u00fcnschte und sch\u00e4dliche Inhalte sogar bereits von Facebook entfernen k\u00f6nnen, bevor sie \u00fcberhaupt gemeldet werden. Aus diesem Grund messen wir jetzt, wie oft Facebook Inhalte selbst aufdeckt, bevor sie gemeldet werden. Die kontinuierliche Verbesserung dieser Quote ist von entscheidender Bedeutung, da es unser Ziel ist, die negativen Auswirkungen, die unerw\u00fcnschte und sch\u00e4dliche Inhalte auf Nutzerinnen und Nutzer von Facebook haben, direkt zu reduzieren. Das Gute finden Als Homosexueller habe ich sowohl das Beste als auch das Schlimmste erlebt, das unser Dienst und seine Nutzerinnen und Nutzer zu bieten haben. Facebook hat mir geholfen, eine Community zu finden, als ich mich einsam und isoliert gef\u00fchlt habe. Dank unserer Privatsph\u00e4re-Einstellungen konnte ich Dinge mit Freunden und Freundinnen teilen und behielt dennoch die Kontrolle dar\u00fcber, wie weit ich mein Outing bekanntgemacht habe. Je mehr ich, auch aufgrund meiner Position bei Facebook, in der \u00d6ffentlichkeit stand, desto mehr wurde ich angegriffen, diffamiert und beleidigt. Diese Erfahrung hat mich h\u00e4ufig deprimiert und mir auch Angst gemacht. Gerade solche pers\u00f6nlichen Erlebnisse sind uns Ansporn sicherzustellen, dass Facebook eine durchweg positive Erfahrung ist \u2013 f\u00fcr alle Nutzerinnen und Nutzer. Ich hoffe, dass dieser Bericht, Blog und Leitfaden einen Eindruck vermitteln, wie wir das erreichen m\u00f6chten. Ich w\u00fcrde mich freuen, wenn sich daraus eine Diskussion erg\u00e4be, wie wir das noch besser machen k\u00f6nnen. Denn was man misst, kann man auch verbessern. &nbsp;\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/\" \/>\n<meta property=\"og:site_name\" content=\"\u00dcber Meta\" \/>\n<meta property=\"article:published_time\" content=\"2018-05-22T10:16:01+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"apcoworldwide\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"6 Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/\"},\"author\":\"Facebook company\",\"headline\":\"Wie messen wir, ob es uns gelingt, unerw\u00fcnschte Inhalte von Facebook fern zu halten?\",\"datePublished\":\"2018-05-22T10:16:01+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/\"},\"wordCount\":1302,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/de\/#organization\"},\"articleSection\":[\"Hassrede\",\"Unternehmensmeldungen\"],\"inLanguage\":\"de-DE\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/\",\"url\":\"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/\",\"name\":\"Wie messen wir, ob es uns gelingt, unerw\u00fcnschte Inhalte von Facebook fern zu halten? | \u00dcber Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/de\/#website\"},\"datePublished\":\"2018-05-22T10:16:01+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/\"]}],\"author\":\"\u00dcber Meta\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Wie messen wir, ob es uns gelingt, unerw\u00fcnschte Inhalte von Facebook fern zu halten?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/de\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"\u00dcber Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/de\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/de\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de-DE\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/de\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/de\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Wie messen wir, ob es uns gelingt, unerw\u00fcnschte Inhalte von Facebook fern zu halten? | \u00dcber Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/","og_locale":"de_DE","og_type":"article","og_title":"Wie messen wir, ob es uns gelingt, unerw\u00fcnschte Inhalte von Facebook fern zu halten? | \u00dcber Meta","og_description":"Von Alex Schultz, VP, Data Analytics \u201eNur was man misst, das kann man auch verbessern\u201c \u2013 an diesem Grundsatz des bekannten Unternehmensberaters Peter Drucker orientiert sich jedes seri\u00f6se Unternehmen, denn fundierte Entscheidungen beruhen auf Messungen, nicht auf H\u00f6rensagen und Intuition. Das gilt auch bei Facebook, und insbesondere, wenn es um die Sicherheit auf unserer Plattform geht. Wir haben Facebook als Ort aufgebaut, an dem die Menschen frei und offen \u00fcber die unterschiedlichsten Ideen diskutieren k\u00f6nnen, sogar \u00fcber solche Ideen, die manchem kontrovers oder anst\u00f6\u00dfig erscheinen. Zudem m\u00f6chten wir aber daf\u00fcr sorgen, dass unser Dienst f\u00fcr alle Menschen sicher ist. Das kann eine schwierige Gratwanderung sein. Im vergangenen Monat haben wir erstmalig die Richtlinien ver\u00f6ffentlicht, die unserem \u00dcberpr\u00fcfungsteam bei der Entscheidung helfen, was auf Facebook bleibt und was entfernt wird. Und heute ver\u00f6ffentlichen wir \u2013 wiederum zum ersten Mal \u2013 die Daten, auf deren Basis wir intern unsere Effektivit\u00e4t bei der Durchsetzung dieser Standards messen. Die Methodologie ist noch nicht in Stein gemei\u00dfelt, das hei\u00dft, je mehr wir lernen, was wichtig ist und was funktioniert, desto besser werden wir in der Lage sein, unsere Vorgehensweise anzupassen. Der heutige Bericht liefert eine detaillierte Beschreibung unserer internen Prozesse sowie unserer Vorgehensweise in Bezug auf Daten. Es ist auch der Versuch, offener zu werden, so dass du selbst beurteilen kannst: Wie gut gelingt es uns eigentlich, unerw\u00fcnschte Inhalte aus unseren Diensten zu entfernen? Dar\u00fcber hinaus soll er es Wissenschaftlern, politischen Entscheidungstr\u00e4gern und Gruppen leichter machen, uns Feedback zu geben, damit wir besser werden k\u00f6nnen. Es wird immer Menschen geben, die versuchen, verletzende oder unerw\u00fcnschte Dinge auf Facebook zu posten \u2013 ganz gleich ob es sich um Hassrede, terroristische Propaganda oder Bilder mit Ausbeutung von Kindern handelt. Diese Tatsache k\u00f6nnen wir nicht \u00e4ndern. Was wir aber tun k\u00f6nnen, ist zu messen und damit letztendlich zu kontrollieren, wie h\u00e4ufig Inhalte, die gegen unsere Gemeinschaftsstandards versto\u00dfen, angesehen werden. Als Leiter von Data Analytics habe ich das Team geleitet, das unsere Arbeit auf diesem Gebiet misst, damit wir als Unternehmen besser verstehen, wie effektiv wir unsere Richtlinien durchsetzen. Gesamtauswirkungen Unsere wichtigste Messgr\u00f6\u00dfe sind die Auswirkungen, d. h. der Schaden, den jeder einzelne unerw\u00fcnschte Inhalt anrichtet, wenn er auf Facebook gepostet wird. Dabei gehen wir ziemlich einfach vor: Wir messen sowohl wie oft der Inhalt angesehen wird (\u201eAufrufe\u201c), als auch wie schwerwiegend die Auswirkungen jedes Aufrufs auf die Personen, die ihn sehen, sowie auf die gr\u00f6\u00dfere Community sind: Gesamtauswirkungen = Aufrufe von versto\u00dfendem Inhalt x Auswirkungen des versto\u00dfenden Inhalts je Aufruf Aufrufe lassen sich leicht z\u00e4hlen.\u00a0 Auswirkungen dagegen sind viel schwieriger zu messen. Beispiel: Wie stark wird jemand negativ beeinflusst, der Hassrede sieht, im Vergleich zu jemandem, der drastische Gewaltdarstellung sieht? Und was ist der prozentuale Unterschied? Wie vergleicht man die Schwere der Auswirkungen von terroristischer Propaganda mit der von Bildern, die Kindesmissbrauch zeigen? Die Antwort lautet: Wir k\u00f6nnen Auswirkungen nicht in Zahlen ausgedr\u00fcckt vergleichen. Aber wir k\u00f6nnen diese unterschiedlichen Schadensarten kategorisieren und priorisieren. Nat\u00fcrlich ist dieses Vorgehen in gewissem Ma\u00dfe subjektiv. Aber durch Priorisierung k\u00f6nnen wir schnellstm\u00f6glich Ressourcen f\u00fcr die Inhalte bereitstellen, die nach unserer Ansicht am unmittelbarsten gef\u00e4hrlich sind. Hier ist ein Beispiel: Angenommen, jemand postet ein Bild einer nackten Person auf Facebook. Das verst\u00f6\u00dft gegen unsere Richtlinien und wir bem\u00fchen uns, es zu entfernen. Unsere Nacktheit-Filter sind inzwischen tats\u00e4chlich \u00e4u\u00dferst effektiv. Aber angenommen, das Bild wurde von einem Mann gepostet, der sich an einer Frau r\u00e4chen m\u00f6chte, die ihn verlassen hat. In unserem Denkmodell hat dies gr\u00f6\u00dfere negative Auswirkungen und folglich wird dieser Fall in unserer Entfernungsliste nach oben rutschen. Er hat h\u00f6here Priorit\u00e4t. Das ist ein wenig wie bei der Klassifizierung in einer Notaufnahme. Jeder Patient z\u00e4hlt. Aber die kritischsten F\u00e4lle werden zuerst behandelt. Wie oft wird unerw\u00fcnschter Inhalt auf Facebook angesehen? Innerhalb jeder Missbrauchskategorie \u2013 gleichg\u00fcltig ob gef\u00e4lschte Konten, Hassrede oder Nacktheit \u2013 ist entscheidend, wie oft ein Inhalt, der gegen unsere Standards verst\u00f6\u00dft, tats\u00e4chlich angesehen wird, bezogen auf die Gesamtzahl der Male, die jeder Inhalt auf Facebook angesehen wird. Wir nennen das Pr\u00e4valenz. Diese Messgr\u00f6\u00dfe erfasst, wie oft etwas angesehen wird, nicht, wie lange etwas auf Facebook verbleibt. Wenn ein Inhalt mit Hassrede eine Millionen Mal in 10 Minuten angesehen wird, ist das weitaus schlimmer, als wenn ein Inhalt 10 Mal in 30 Minuten angesehen wird. Wir berechnen diese Kennzahl, indem wir eine Stichprobe von Facebook-Inhalten ausw\u00e4hlen und dann ermitteln, wie viel dieser Stichprobe nicht vorhanden sein sollte. N\u00e4here Einzelheiten hierzu findet ihr in unserem Leitfaden zu diesen Daten. Da es hier um Pr\u00e4valenz geht, konzentrieren wir uns darauf, wie viele Inhalte angesehen werden und nicht, wie viele Inhalte gegen unsere Regeln und Richtlinien versto\u00dfen. Mit anderen Worten: Wir behandeln nicht alle Inhalte gleich. Bei einem Post, der eine Million Mal angesehen wird, ist die Wahrscheinlichkeit, dass er Teil der Stichprobe wird, eine Million Mal h\u00f6her, als bei einem Post, der nur einmal angesehen wird. Und das ist auch gut so. Wir werden immer wieder aufgefordert, Kennzahlen dar\u00fcber zu ver\u00f6ffentlichen, wie lange es dauert, bis Facebook gegen unsere Standards versto\u00dfende Inhalte, seien es Texte oder Bilder, entfernt. Aber wir sind der Ansicht, dass \u201eZeit\u201c nicht die aussagekr\u00e4ftigste Kennzahl f\u00fcr die effektive Kontrolle unseres Dienstes ist. Dabei darf man ebenfalls nicht au\u00dfer Acht lassen, dass auch wir Fehler machen. Manchmal entfernen wir Inhalte, die eigentlich nicht gegen unsere Gemeinschaftsstandards versto\u00dfen (wir nennen das Falsch-Positive). In anderen F\u00e4llen haben wir Inhalte nicht entfernt, obwohl wir es h\u00e4tten tun sollen. Jeder Fehler kann Menschen verletzen \u2013 und genau das ist unsere Motivation, kontinuierlich besser zu werden. Facebook investiert viel Geld in die Einstellung von mehr Mitarbeitern und Mitarbeiterinnen, die markierte Inhalte \u00fcberpr\u00fcfen. Aber wie Guy Rosen vor zwei Wochen bereits erl\u00e4utert hat, unterst\u00fctzen uns neue Technologien wie maschinelles Lernen, Computer Vision und k\u00fcnstliche Intelligenz dabei, mehr unerw\u00fcnschte und sch\u00e4dliche Inhalte schneller \u2013 sehr viel schneller \u2013 und in sehr viel gr\u00f6\u00dferem Umfang aufzusp\u00fcren, als Menschen es jemals k\u00f6nnten. In der Tat ist es so, dass wir mithilfe k\u00fcnstlicher Intelligenz unerw\u00fcnschte und sch\u00e4dliche Inhalte sogar bereits von Facebook entfernen k\u00f6nnen, bevor sie \u00fcberhaupt gemeldet werden. Aus diesem Grund messen wir jetzt, wie oft Facebook Inhalte selbst aufdeckt, bevor sie gemeldet werden. Die kontinuierliche Verbesserung dieser Quote ist von entscheidender Bedeutung, da es unser Ziel ist, die negativen Auswirkungen, die unerw\u00fcnschte und sch\u00e4dliche Inhalte auf Nutzerinnen und Nutzer von Facebook haben, direkt zu reduzieren. Das Gute finden Als Homosexueller habe ich sowohl das Beste als auch das Schlimmste erlebt, das unser Dienst und seine Nutzerinnen und Nutzer zu bieten haben. Facebook hat mir geholfen, eine Community zu finden, als ich mich einsam und isoliert gef\u00fchlt habe. Dank unserer Privatsph\u00e4re-Einstellungen konnte ich Dinge mit Freunden und Freundinnen teilen und behielt dennoch die Kontrolle dar\u00fcber, wie weit ich mein Outing bekanntgemacht habe. Je mehr ich, auch aufgrund meiner Position bei Facebook, in der \u00d6ffentlichkeit stand, desto mehr wurde ich angegriffen, diffamiert und beleidigt. Diese Erfahrung hat mich h\u00e4ufig deprimiert und mir auch Angst gemacht. Gerade solche pers\u00f6nlichen Erlebnisse sind uns Ansporn sicherzustellen, dass Facebook eine durchweg positive Erfahrung ist \u2013 f\u00fcr alle Nutzerinnen und Nutzer. Ich hoffe, dass dieser Bericht, Blog und Leitfaden einen Eindruck vermitteln, wie wir das erreichen m\u00f6chten. Ich w\u00fcrde mich freuen, wenn sich daraus eine Diskussion erg\u00e4be, wie wir das noch besser machen k\u00f6nnen. Denn was man misst, kann man auch verbessern. &nbsp;","og_url":"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/","og_site_name":"\u00dcber Meta","article_published_time":"2018-05-22T10:16:01+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"apcoworldwide","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"6 Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/"},"author":"Facebook company","headline":"Wie messen wir, ob es uns gelingt, unerw\u00fcnschte Inhalte von Facebook fern zu halten?","datePublished":"2018-05-22T10:16:01+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/"},"wordCount":1302,"publisher":{"@id":"https:\/\/about.fb.com\/de\/#organization"},"articleSection":["Hassrede","Unternehmensmeldungen"],"inLanguage":"de-DE"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/","url":"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/","name":"Wie messen wir, ob es uns gelingt, unerw\u00fcnschte Inhalte von Facebook fern zu halten? | \u00dcber Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/de\/#website"},"datePublished":"2018-05-22T10:16:01+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/"]}],"author":"\u00dcber Meta"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/de\/news\/2018\/05\/wie-messen-wir-ob-es-uns-gelingt-unerwuenschte-inhalte-von-facebook-fern-zu-halten\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/de\/"},{"@type":"ListItem","position":2,"name":"Wie messen wir, ob es uns gelingt, unerw\u00fcnschte Inhalte von Facebook fern zu halten?"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/de\/#website","url":"https:\/\/about.fb.com\/news\/","name":"\u00dcber Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/de\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/de\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de-DE","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/de\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/de\/","logo":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/posts\/9331","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/users\/119732082"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/comments?post=9331"}],"version-history":[{"count":0,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/posts\/9331\/revisions"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/media?parent=9331"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/categories?post=9331"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/tags?post=9331"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}