{"id":9966,"date":"2018-11-16T14:08:05","date_gmt":"2018-11-16T13:08:05","guid":{"rendered":"http:\/\/de.newsroom.fb.com\/?p=9966"},"modified":"2018-11-16T14:08:05","modified_gmt":"2018-11-16T13:08:05","slug":"wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch","status":"publish","type":"post","link":"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/","title":{"rendered":"Wie gut setzen wir unsere Gemeinschaftsstandards durch?"},"content":{"rendered":"<p><em>Von <a href=\"https:\/\/www.facebook.com\/guyro\">Guy Rosen<\/a>,\u00a0VP Product Management<\/em><\/p>\n<p>Menschen teilen nur dann mit gutem Gef\u00fchl Inhalte auf Facebook, wenn sie sich dabei sicher f\u00fchlen. Daher haben wir in den letzten zwei Jahren stark in Technologien und Personal investiert, um Inhalte, die gegen unsere Richtlinien versto\u00dfen, effektiver von unserer Plattform zu entfernen. Im Mai 2018 haben wir zum ersten Mal die internen Richtlinien <a href=\"https:\/\/l.facebook.com\/l.php?u=https%3A%2F%2Fnewsroom.fb.com%2Fnews%2F2018%2F04%2Fcomprehensive-community-standards%2F&amp;h=AT2q65JHPWuTH14yueZEFSvJvCXyQJSisr7lWIFlh5CLbEEEEvqnPYl3VhoCSn5Fk8V5CAPbnwSC4M4_wxhuKs_UgxrOPJGVJscKnKaaw6q2CyBLiNG6hATIXYiwlZqlW848T42-aSHhUFhhxrsxaZ8o\">ver\u00f6ffentlicht<\/a>, die unser \u00dcberpr\u00fcfungsteam anwendet, um unsere <a href=\"https:\/\/facebook.com\/communitystandards\">Gemeinschaftsstandards<\/a> durchzusetzen. So m\u00f6chten wir unseren Nutzern transparenter zeigen, was auf Facebook zul\u00e4ssig ist und warum. Im Mai haben wir Zahlen dar\u00fcber ver\u00f6ffentlicht, wie viele Inhalte wir auf unserer Plattform gefunden haben, die gegen diese Gemeinschaftsstandards versto\u00dfen. Damit m\u00f6chten wir der \u00d6ffentlichkeit die M\u00f6glichkeit geben, sich selbst ein Urteil dar\u00fcber zu bilden, wie gut wir unsere Standards durchsetzen.<\/p>\n<p>Heute ver\u00f6ffentlichen wir unseren zweiten Bericht zur Durchsetzung unserer <a href=\"https:\/\/de-de.facebook.com\/communitystandards\/\">Gemeinschaftsstandards<\/a>. Dieser Bericht zeigt, welche Ma\u00dfnahmen wir f\u00fcr die Durchsetzung unserer Richtlinien gegen drastische Gewaltdarstellungen, Nacktheit und sexuelle Handlungen von Erwachsenen, terroristische Propaganda, Hassrede, Spam und gef\u00e4lschte Konten getroffen haben. Er enth\u00e4lt Daten f\u00fcr die sechs Monate von April 2018 bis September 2018. Der Bericht enth\u00e4lt au\u00dferdem zwei neue Datenkategorien: Mobbing und Bel\u00e4stigung sowie Nacktdarstellung von Kindern und deren sexuelle Ausbeutung.<\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-9976\" src=\"https:\/\/about-fb-preprod.go-vip.net\/de\/wp-content\/uploads\/sites\/4\/2018\/11\/fb-transparency-report-data-snapshot-110818_online_de_de-1.png?resize=960%2C742\" alt=\"\" width=\"960\" height=\"742\" \/><\/p>\n<p><b>Aufsp\u00fcren von Inhalten, die gegen unsere Standards versto\u00dfen<\/b><\/p>\n<p>Wir werden immer besser darin Verst\u00f6\u00dfe proaktiv zu finden, noch bevor sie gemeldet werden \u2013 insbesondere bei Hassrede und drastischen Gewaltdarstellungen. Es gibt jedoch immer noch Bereiche, an denen wir arbeiten m\u00fcssen.<\/p>\n<ul>\n<li>Seit unserem letzten Bericht hat sich der Anteil der Hassrede, die wir proaktiv erkennen, mehr als verdoppelt: von 24 % auf 52 %. Die meisten Beitr\u00e4ge, die wir auf Grund von Hassrede entfernen, haben wir gefunden, bevor sie uns gemeldet wurden. Diese Arbeit ist von enormer Wichtigkeit. Wir investieren auch weiter stark in Bereiche, in denen sich unsere Bem\u00fchungen noch im Anfangsstadium befinden, sowie in eine verbesserte Durchsetzung unserer Standards in weniger h\u00e4ufig verwendeten Sprachen.<\/li>\n<li>Unsere proaktive Erkennung drastischer Gewaltdarstellungen ist um 25 Prozentpunkte gestiegen: von 72 % auf 97 %.<\/li>\n<\/ul>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-9977\" src=\"https:\/\/about-fb-preprod.go-vip.net\/de\/wp-content\/uploads\/sites\/4\/2018\/11\/hate_speech_blog_de_de-1.png?resize=960%2C685\" alt=\"\" width=\"960\" height=\"685\" \/><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-9978\" src=\"https:\/\/about-fb-preprod.go-vip.net\/de\/wp-content\/uploads\/sites\/4\/2018\/11\/graphic_violence_blog_de_de-1.png?resize=960%2C723\" alt=\"\" width=\"960\" height=\"723\" \/><\/p>\n<p><b>Entfernung von Inhalten und Konten, die gegen die Richtlinien versto\u00dfen<\/b><\/p>\n<p>Wir werden nicht nur besser darin, Inhalte zu finden, die gegen unsere Richtlinien versto\u00dfen, sondern entfernen diese auch erfolgreicher. Im 3. Quartal 2018 sind wir gegen 15,4 Millionen Inhalte mit drastischen Gewaltdarstellungen vorgegangen \u2013 \u00fcber 10-mal soviel wie im 4. Quartal 2017. Diesen Anstieg erzielten wir durch st\u00e4ndige Verbesserungen unserer Technologie. Diese erm\u00f6glicht uns jetzt, ein Vorgehen automatisch auf eine Vielzahl sehr \u00e4hnlicher oder identischer Inhalte anzuwenden. Au\u00dferdem ist die Menge an terroristischen Inhalten, die wir im 2. Quartal 2018 entfernt haben, stark gestiegen, wie wir letzte Woche <a href=\"https:\/\/l.facebook.com\/l.php?u=https%3A%2F%2Fnewsroom.fb.com%2Fnews%2F2018%2F11%2Fstaying-ahead-of-terrorists%2F&amp;h=AT0pC1SbAh0VqLGBNPAVLxfXnf8g9tyyZRDP0dNlAS5nHzAmRCVPk6QXLb7SUcSWyNmcS_WH4Ltrj1roIi5VqvfgJdq1PV9NQWEw4SwD1W28hhNbp2vWPM84pY9dfPYfKDNk365Vu8NnicmzvQuJCrWj\">bekannt gegeben haben<\/a>. Wir haben die Verwendung unseres Bilderabgleichsystems ausgeweitet: Mit dieser Technologie k\u00f6nnen wir proaktiv Fotos erkennen, die anderen, zuvor wegen Versto\u00dfes gegen unsere Richtlinien aufgefallenen Inhalten, stark \u00e4hneln. So k\u00f6nnen wir alte Darstellungen terroristischer Propaganda l\u00f6schen. Ein Teil dieses Anstiegs liegt daran, dass wir einen Fehler behoben haben, der uns zuvor daran gehindert hatte, gewisse Inhalte zu entfernen.<\/p>\n<p>Im 2. und 3. Quartal haben wir dar\u00fcber hinaus mehr Fake Accounts gel\u00f6scht als in vorherigen Quartalen: 800 Mio. Konten im 2. und 754 Mio. im 3. Quartal. Die meisten dieser gef\u00e4lschten Konten waren das Ergebnis finanziell motivierter Spam-Attacken, bei denen versucht wurde, massenhaft gef\u00e4lschte Konten zu erstellen. Da wir die meisten dieser Konten innerhalb weniger Minuten nach der Registrierung l\u00f6schen konnten, liegt der Anteil der Fake Accounts auf Facebook weiterhin bei 3 bis 4 % der monatlich aktiven Nutzer. (Details dazu in unserem <a href=\"https:\/\/l.facebook.com\/l.php?u=https%3A%2F%2Fs21.q4cdn.com%2F399680738%2Ffiles%2Fdoc_financials%2F2018%2FQ3%2FQ3-2018-Earnings-Presentation.pdf&amp;h=AT1Fhdfremt9qtitIoYyzigZh_HJi6ijvabTzJLrNtjsAU6LF-avMyB0ufCog4F95jFToZo6FyBEuGbyV-PadLABKG7xCaL7aF1r8Gb_cyjKNPwcXTqsnhoeKs3Pe6koI9FdwT5hz5GYnY1mJEkqVz8s\">Einnahmenbericht<\/a> f\u00fcr das 3. Quartal.)<br \/>\n<b> <\/b><br \/>\n<b>Neue Berichtskategorien<\/b><\/p>\n<p>Die beiden neuen Berichtskategorien \u2013 Bullying und Bel\u00e4stigung sowie Nacktdarstellung von Kindern und deren sexuelle Ausbeutung \u2013 enthalten erste Datens\u00e4tze, an denen wir unser Vorgehen gegen diese Verst\u00f6\u00dfe im Laufe der Zeit messen werden.<\/p>\n<p>Bullying und Bel\u00e4stigung sind oft pers\u00f6nlich und unterscheiden sich je nach Kontext. In vielen F\u00e4llen muss uns dieses Verhalten also gemeldet werden, bevor wir es erkennen und entfernen k\u00f6nnen. Das f\u00fchrt zu einer geringeren proaktiven Erkennungsrate als bei anderen Verst\u00f6\u00dfen. Im letzten Quartal sind wir gegen 2,1 Millionen Inhalte vorgegangen, die unsere Richtlinien zu Bullying und Bel\u00e4stigung verletzten. 15 % davon haben wir entfernt, bevor sie gemeldet wurden. Wir haben diese Inhalte proaktiv bei der Suche nach anderen Verst\u00f6\u00dfen entdeckt. Die Tatsache, dass die Opfer diese Inhalte meist melden m\u00fcssen, bevor wir handeln k\u00f6nnen, kann verst\u00f6rend f\u00fcr die Opfer sein. Wir arbeiten daher intensiv daran, diese Arten von Missbrauch besser zu verstehen, damit wir sie in Zukunft proaktiver erkennen k\u00f6nnen.<\/p>\n<p>Unsere <a href=\"https:\/\/www.facebook.com\/communitystandards\/\">Gemeinschaftsstandards<\/a> untersagen jegliche Ausbeutung von Kindern. Um potenzielle Ausbeutung zu vermeiden, entfernen wir auch nicht-sexuelle Inhalte. Dazu geh\u00f6ren beispielsweise eigentlich harmlose Fotos badender Kinder, die in einem anderen Kontext leicht missbraucht werden k\u00f6nnten. Allein im letzten Quartal haben wir 8,7 Millionen Inhalte entfernt, die gegen unsere Richtlinien rund um Nacktdarstellungen von Kindern und deren sexuelle Ausbeutung verstie\u00dfen. 99 % der Inhalte konnten entfernt werden, bevor sie gemeldet wurden. Au\u00dferdem haben wir k\u00fcrzlich eine neue Technologie <a href=\"https:\/\/l.facebook.com\/l.php?u=https%3A%2F%2Fnewsroom.fb.com%2Fnews%2F2018%2F10%2Ffighting-child-exploitation%2F&amp;h=AT1MMOhKChcqwSMBzQBVvAziRKRlgcqXV-75KcoueOfyBpBBsU1mnCs5tt6W-ifsoa7adzSk_j4jwDCIXLWhuJLFxCAqHm4H_kp-RZNdzkdzURJrbhqbseCRzIV3DVwEZc4KAlHSch77vBGnGmROWBVS\">angek\u00fcndigt<\/a>, die uns im Kampf gegen die Ausbeutung von Kindern auf Facebook helfen wird. Ich bin zuversichtlich, dass wir dadurch noch mehr illegale Inhalte noch schneller erkennen werden.<\/p>\n<p>Insgesamt liegt bei der Verhinderung von Missbrauch auf Facebook noch viel Arbeit vor uns. Maschinelles Lernen und k\u00fcnstliche Intelligenz werden uns weiterhin dabei helfen, Richtlinienverst\u00f6\u00dfe auf Facebook zu erkennen und zu entfernen. Zudem messen wir unsere Fortschritte, damit wir die aktuellen Herausforderungen nicht aus den Augen verlieren und wir uns der Verantwortung unserer Arbeit bewusst sein k\u00f6nnen. Auch das Messen unseres Fortschritts ist sehr wichtig, da es unseren Teams die aktuellen Herausforderungen verdeutlicht und sie sich so f\u00fcr ihre Arbeit verantwortlich f\u00fchlen. Um unseren Fortschritt und unsere Datenmethodik zu \u00fcberpr\u00fcfen, arbeiten wir mit der <a href=\"https:\/\/l.facebook.com\/l.php?u=https%3A%2F%2Flaw.yale.edu%2Fyls-today%2Fnews%2Fjustice-collaboratory-lead-facebook-data-transparency-advisory-group&amp;h=AT1Wfr46JHPnMpmrR9C2kmfNFhWODEtfoRmjaKqbvOBub9aq-lfm-hcLkMcKuOfeAS9dqnv0ocsIYpuC2p7tXi67_KJDlvTrhtH-w1DS-egPxJWsxv9ghpPQbKF5v6ODtb3gOpA5jk0aBxo8nCKMSsxq\">Data Transparency Advisory Group (DTAG)<\/a> zusammen \u2013 einer Gruppe von Experten im Bereich Messung und Unternehmensf\u00fchrung. Wir werden unsere Daten in diesem Bereich in Zukunft noch genauer und aussagekr\u00e4ftiger machen.<\/p>\n<p>Der aktuelle Facebook-Bericht zur Durchsetzung der Gemeinschaftsstandards sowie Informationen zu Regierungsanfragen und Anfragen zur Entfernung von Verletzungen geistiger Eigentumsrechte sind <a href=\"https:\/\/transparency.facebook.com\/\">hier<\/a> verf\u00fcgbar.<\/p>\n<p>Hier ist zudem Mark Zuckerbergs Beitrag zu diesem Thema:<\/p>\n<!-- Embed not found -->\n","protected":false},"excerpt":{"rendered":"Von Guy Rosen,\u00a0VP Product Management Menschen teilen nur dann mit gutem Gef\u00fchl Inhalte auf Facebook, wenn sie sich dabei sicher f\u00fchlen. Daher haben wir in den letzten zwei Jahren stark in Technologien und Personal investiert, um Inhalte, die gegen unsere Richtlinien versto\u00dfen, effektiver von unserer Plattform zu entfernen. Im Mai 2018 haben wir zum ersten Mal die internen Richtlinien ver\u00f6ffentlicht, die unser \u00dcberpr\u00fcfungsteam anwendet, um unsere Gemeinschaftsstandards durchzusetzen. So m\u00f6chten wir unseren Nutzern transparenter zeigen, was auf Facebook zul\u00e4ssig ist und warum. Im Mai haben wir Zahlen dar\u00fcber ver\u00f6ffentlicht, wie viele Inhalte wir auf unserer Plattform gefunden haben, die gegen diese Gemeinschaftsstandards versto\u00dfen. Damit m\u00f6chten wir der \u00d6ffentlichkeit die M\u00f6glichkeit geben, sich selbst ein Urteil dar\u00fcber zu bilden, wie gut wir unsere Standards durchsetzen. Heute ver\u00f6ffentlichen wir unseren zweiten Bericht zur Durchsetzung unserer Gemeinschaftsstandards. Dieser Bericht zeigt, welche Ma\u00dfnahmen wir f\u00fcr die Durchsetzung unserer Richtlinien gegen drastische Gewaltdarstellungen, Nacktheit und sexuelle Handlungen von Erwachsenen, terroristische Propaganda, Hassrede, Spam und gef\u00e4lschte Konten getroffen haben. Er enth\u00e4lt Daten f\u00fcr die sechs Monate von April 2018 bis September 2018. Der Bericht enth\u00e4lt au\u00dferdem zwei neue Datenkategorien: Mobbing und Bel\u00e4stigung sowie Nacktdarstellung von Kindern und deren sexuelle Ausbeutung. Aufsp\u00fcren von Inhalten, die gegen unsere Standards versto\u00dfen Wir werden immer besser darin Verst\u00f6\u00dfe proaktiv zu finden, noch bevor sie gemeldet werden \u2013 insbesondere bei Hassrede und drastischen Gewaltdarstellungen. Es gibt jedoch immer noch Bereiche, an denen wir arbeiten m\u00fcssen. Seit unserem letzten Bericht hat sich der Anteil der Hassrede, die wir proaktiv erkennen, mehr als verdoppelt: von 24 % auf 52 %. Die meisten Beitr\u00e4ge, die wir auf Grund von Hassrede entfernen, haben wir gefunden, bevor sie uns gemeldet wurden. Diese Arbeit ist von enormer Wichtigkeit. Wir investieren auch weiter stark in Bereiche, in denen sich unsere Bem\u00fchungen noch im Anfangsstadium befinden, sowie in eine verbesserte Durchsetzung unserer Standards in weniger h\u00e4ufig verwendeten Sprachen. Unsere proaktive Erkennung drastischer Gewaltdarstellungen ist um 25 Prozentpunkte gestiegen: von 72 % auf 97 %. Entfernung von Inhalten und Konten, die gegen die Richtlinien versto\u00dfen Wir werden nicht nur besser darin, Inhalte zu finden, die gegen unsere Richtlinien versto\u00dfen, sondern entfernen diese auch erfolgreicher. Im 3. Quartal 2018 sind wir gegen 15,4 Millionen Inhalte mit drastischen Gewaltdarstellungen vorgegangen \u2013 \u00fcber 10-mal soviel wie im 4. Quartal 2017. Diesen Anstieg erzielten wir durch st\u00e4ndige Verbesserungen unserer Technologie. Diese erm\u00f6glicht uns jetzt, ein Vorgehen automatisch auf eine Vielzahl sehr \u00e4hnlicher oder identischer Inhalte anzuwenden. Au\u00dferdem ist die Menge an terroristischen Inhalten, die wir im 2. Quartal 2018 entfernt haben, stark gestiegen, wie wir letzte Woche bekannt gegeben haben. Wir haben die Verwendung unseres Bilderabgleichsystems ausgeweitet: Mit dieser Technologie k\u00f6nnen wir proaktiv Fotos erkennen, die anderen, zuvor wegen Versto\u00dfes gegen unsere Richtlinien aufgefallenen Inhalten, stark \u00e4hneln. So k\u00f6nnen wir alte Darstellungen terroristischer Propaganda l\u00f6schen. Ein Teil dieses Anstiegs liegt daran, dass wir einen Fehler behoben haben, der uns zuvor daran gehindert hatte, gewisse Inhalte zu entfernen. Im 2. und 3. Quartal haben wir dar\u00fcber hinaus mehr Fake Accounts gel\u00f6scht als in vorherigen Quartalen: 800 Mio. Konten im 2. und 754 Mio. im 3. Quartal. Die meisten dieser gef\u00e4lschten Konten waren das Ergebnis finanziell motivierter Spam-Attacken, bei denen versucht wurde, massenhaft gef\u00e4lschte Konten zu erstellen. Da wir die meisten dieser Konten innerhalb weniger Minuten nach der Registrierung l\u00f6schen konnten, liegt der Anteil der Fake Accounts auf Facebook weiterhin bei 3 bis 4 % der monatlich aktiven Nutzer. (Details dazu in unserem Einnahmenbericht f\u00fcr das 3. Quartal.) Neue Berichtskategorien Die beiden neuen Berichtskategorien \u2013 Bullying und Bel\u00e4stigung sowie Nacktdarstellung von Kindern und deren sexuelle Ausbeutung \u2013 enthalten erste Datens\u00e4tze, an denen wir unser Vorgehen gegen diese Verst\u00f6\u00dfe im Laufe der Zeit messen werden. Bullying und Bel\u00e4stigung sind oft pers\u00f6nlich und unterscheiden sich je nach Kontext. In vielen F\u00e4llen muss uns dieses Verhalten also gemeldet werden, bevor wir es erkennen und entfernen k\u00f6nnen. Das f\u00fchrt zu einer geringeren proaktiven Erkennungsrate als bei anderen Verst\u00f6\u00dfen. Im letzten Quartal sind wir gegen 2,1 Millionen Inhalte vorgegangen, die unsere Richtlinien zu Bullying und Bel\u00e4stigung verletzten. 15 % davon haben wir entfernt, bevor sie gemeldet wurden. Wir haben diese Inhalte proaktiv bei der Suche nach anderen Verst\u00f6\u00dfen entdeckt. Die Tatsache, dass die Opfer diese Inhalte meist melden m\u00fcssen, bevor wir handeln k\u00f6nnen, kann verst\u00f6rend f\u00fcr die Opfer sein. Wir arbeiten daher intensiv daran, diese Arten von Missbrauch besser zu verstehen, damit wir sie in Zukunft proaktiver erkennen k\u00f6nnen. Unsere Gemeinschaftsstandards untersagen jegliche Ausbeutung von Kindern. Um potenzielle Ausbeutung zu vermeiden, entfernen wir auch nicht-sexuelle Inhalte. Dazu geh\u00f6ren beispielsweise eigentlich harmlose Fotos badender Kinder, die in einem anderen Kontext leicht missbraucht werden k\u00f6nnten. Allein im letzten Quartal haben wir 8,7 Millionen Inhalte entfernt, die gegen unsere Richtlinien rund um Nacktdarstellungen von Kindern und deren sexuelle Ausbeutung verstie\u00dfen. 99 % der Inhalte konnten entfernt werden, bevor sie gemeldet wurden. Au\u00dferdem haben wir k\u00fcrzlich eine neue Technologie angek\u00fcndigt, die uns im Kampf gegen die Ausbeutung von Kindern auf Facebook helfen wird. Ich bin zuversichtlich, dass wir dadurch noch mehr illegale Inhalte noch schneller erkennen werden. Insgesamt liegt bei der Verhinderung von Missbrauch auf Facebook noch viel Arbeit vor uns. Maschinelles Lernen und k\u00fcnstliche Intelligenz werden uns weiterhin dabei helfen, Richtlinienverst\u00f6\u00dfe auf Facebook zu erkennen und zu entfernen. Zudem messen wir unsere Fortschritte, damit wir die aktuellen Herausforderungen nicht aus den Augen verlieren und wir uns der Verantwortung unserer Arbeit bewusst sein k\u00f6nnen. Auch das Messen unseres Fortschritts ist sehr wichtig, da es unseren Teams die aktuellen Herausforderungen verdeutlicht und sie sich so f\u00fcr ihre Arbeit verantwortlich f\u00fchlen. Um unseren Fortschritt und unsere Datenmethodik zu \u00fcberpr\u00fcfen, arbeiten wir mit der Data Transparency Advisory Group (DTAG) zusammen \u2013 einer Gruppe von Experten im Bereich Messung und Unternehmensf\u00fchrung. Wir werden unsere Daten in diesem Bereich in Zukunft noch genauer und aussagekr\u00e4ftiger machen. Der aktuelle Facebook-Bericht zur Durchsetzung der Gemeinschaftsstandards sowie Informationen zu Regierungsanfragen und Anfragen zur Entfernung von Verletzungen geistiger Eigentumsrechte sind hier verf\u00fcgbar. Hier ist zudem Mark Zuckerbergs Beitrag zu diesem Thema:","protected":false},"author":119732082,"featured_media":9968,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[555973284,555973301,518,30697048],"tags":[],"class_list":["post-9966","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-inside-feed","category-news-produkte","category-trends","category-unternehmensmeldungen"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Wie gut setzen wir unsere Gemeinschaftsstandards durch? | \u00dcber Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Wie gut setzen wir unsere Gemeinschaftsstandards durch? | \u00dcber Meta\" \/>\n<meta property=\"og:description\" content=\"Von Guy Rosen,\u00a0VP Product Management Menschen teilen nur dann mit gutem Gef\u00fchl Inhalte auf Facebook, wenn sie sich dabei sicher f\u00fchlen. Daher haben wir in den letzten zwei Jahren stark in Technologien und Personal investiert, um Inhalte, die gegen unsere Richtlinien versto\u00dfen, effektiver von unserer Plattform zu entfernen. Im Mai 2018 haben wir zum ersten Mal die internen Richtlinien ver\u00f6ffentlicht, die unser \u00dcberpr\u00fcfungsteam anwendet, um unsere Gemeinschaftsstandards durchzusetzen. So m\u00f6chten wir unseren Nutzern transparenter zeigen, was auf Facebook zul\u00e4ssig ist und warum. Im Mai haben wir Zahlen dar\u00fcber ver\u00f6ffentlicht, wie viele Inhalte wir auf unserer Plattform gefunden haben, die gegen diese Gemeinschaftsstandards versto\u00dfen. Damit m\u00f6chten wir der \u00d6ffentlichkeit die M\u00f6glichkeit geben, sich selbst ein Urteil dar\u00fcber zu bilden, wie gut wir unsere Standards durchsetzen. Heute ver\u00f6ffentlichen wir unseren zweiten Bericht zur Durchsetzung unserer Gemeinschaftsstandards. Dieser Bericht zeigt, welche Ma\u00dfnahmen wir f\u00fcr die Durchsetzung unserer Richtlinien gegen drastische Gewaltdarstellungen, Nacktheit und sexuelle Handlungen von Erwachsenen, terroristische Propaganda, Hassrede, Spam und gef\u00e4lschte Konten getroffen haben. Er enth\u00e4lt Daten f\u00fcr die sechs Monate von April 2018 bis September 2018. Der Bericht enth\u00e4lt au\u00dferdem zwei neue Datenkategorien: Mobbing und Bel\u00e4stigung sowie Nacktdarstellung von Kindern und deren sexuelle Ausbeutung. Aufsp\u00fcren von Inhalten, die gegen unsere Standards versto\u00dfen Wir werden immer besser darin Verst\u00f6\u00dfe proaktiv zu finden, noch bevor sie gemeldet werden \u2013 insbesondere bei Hassrede und drastischen Gewaltdarstellungen. Es gibt jedoch immer noch Bereiche, an denen wir arbeiten m\u00fcssen. Seit unserem letzten Bericht hat sich der Anteil der Hassrede, die wir proaktiv erkennen, mehr als verdoppelt: von 24 % auf 52 %. Die meisten Beitr\u00e4ge, die wir auf Grund von Hassrede entfernen, haben wir gefunden, bevor sie uns gemeldet wurden. Diese Arbeit ist von enormer Wichtigkeit. Wir investieren auch weiter stark in Bereiche, in denen sich unsere Bem\u00fchungen noch im Anfangsstadium befinden, sowie in eine verbesserte Durchsetzung unserer Standards in weniger h\u00e4ufig verwendeten Sprachen. Unsere proaktive Erkennung drastischer Gewaltdarstellungen ist um 25 Prozentpunkte gestiegen: von 72 % auf 97 %. Entfernung von Inhalten und Konten, die gegen die Richtlinien versto\u00dfen Wir werden nicht nur besser darin, Inhalte zu finden, die gegen unsere Richtlinien versto\u00dfen, sondern entfernen diese auch erfolgreicher. Im 3. Quartal 2018 sind wir gegen 15,4 Millionen Inhalte mit drastischen Gewaltdarstellungen vorgegangen \u2013 \u00fcber 10-mal soviel wie im 4. Quartal 2017. Diesen Anstieg erzielten wir durch st\u00e4ndige Verbesserungen unserer Technologie. Diese erm\u00f6glicht uns jetzt, ein Vorgehen automatisch auf eine Vielzahl sehr \u00e4hnlicher oder identischer Inhalte anzuwenden. Au\u00dferdem ist die Menge an terroristischen Inhalten, die wir im 2. Quartal 2018 entfernt haben, stark gestiegen, wie wir letzte Woche bekannt gegeben haben. Wir haben die Verwendung unseres Bilderabgleichsystems ausgeweitet: Mit dieser Technologie k\u00f6nnen wir proaktiv Fotos erkennen, die anderen, zuvor wegen Versto\u00dfes gegen unsere Richtlinien aufgefallenen Inhalten, stark \u00e4hneln. So k\u00f6nnen wir alte Darstellungen terroristischer Propaganda l\u00f6schen. Ein Teil dieses Anstiegs liegt daran, dass wir einen Fehler behoben haben, der uns zuvor daran gehindert hatte, gewisse Inhalte zu entfernen. Im 2. und 3. Quartal haben wir dar\u00fcber hinaus mehr Fake Accounts gel\u00f6scht als in vorherigen Quartalen: 800 Mio. Konten im 2. und 754 Mio. im 3. Quartal. Die meisten dieser gef\u00e4lschten Konten waren das Ergebnis finanziell motivierter Spam-Attacken, bei denen versucht wurde, massenhaft gef\u00e4lschte Konten zu erstellen. Da wir die meisten dieser Konten innerhalb weniger Minuten nach der Registrierung l\u00f6schen konnten, liegt der Anteil der Fake Accounts auf Facebook weiterhin bei 3 bis 4 % der monatlich aktiven Nutzer. (Details dazu in unserem Einnahmenbericht f\u00fcr das 3. Quartal.) Neue Berichtskategorien Die beiden neuen Berichtskategorien \u2013 Bullying und Bel\u00e4stigung sowie Nacktdarstellung von Kindern und deren sexuelle Ausbeutung \u2013 enthalten erste Datens\u00e4tze, an denen wir unser Vorgehen gegen diese Verst\u00f6\u00dfe im Laufe der Zeit messen werden. Bullying und Bel\u00e4stigung sind oft pers\u00f6nlich und unterscheiden sich je nach Kontext. In vielen F\u00e4llen muss uns dieses Verhalten also gemeldet werden, bevor wir es erkennen und entfernen k\u00f6nnen. Das f\u00fchrt zu einer geringeren proaktiven Erkennungsrate als bei anderen Verst\u00f6\u00dfen. Im letzten Quartal sind wir gegen 2,1 Millionen Inhalte vorgegangen, die unsere Richtlinien zu Bullying und Bel\u00e4stigung verletzten. 15 % davon haben wir entfernt, bevor sie gemeldet wurden. Wir haben diese Inhalte proaktiv bei der Suche nach anderen Verst\u00f6\u00dfen entdeckt. Die Tatsache, dass die Opfer diese Inhalte meist melden m\u00fcssen, bevor wir handeln k\u00f6nnen, kann verst\u00f6rend f\u00fcr die Opfer sein. Wir arbeiten daher intensiv daran, diese Arten von Missbrauch besser zu verstehen, damit wir sie in Zukunft proaktiver erkennen k\u00f6nnen. Unsere Gemeinschaftsstandards untersagen jegliche Ausbeutung von Kindern. Um potenzielle Ausbeutung zu vermeiden, entfernen wir auch nicht-sexuelle Inhalte. Dazu geh\u00f6ren beispielsweise eigentlich harmlose Fotos badender Kinder, die in einem anderen Kontext leicht missbraucht werden k\u00f6nnten. Allein im letzten Quartal haben wir 8,7 Millionen Inhalte entfernt, die gegen unsere Richtlinien rund um Nacktdarstellungen von Kindern und deren sexuelle Ausbeutung verstie\u00dfen. 99 % der Inhalte konnten entfernt werden, bevor sie gemeldet wurden. Au\u00dferdem haben wir k\u00fcrzlich eine neue Technologie angek\u00fcndigt, die uns im Kampf gegen die Ausbeutung von Kindern auf Facebook helfen wird. Ich bin zuversichtlich, dass wir dadurch noch mehr illegale Inhalte noch schneller erkennen werden. Insgesamt liegt bei der Verhinderung von Missbrauch auf Facebook noch viel Arbeit vor uns. Maschinelles Lernen und k\u00fcnstliche Intelligenz werden uns weiterhin dabei helfen, Richtlinienverst\u00f6\u00dfe auf Facebook zu erkennen und zu entfernen. Zudem messen wir unsere Fortschritte, damit wir die aktuellen Herausforderungen nicht aus den Augen verlieren und wir uns der Verantwortung unserer Arbeit bewusst sein k\u00f6nnen. Auch das Messen unseres Fortschritts ist sehr wichtig, da es unseren Teams die aktuellen Herausforderungen verdeutlicht und sie sich so f\u00fcr ihre Arbeit verantwortlich f\u00fchlen. Um unseren Fortschritt und unsere Datenmethodik zu \u00fcberpr\u00fcfen, arbeiten wir mit der Data Transparency Advisory Group (DTAG) zusammen \u2013 einer Gruppe von Experten im Bereich Messung und Unternehmensf\u00fchrung. Wir werden unsere Daten in diesem Bereich in Zukunft noch genauer und aussagekr\u00e4ftiger machen. Der aktuelle Facebook-Bericht zur Durchsetzung der Gemeinschaftsstandards sowie Informationen zu Regierungsanfragen und Anfragen zur Entfernung von Verletzungen geistiger Eigentumsrechte sind hier verf\u00fcgbar. Hier ist zudem Mark Zuckerbergs Beitrag zu diesem Thema:\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/\" \/>\n<meta property=\"og:site_name\" content=\"\u00dcber Meta\" \/>\n<meta property=\"article:published_time\" content=\"2018-11-16T13:08:05+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540\" \/>\n\t<meta property=\"og:image:width\" content=\"960\" \/>\n\t<meta property=\"og:image:height\" content=\"540\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"apcoworldwide\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/\"},\"author\":\"Facebook company\",\"headline\":\"Wie gut setzen wir unsere Gemeinschaftsstandards durch?\",\"datePublished\":\"2018-11-16T13:08:05+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/\"},\"wordCount\":1075,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/de\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540\",\"articleSection\":[\"Inside Feed\",\"News Produkte\",\"Trends\",\"Unternehmensmeldungen\"],\"inLanguage\":\"de-DE\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/\",\"url\":\"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/\",\"name\":\"Wie gut setzen wir unsere Gemeinschaftsstandards durch? | \u00dcber Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/de\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540\",\"datePublished\":\"2018-11-16T13:08:05+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/\"]}],\"author\":\"\u00dcber Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540\",\"contentUrl\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540\",\"width\":960,\"height\":540},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Wie gut setzen wir unsere Gemeinschaftsstandards durch?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/de\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"\u00dcber Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/de\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/de\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de-DE\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/de\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/de\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Wie gut setzen wir unsere Gemeinschaftsstandards durch? | \u00dcber Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/","og_locale":"de_DE","og_type":"article","og_title":"Wie gut setzen wir unsere Gemeinschaftsstandards durch? | \u00dcber Meta","og_description":"Von Guy Rosen,\u00a0VP Product Management Menschen teilen nur dann mit gutem Gef\u00fchl Inhalte auf Facebook, wenn sie sich dabei sicher f\u00fchlen. Daher haben wir in den letzten zwei Jahren stark in Technologien und Personal investiert, um Inhalte, die gegen unsere Richtlinien versto\u00dfen, effektiver von unserer Plattform zu entfernen. Im Mai 2018 haben wir zum ersten Mal die internen Richtlinien ver\u00f6ffentlicht, die unser \u00dcberpr\u00fcfungsteam anwendet, um unsere Gemeinschaftsstandards durchzusetzen. So m\u00f6chten wir unseren Nutzern transparenter zeigen, was auf Facebook zul\u00e4ssig ist und warum. Im Mai haben wir Zahlen dar\u00fcber ver\u00f6ffentlicht, wie viele Inhalte wir auf unserer Plattform gefunden haben, die gegen diese Gemeinschaftsstandards versto\u00dfen. Damit m\u00f6chten wir der \u00d6ffentlichkeit die M\u00f6glichkeit geben, sich selbst ein Urteil dar\u00fcber zu bilden, wie gut wir unsere Standards durchsetzen. Heute ver\u00f6ffentlichen wir unseren zweiten Bericht zur Durchsetzung unserer Gemeinschaftsstandards. Dieser Bericht zeigt, welche Ma\u00dfnahmen wir f\u00fcr die Durchsetzung unserer Richtlinien gegen drastische Gewaltdarstellungen, Nacktheit und sexuelle Handlungen von Erwachsenen, terroristische Propaganda, Hassrede, Spam und gef\u00e4lschte Konten getroffen haben. Er enth\u00e4lt Daten f\u00fcr die sechs Monate von April 2018 bis September 2018. Der Bericht enth\u00e4lt au\u00dferdem zwei neue Datenkategorien: Mobbing und Bel\u00e4stigung sowie Nacktdarstellung von Kindern und deren sexuelle Ausbeutung. Aufsp\u00fcren von Inhalten, die gegen unsere Standards versto\u00dfen Wir werden immer besser darin Verst\u00f6\u00dfe proaktiv zu finden, noch bevor sie gemeldet werden \u2013 insbesondere bei Hassrede und drastischen Gewaltdarstellungen. Es gibt jedoch immer noch Bereiche, an denen wir arbeiten m\u00fcssen. Seit unserem letzten Bericht hat sich der Anteil der Hassrede, die wir proaktiv erkennen, mehr als verdoppelt: von 24 % auf 52 %. Die meisten Beitr\u00e4ge, die wir auf Grund von Hassrede entfernen, haben wir gefunden, bevor sie uns gemeldet wurden. Diese Arbeit ist von enormer Wichtigkeit. Wir investieren auch weiter stark in Bereiche, in denen sich unsere Bem\u00fchungen noch im Anfangsstadium befinden, sowie in eine verbesserte Durchsetzung unserer Standards in weniger h\u00e4ufig verwendeten Sprachen. Unsere proaktive Erkennung drastischer Gewaltdarstellungen ist um 25 Prozentpunkte gestiegen: von 72 % auf 97 %. Entfernung von Inhalten und Konten, die gegen die Richtlinien versto\u00dfen Wir werden nicht nur besser darin, Inhalte zu finden, die gegen unsere Richtlinien versto\u00dfen, sondern entfernen diese auch erfolgreicher. Im 3. Quartal 2018 sind wir gegen 15,4 Millionen Inhalte mit drastischen Gewaltdarstellungen vorgegangen \u2013 \u00fcber 10-mal soviel wie im 4. Quartal 2017. Diesen Anstieg erzielten wir durch st\u00e4ndige Verbesserungen unserer Technologie. Diese erm\u00f6glicht uns jetzt, ein Vorgehen automatisch auf eine Vielzahl sehr \u00e4hnlicher oder identischer Inhalte anzuwenden. Au\u00dferdem ist die Menge an terroristischen Inhalten, die wir im 2. Quartal 2018 entfernt haben, stark gestiegen, wie wir letzte Woche bekannt gegeben haben. Wir haben die Verwendung unseres Bilderabgleichsystems ausgeweitet: Mit dieser Technologie k\u00f6nnen wir proaktiv Fotos erkennen, die anderen, zuvor wegen Versto\u00dfes gegen unsere Richtlinien aufgefallenen Inhalten, stark \u00e4hneln. So k\u00f6nnen wir alte Darstellungen terroristischer Propaganda l\u00f6schen. Ein Teil dieses Anstiegs liegt daran, dass wir einen Fehler behoben haben, der uns zuvor daran gehindert hatte, gewisse Inhalte zu entfernen. Im 2. und 3. Quartal haben wir dar\u00fcber hinaus mehr Fake Accounts gel\u00f6scht als in vorherigen Quartalen: 800 Mio. Konten im 2. und 754 Mio. im 3. Quartal. Die meisten dieser gef\u00e4lschten Konten waren das Ergebnis finanziell motivierter Spam-Attacken, bei denen versucht wurde, massenhaft gef\u00e4lschte Konten zu erstellen. Da wir die meisten dieser Konten innerhalb weniger Minuten nach der Registrierung l\u00f6schen konnten, liegt der Anteil der Fake Accounts auf Facebook weiterhin bei 3 bis 4 % der monatlich aktiven Nutzer. (Details dazu in unserem Einnahmenbericht f\u00fcr das 3. Quartal.) Neue Berichtskategorien Die beiden neuen Berichtskategorien \u2013 Bullying und Bel\u00e4stigung sowie Nacktdarstellung von Kindern und deren sexuelle Ausbeutung \u2013 enthalten erste Datens\u00e4tze, an denen wir unser Vorgehen gegen diese Verst\u00f6\u00dfe im Laufe der Zeit messen werden. Bullying und Bel\u00e4stigung sind oft pers\u00f6nlich und unterscheiden sich je nach Kontext. In vielen F\u00e4llen muss uns dieses Verhalten also gemeldet werden, bevor wir es erkennen und entfernen k\u00f6nnen. Das f\u00fchrt zu einer geringeren proaktiven Erkennungsrate als bei anderen Verst\u00f6\u00dfen. Im letzten Quartal sind wir gegen 2,1 Millionen Inhalte vorgegangen, die unsere Richtlinien zu Bullying und Bel\u00e4stigung verletzten. 15 % davon haben wir entfernt, bevor sie gemeldet wurden. Wir haben diese Inhalte proaktiv bei der Suche nach anderen Verst\u00f6\u00dfen entdeckt. Die Tatsache, dass die Opfer diese Inhalte meist melden m\u00fcssen, bevor wir handeln k\u00f6nnen, kann verst\u00f6rend f\u00fcr die Opfer sein. Wir arbeiten daher intensiv daran, diese Arten von Missbrauch besser zu verstehen, damit wir sie in Zukunft proaktiver erkennen k\u00f6nnen. Unsere Gemeinschaftsstandards untersagen jegliche Ausbeutung von Kindern. Um potenzielle Ausbeutung zu vermeiden, entfernen wir auch nicht-sexuelle Inhalte. Dazu geh\u00f6ren beispielsweise eigentlich harmlose Fotos badender Kinder, die in einem anderen Kontext leicht missbraucht werden k\u00f6nnten. Allein im letzten Quartal haben wir 8,7 Millionen Inhalte entfernt, die gegen unsere Richtlinien rund um Nacktdarstellungen von Kindern und deren sexuelle Ausbeutung verstie\u00dfen. 99 % der Inhalte konnten entfernt werden, bevor sie gemeldet wurden. Au\u00dferdem haben wir k\u00fcrzlich eine neue Technologie angek\u00fcndigt, die uns im Kampf gegen die Ausbeutung von Kindern auf Facebook helfen wird. Ich bin zuversichtlich, dass wir dadurch noch mehr illegale Inhalte noch schneller erkennen werden. Insgesamt liegt bei der Verhinderung von Missbrauch auf Facebook noch viel Arbeit vor uns. Maschinelles Lernen und k\u00fcnstliche Intelligenz werden uns weiterhin dabei helfen, Richtlinienverst\u00f6\u00dfe auf Facebook zu erkennen und zu entfernen. Zudem messen wir unsere Fortschritte, damit wir die aktuellen Herausforderungen nicht aus den Augen verlieren und wir uns der Verantwortung unserer Arbeit bewusst sein k\u00f6nnen. Auch das Messen unseres Fortschritts ist sehr wichtig, da es unseren Teams die aktuellen Herausforderungen verdeutlicht und sie sich so f\u00fcr ihre Arbeit verantwortlich f\u00fchlen. Um unseren Fortschritt und unsere Datenmethodik zu \u00fcberpr\u00fcfen, arbeiten wir mit der Data Transparency Advisory Group (DTAG) zusammen \u2013 einer Gruppe von Experten im Bereich Messung und Unternehmensf\u00fchrung. Wir werden unsere Daten in diesem Bereich in Zukunft noch genauer und aussagekr\u00e4ftiger machen. Der aktuelle Facebook-Bericht zur Durchsetzung der Gemeinschaftsstandards sowie Informationen zu Regierungsanfragen und Anfragen zur Entfernung von Verletzungen geistiger Eigentumsrechte sind hier verf\u00fcgbar. Hier ist zudem Mark Zuckerbergs Beitrag zu diesem Thema:","og_url":"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/","og_site_name":"\u00dcber Meta","article_published_time":"2018-11-16T13:08:05+00:00","og_image":[{"url":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540","width":960,"height":540,"type":"image\/png"}],"author":"apcoworldwide","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"5 Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/"},"author":"Facebook company","headline":"Wie gut setzen wir unsere Gemeinschaftsstandards durch?","datePublished":"2018-11-16T13:08:05+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/"},"wordCount":1075,"publisher":{"@id":"https:\/\/about.fb.com\/de\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540","articleSection":["Inside Feed","News Produkte","Trends","Unternehmensmeldungen"],"inLanguage":"de-DE"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/","url":"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/","name":"Wie gut setzen wir unsere Gemeinschaftsstandards durch? | \u00dcber Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/de\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540","datePublished":"2018-11-16T13:08:05+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/"]}],"author":"\u00dcber Meta"},{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/#primaryimage","url":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540","contentUrl":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540","width":960,"height":540},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/de\/news\/2018\/11\/wie-gut-setzen-wir-unsere-gemeinschaftsstandards-durch\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/de\/"},{"@type":"ListItem","position":2,"name":"Wie gut setzen wir unsere Gemeinschaftsstandards durch?"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/de\/#website","url":"https:\/\/about.fb.com\/news\/","name":"\u00dcber Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/de\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/de\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de-DE","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/de\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/de\/","logo":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/de\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/de\/wp-content\/uploads\/sites\/10\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/posts\/9966","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/users\/119732082"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/comments?post=9966"}],"version-history":[{"count":0,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/posts\/9966\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/media\/9968"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/media?parent=9966"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/categories?post=9966"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/de\/wp-json\/wp\/v2\/tags?post=9966"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}