{"id":7337,"date":"2018-11-19T17:26:15","date_gmt":"2018-11-19T15:26:15","guid":{"rendered":"http:\/\/fr.newsroom.fb.com\/?p=7337"},"modified":"2019-11-04T20:14:12","modified_gmt":"2019-11-04T19:14:12","slug":"dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute","status":"publish","type":"post","link":"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/","title":{"rendered":"Dans quelle mesure parvenons-nous \u00e0 appliquer nos Standards de la communaut\u00e9 ?"},"content":{"rendered":"<p>Pour publier en toute s\u00e9r\u00e9nit\u00e9, il faut avant tout se sentir en s\u00e9curit\u00e9. C\u2019est pourquoi, au cours de ces deux derni\u00e8res ann\u00e9es, nous avons massivement investi dans la technologie et les ressources humaines afin de supprimer plus efficacement les contenus ind\u00e9sirables.<\/p>\n<p>Au printemps dernier, nous avons pour la premi\u00e8re fois publi\u00e9 les directives internes que nos \u00e9quipes de v\u00e9rification utilisent pour appliquer nos <a href=\"https:\/\/facebook.com\/communitystandards\">Standards de la communaut\u00e9<\/a>, afin de permettre \u00e0 notre communaut\u00e9 de mieux comprendre ce qui est autoris\u00e9 sur Facebook et pourquoi. En mai, nous avons publi\u00e9 des chiffres concernant la quantit\u00e9 de contenus en infraction que nous avons d\u00e9tect\u00e9s, afin de permettre \u00e0 tous d\u2019\u00e9valuer la qualit\u00e9 de notre travail.<\/p>\n<p>Aujourd\u2019hui, nous publions notre second rapport sur l\u2019application de nos Standards de la communaut\u00e9. Ce second rapport recense nos efforts d\u2019application de nos politiques contre la nudit\u00e9 et l&rsquo;activit\u00e9 sexuelle des adultes, les faux comptes, les discours haineux, le spam, la propagande terroriste, la violence visuelle, pour les six mois d&rsquo;avril \u00e0 septembre 2018. Le rapport comprend \u00e9galement deux nouvelles cat\u00e9gories de donn\u00e9es : l\u2019intimidation et le harc\u00e8lement, et la nudit\u00e9 et exploitation sexuelle d\u2019enfants.<\/p>\n<p><b>Recherche de contenu en infraction<\/b><\/p>\n<p>Nous parvenons de plus en plus souvent \u00e0 identifier le contenu en infraction de mani\u00e8re proactive avant que celui-ci ne soit signal\u00e9, en particulier en ce qui concerne les discours incitant \u00e0 la haine et la violence visuelle. Mais nous devons encore nous am\u00e9liorer dans certains domaines.<\/p>\n<ul>\n<li style=\"list-style-type:none;\">\n<ul>\n<li>Depuis notre dernier rapport, le pourcentage de discours incitant \u00e0 la haine que nous avons d\u00e9tect\u00e9s de mani\u00e8re proactive avant que ceux-ci ne soient signal\u00e9s a plus que doubl\u00e9, passant de 24 % \u00e0 52 %. La plupart des publications que nous avons supprim\u00e9es dans le cas de discours incitant \u00e0 la haine sont des publications que nous avons trouv\u00e9es avant que celles-ci ne soient signal\u00e9es. C\u2019est un effort essentiel pour nous. Nous continuons ainsi d\u2019investir consid\u00e9rablement l\u00e0 o\u00f9 notre travail n\u2019en est qu\u2019\u00e0 ses d\u00e9buts et pour am\u00e9liorer nos performances dans les langues moins r\u00e9pandues.<\/li>\n<li>Notre taux de d\u00e9tection proactive de la violence visuelle a augment\u00e9 de 25 points de pourcentage, passant de 72 % \u00e0 97 %.<\/li>\n<\/ul>\n<\/li>\n<\/ul>\n<p><b>Suppression de contenu et de comptes en infraction<\/b><\/p>\n<p>Nous trouvons et nous supprimons de plus en plus de contenus ind\u00e9sirables. Au troisi\u00e8me trimestre 2018, nous avons agi sur 15,4 millions contenus comprenant de la violence visuelle. Cela comprenait la suppression du contenu, l&rsquo;affichage d&rsquo;un \u00e9cran d&rsquo;avertissement, la d\u00e9sactivation du compte incrimin\u00e9 et\/ou la transmission du contenu aux forces de l&rsquo;ordre. C&rsquo;est plus de 10 fois qu\u2019au quatri\u00e8me trimestre de 2017.<\/p>\n<p>Cette augmentation est en grande partie due \u00e0 l\u2019am\u00e9lioration de nos technologies, qui nous ont permis d\u2019appliquer automatiquement la m\u00eame action \u00e0 plusieurs contenus extr\u00eamement semblables, voire identiques. De la m\u00eame mani\u00e8re, comme nous l\u2019avons <a href=\"https:\/\/l.facebook.com\/l.php?u=https%3A%2F%2Fnewsroom.fb.com%2Fnews%2F2018%2F11%2Fstaying-ahead-of-terrorists%2F&amp;h=AT0IUkT_-AcwEaC8yiETBgNICxuHsTnD2kNoVNMcKBi4PGV-PqSNiXnmharoYGdxnUSyaAyh9N83Nws_lE4Jgo6C8SzKsckQeEcMnchYPH7pml2n0qFE3-ExDgP_h_L_HsIHh37yUe3UHRJi9kP91voujEQ\">annonc\u00e9<\/a> la semaine derni\u00e8re, la quantit\u00e9 de contenu terroriste que nous avons supprim\u00e9 a consid\u00e9rablement augment\u00e9 au deuxi\u00e8me trimestre 2018. Nous avons \u00e9tendu l\u2019utilisation de notre syst\u00e8me de mise en correspondance de m\u00e9dias, une technologie qui d\u00e9tecte les photos extr\u00eamement semblables \u00e0 des contenus en infraction se trouvant d\u00e9j\u00e0 dans notre base de donn\u00e9es, afin de supprimer d\u2019anciennes images de propagande terroriste. Une autre partie de cette augmentation est due \u00e0 la correction d\u2019un bug qui nous emp\u00eachait de supprimer certains contenus en infraction.<br \/>\nNous avons \u00e9galement supprim\u00e9 plus de faux comptes au deuxi\u00e8me et au troisi\u00e8me trimestre qu\u2019au cours des trimestres pr\u00e9c\u00e9dents : 800 millions et 754 millions respectivement. La plupart de ces faux comptes ont \u00e9t\u00e9 cr\u00e9\u00e9s en masse pour des raisons commerciales. Nous sommes en mesure de supprimer la plupart de ces comptes seulement quelques minutes apr\u00e8s leur cr\u00e9ation, c\u2019est pourquoi la pr\u00e9dominance de faux comptes sur Facebook s\u2019est stabilis\u00e9e entre 3 et 4% des utilisateurs actifs mensuels, comme nous l\u2019avons <a href=\"https:\/\/l.facebook.com\/l.php?u=https%3A%2F%2Fs21.q4cdn.com%2F399680738%2Ffiles%2Fdoc_financials%2F2018%2FQ3%2FQ3-2018-Earnings-Presentation.pdf&amp;h=AT0CaWNad8Kys9-pKq0NNN9wccLdoTYKP2-LeH9Q4jD2sQ4P1A_YDHB6tjXPwIehJk33BAhZ-NfXgkQkW5OkMZclPdAbDtmnE7Q7hYENfwl-NCfRktCN8YLuLCKO-_XyHm1638BwXDlIBPd5ClZyIKF6wM4\">rapport\u00e9<\/a> dans nos r\u00e9sultats du troisi\u00e8me trimestre.<\/p>\n<p><b>Ajout de nouvelles cat\u00e9gories<\/b><\/p>\n<p>En ce qui concerne les nouvelles cat\u00e9gories que nous avons ajout\u00e9es \u00e0 ce rapport (l\u2019intimidation et le harc\u00e8lement, et la nudit\u00e9 et exploitation sexuelle d\u2019enfants), les donn\u00e9es nous serviront de point de d\u00e9part pour mesurer nos progr\u00e8s contre ces infractions dans le temps.<\/p>\n<p>L\u2019intimidation et le harc\u00e8lement sont souvent des sujets personnels qui d\u00e9pendent du contexte, c\u2019est pourquoi nous avons g\u00e9n\u00e9ralement besoin que quelqu\u2019un nous signale ces comportements afin de pouvoir les identifier et les supprimer. Notre taux de d\u00e9tection proactive est donc inf\u00e9rieur pour ces deux cat\u00e9gories. Au dernier trimestre, nous avons agi sur 2,1 millions d\u2019\u00e9l\u00e9ments de contenu allant \u00e0 l\u2019encontre de nos politiques contre l&rsquo;intimidation et le harc\u00e8lement, et 15 % de ces \u00e9l\u00e9ments ont \u00e9t\u00e9 supprim\u00e9s avant signalement. Nous avons d\u00e9couvert ces contenus de mani\u00e8re proactive en recherchant d\u2019autres types d\u2019infractions. Pour les victimes, le fait de devoir signaler le contenu avant que nous ne puissions intervenir peut s\u2019av\u00e9rer bouleversant. Nous sommes d\u00e9termin\u00e9s \u00e0 am\u00e9liorer notre compr\u00e9hension de ce type d\u2019abus afin de mieux les d\u00e9tecter de mani\u00e8re proactive.<\/p>\n<p>Nos <a href=\"https:\/\/www.facebook.com\/communitystandards\/\">Standards de la communaut\u00e9<\/a> interdisent l\u2019exploitation d\u2019enfants. Mais, afin d\u2019\u00e9viter tout risque d\u2019abus, nous supprimons \u00e9galement certains contenus non sexuels, par exemple d&rsquo;innocentes photos d\u2019enfants dans leur bain, qui pourraient \u00eatre utilis\u00e9es de fa\u00e7on inad\u00e9quate dans un autre contexte. Au dernier trimestre seulement, nous avons supprim\u00e9 8,7 millions de contenus contraires \u00e0 nos politiques en mati\u00e8re de nudit\u00e9 infantile ou d\u2019exploitation sexuelle d\u2019enfants, et 99% ont \u00e9t\u00e9 supprim\u00e9s avant signalement. Nous avons \u00e9galement r\u00e9cemment <a href=\"https:\/\/l.facebook.com\/l.php?u=https%3A%2F%2Fnewsroom.fb.com%2Fnews%2F2018%2F10%2Ffighting-child-exploitation%2F&amp;h=AT1LZlIh38Olj4QgDx3UVeaX_wXka-fi0YtzvmmfPLSIzXeuLIF6lBOku3HQbMrG43RwBiHjzr4yaF5mt4rYkGwJUdaDJO3EnZZQhoW7h7Kk6TC9ou40CfewwztpWvP60cehDe3tYL9MWfLS9ceyZfG_Y5c\">annonc\u00e9<\/a> une nouvelle technologie pour lutter contre l\u2019exploitation d\u2019enfants sur Facebook, qui nous permettra d\u2019identifier davantage de contenus ill\u00e9gaux plus rapidement.<\/p>\n<p>De mani\u00e8re g\u00e9n\u00e9rale, nous savons que nous avons encore beaucoup \u00e0 faire en ce qui concerne la pr\u00e9vention des abus sur Facebook. Le machine learning et l\u2019intelligence artificielle continueront de nous aider \u00e0 d\u00e9tecter et \u00e0 supprimer les contenus ind\u00e9sirables de Facebook. La mesure de nos progr\u00e8s est \u00e9galement essentielle, car elle permet \u00e0 nos \u00e9quipes de se concentrer sur ces d\u00e9fis et d\u2019\u00e9valuer l\u2019efficacit\u00e9 de notre travail. Pour nous aider \u00e0 \u00e9valuer nos processus et nos m\u00e9thodes de traitement des donn\u00e9es, nous travaillons en collaboration avec le <a href=\"https:\/\/l.facebook.com\/l.php?u=https%3A%2F%2Flaw.yale.edu%2Fyls-today%2Fnews%2Fjustice-collaboratory-lead-facebook-data-transparency-advisory-group&amp;h=AT3r1fhA0AnezMQ1czbsKMWOY8c51Grwp68m2zaAzjONUfycqNsryseheXHEVti21QdqEpdB3OS30X5AzLqSTGQFKsoKTNsgRwOnwrkWJPPOYrkFUgR6PQVDYuEWudNVgAiKdGMJsbeBnc8t_9R7eWoN-Q4\">Data Transparency Advisory Group (DTAG)<\/a>, un groupe d\u2019experts en mati\u00e8re de mesure et de gouvernance. Nous continuerons d\u2019am\u00e9liorer ces donn\u00e9es dans le temps afin de les rendre plus pr\u00e9cises et plus pertinentes.<\/p>\n<p>Pour plus d&rsquo;informations :<\/p>\n<ul>\n<li style=\"list-style-type:none;\">\n<ul>\n<li><a href=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2018\/11\/fb-transparency-report-data-snapshot_online_fr-1.jpg\">Data Snapshot<\/a><\/li>\n<li><a href=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2018\/11\/hate-speech-proactive-detection.png\">Hate Speech Proactive Detection<\/a><\/li>\n<li><a href=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2018\/11\/graphic-violence-proactive-detection.png\">Graphic Violence Proactive Detection<\/a><\/li>\n<li><a href=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2018\/11\/call-transcript-11_15_2018.pdf\">Press Call Transcript<\/a><\/li>\n<li><a href=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/5\/2018\/11\/content-standards-forum-november-13-2018.pdf\">11.13.18 Content Standard Forum Minutes<\/a><\/li>\n<\/ul>\n<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"Pour publier en toute s\u00e9r\u00e9nit\u00e9, il faut avant tout se sentir en s\u00e9curit\u00e9. C\u2019est pourquoi, au cours de ces deux derni\u00e8res ann\u00e9es, nous avons massivement investi dans la technologie et les ressources humaines afin de supprimer plus efficacement les contenus ind\u00e9sirables. Au printemps dernier, nous avons pour la premi\u00e8re fois publi\u00e9 les directives internes que nos \u00e9quipes de v\u00e9rification utilisent pour appliquer nos Standards de la communaut\u00e9, afin de permettre \u00e0 notre communaut\u00e9 de mieux comprendre ce qui est autoris\u00e9 sur Facebook et pourquoi. En mai, nous avons publi\u00e9 des chiffres concernant la quantit\u00e9 de contenus en infraction que nous avons d\u00e9tect\u00e9s, afin de permettre \u00e0 tous d\u2019\u00e9valuer la qualit\u00e9 de notre travail. Aujourd\u2019hui, nous publions notre second rapport sur l\u2019application de nos Standards de la communaut\u00e9. Ce second rapport recense nos efforts d\u2019application de nos politiques contre la nudit\u00e9 et l&rsquo;activit\u00e9 sexuelle des adultes, les faux comptes, les discours haineux, le spam, la propagande terroriste, la violence visuelle, pour les six mois d&rsquo;avril \u00e0 septembre 2018. Le rapport comprend \u00e9galement deux nouvelles cat\u00e9gories de donn\u00e9es : l\u2019intimidation et le harc\u00e8lement, et la nudit\u00e9 et exploitation sexuelle d\u2019enfants. Recherche de contenu en infraction Nous parvenons de plus en plus souvent \u00e0 identifier le contenu en infraction de mani\u00e8re proactive avant que celui-ci ne soit signal\u00e9, en particulier en ce qui concerne les discours incitant \u00e0 la haine et la violence visuelle. Mais nous devons encore nous am\u00e9liorer dans certains domaines. Depuis notre dernier rapport, le pourcentage de discours incitant \u00e0 la haine que nous avons d\u00e9tect\u00e9s de mani\u00e8re proactive avant que ceux-ci ne soient signal\u00e9s a plus que doubl\u00e9, passant de 24 % \u00e0 52 %. La plupart des publications que nous avons supprim\u00e9es dans le cas de discours incitant \u00e0 la haine sont des publications que nous avons trouv\u00e9es avant que celles-ci ne soient signal\u00e9es. C\u2019est un effort essentiel pour nous. Nous continuons ainsi d\u2019investir consid\u00e9rablement l\u00e0 o\u00f9 notre travail n\u2019en est qu\u2019\u00e0 ses d\u00e9buts et pour am\u00e9liorer nos performances dans les langues moins r\u00e9pandues. Notre taux de d\u00e9tection proactive de la violence visuelle a augment\u00e9 de 25 points de pourcentage, passant de 72 % \u00e0 97 %. Suppression de contenu et de comptes en infraction Nous trouvons et nous supprimons de plus en plus de contenus ind\u00e9sirables. Au troisi\u00e8me trimestre 2018, nous avons agi sur 15,4 millions contenus comprenant de la violence visuelle. Cela comprenait la suppression du contenu, l&rsquo;affichage d&rsquo;un \u00e9cran d&rsquo;avertissement, la d\u00e9sactivation du compte incrimin\u00e9 et\/ou la transmission du contenu aux forces de l&rsquo;ordre. C&rsquo;est plus de 10 fois qu\u2019au quatri\u00e8me trimestre de 2017. Cette augmentation est en grande partie due \u00e0 l\u2019am\u00e9lioration de nos technologies, qui nous ont permis d\u2019appliquer automatiquement la m\u00eame action \u00e0 plusieurs contenus extr\u00eamement semblables, voire identiques. De la m\u00eame mani\u00e8re, comme nous l\u2019avons annonc\u00e9 la semaine derni\u00e8re, la quantit\u00e9 de contenu terroriste que nous avons supprim\u00e9 a consid\u00e9rablement augment\u00e9 au deuxi\u00e8me trimestre 2018. Nous avons \u00e9tendu l\u2019utilisation de notre syst\u00e8me de mise en correspondance de m\u00e9dias, une technologie qui d\u00e9tecte les photos extr\u00eamement semblables \u00e0 des contenus en infraction se trouvant d\u00e9j\u00e0 dans notre base de donn\u00e9es, afin de supprimer d\u2019anciennes images de propagande terroriste. Une autre partie de cette augmentation est due \u00e0 la correction d\u2019un bug qui nous emp\u00eachait de supprimer certains contenus en infraction. Nous avons \u00e9galement supprim\u00e9 plus de faux comptes au deuxi\u00e8me et au troisi\u00e8me trimestre qu\u2019au cours des trimestres pr\u00e9c\u00e9dents : 800 millions et 754 millions respectivement. La plupart de ces faux comptes ont \u00e9t\u00e9 cr\u00e9\u00e9s en masse pour des raisons commerciales. Nous sommes en mesure de supprimer la plupart de ces comptes seulement quelques minutes apr\u00e8s leur cr\u00e9ation, c\u2019est pourquoi la pr\u00e9dominance de faux comptes sur Facebook s\u2019est stabilis\u00e9e entre 3 et 4% des utilisateurs actifs mensuels, comme nous l\u2019avons rapport\u00e9 dans nos r\u00e9sultats du troisi\u00e8me trimestre. Ajout de nouvelles cat\u00e9gories En ce qui concerne les nouvelles cat\u00e9gories que nous avons ajout\u00e9es \u00e0 ce rapport (l\u2019intimidation et le harc\u00e8lement, et la nudit\u00e9 et exploitation sexuelle d\u2019enfants), les donn\u00e9es nous serviront de point de d\u00e9part pour mesurer nos progr\u00e8s contre ces infractions dans le temps. L\u2019intimidation et le harc\u00e8lement sont souvent des sujets personnels qui d\u00e9pendent du contexte, c\u2019est pourquoi nous avons g\u00e9n\u00e9ralement besoin que quelqu\u2019un nous signale ces comportements afin de pouvoir les identifier et les supprimer. Notre taux de d\u00e9tection proactive est donc inf\u00e9rieur pour ces deux cat\u00e9gories. Au dernier trimestre, nous avons agi sur 2,1 millions d\u2019\u00e9l\u00e9ments de contenu allant \u00e0 l\u2019encontre de nos politiques contre l&rsquo;intimidation et le harc\u00e8lement, et 15 % de ces \u00e9l\u00e9ments ont \u00e9t\u00e9 supprim\u00e9s avant signalement. Nous avons d\u00e9couvert ces contenus de mani\u00e8re proactive en recherchant d\u2019autres types d\u2019infractions. Pour les victimes, le fait de devoir signaler le contenu avant que nous ne puissions intervenir peut s\u2019av\u00e9rer bouleversant. Nous sommes d\u00e9termin\u00e9s \u00e0 am\u00e9liorer notre compr\u00e9hension de ce type d\u2019abus afin de mieux les d\u00e9tecter de mani\u00e8re proactive. Nos Standards de la communaut\u00e9 interdisent l\u2019exploitation d\u2019enfants. Mais, afin d\u2019\u00e9viter tout risque d\u2019abus, nous supprimons \u00e9galement certains contenus non sexuels, par exemple d&rsquo;innocentes photos d\u2019enfants dans leur bain, qui pourraient \u00eatre utilis\u00e9es de fa\u00e7on inad\u00e9quate dans un autre contexte. Au dernier trimestre seulement, nous avons supprim\u00e9 8,7 millions de contenus contraires \u00e0 nos politiques en mati\u00e8re de nudit\u00e9 infantile ou d\u2019exploitation sexuelle d\u2019enfants, et 99% ont \u00e9t\u00e9 supprim\u00e9s avant signalement. Nous avons \u00e9galement r\u00e9cemment annonc\u00e9 une nouvelle technologie pour lutter contre l\u2019exploitation d\u2019enfants sur Facebook, qui nous permettra d\u2019identifier davantage de contenus ill\u00e9gaux plus rapidement. De mani\u00e8re g\u00e9n\u00e9rale, nous savons que nous avons encore beaucoup \u00e0 faire en ce qui concerne la pr\u00e9vention des abus sur Facebook. Le machine learning et l\u2019intelligence artificielle continueront de nous aider \u00e0 d\u00e9tecter et \u00e0 supprimer les contenus ind\u00e9sirables de Facebook. La mesure de nos progr\u00e8s est \u00e9galement essentielle, car elle permet \u00e0 nos \u00e9quipes de se concentrer sur ces d\u00e9fis et d\u2019\u00e9valuer l\u2019efficacit\u00e9 de notre travail. Pour nous aider \u00e0 \u00e9valuer nos processus et nos m\u00e9thodes de traitement des donn\u00e9es, nous travaillons en collaboration avec le Data Transparency Advisory Group (DTAG), un groupe d\u2019experts en mati\u00e8re de mesure et de gouvernance. Nous continuerons d\u2019am\u00e9liorer ces donn\u00e9es dans le temps afin de les rendre plus pr\u00e9cises et plus pertinentes. Pour plus d&rsquo;informations : Data Snapshot Hate Speech Proactive Detection Graphic Violence Proactive Detection Press Call Transcript 11.13.18 Content Standard Forum Minutes","protected":false},"author":137019697,"featured_media":7326,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-7337","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-uncategorized"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Dans quelle mesure parvenons-nous \u00e0 appliquer nos Standards de la communaut\u00e9 ? | \u00c0 propos de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Dans quelle mesure parvenons-nous \u00e0 appliquer nos Standards de la communaut\u00e9 ? | \u00c0 propos de Meta\" \/>\n<meta property=\"og:description\" content=\"Pour publier en toute s\u00e9r\u00e9nit\u00e9, il faut avant tout se sentir en s\u00e9curit\u00e9. C\u2019est pourquoi, au cours de ces deux derni\u00e8res ann\u00e9es, nous avons massivement investi dans la technologie et les ressources humaines afin de supprimer plus efficacement les contenus ind\u00e9sirables. Au printemps dernier, nous avons pour la premi\u00e8re fois publi\u00e9 les directives internes que nos \u00e9quipes de v\u00e9rification utilisent pour appliquer nos Standards de la communaut\u00e9, afin de permettre \u00e0 notre communaut\u00e9 de mieux comprendre ce qui est autoris\u00e9 sur Facebook et pourquoi. En mai, nous avons publi\u00e9 des chiffres concernant la quantit\u00e9 de contenus en infraction que nous avons d\u00e9tect\u00e9s, afin de permettre \u00e0 tous d\u2019\u00e9valuer la qualit\u00e9 de notre travail. Aujourd\u2019hui, nous publions notre second rapport sur l\u2019application de nos Standards de la communaut\u00e9. Ce second rapport recense nos efforts d\u2019application de nos politiques contre la nudit\u00e9 et l&rsquo;activit\u00e9 sexuelle des adultes, les faux comptes, les discours haineux, le spam, la propagande terroriste, la violence visuelle, pour les six mois d&rsquo;avril \u00e0 septembre 2018. Le rapport comprend \u00e9galement deux nouvelles cat\u00e9gories de donn\u00e9es : l\u2019intimidation et le harc\u00e8lement, et la nudit\u00e9 et exploitation sexuelle d\u2019enfants. Recherche de contenu en infraction Nous parvenons de plus en plus souvent \u00e0 identifier le contenu en infraction de mani\u00e8re proactive avant que celui-ci ne soit signal\u00e9, en particulier en ce qui concerne les discours incitant \u00e0 la haine et la violence visuelle. Mais nous devons encore nous am\u00e9liorer dans certains domaines. Depuis notre dernier rapport, le pourcentage de discours incitant \u00e0 la haine que nous avons d\u00e9tect\u00e9s de mani\u00e8re proactive avant que ceux-ci ne soient signal\u00e9s a plus que doubl\u00e9, passant de 24 % \u00e0 52 %. La plupart des publications que nous avons supprim\u00e9es dans le cas de discours incitant \u00e0 la haine sont des publications que nous avons trouv\u00e9es avant que celles-ci ne soient signal\u00e9es. C\u2019est un effort essentiel pour nous. Nous continuons ainsi d\u2019investir consid\u00e9rablement l\u00e0 o\u00f9 notre travail n\u2019en est qu\u2019\u00e0 ses d\u00e9buts et pour am\u00e9liorer nos performances dans les langues moins r\u00e9pandues. Notre taux de d\u00e9tection proactive de la violence visuelle a augment\u00e9 de 25 points de pourcentage, passant de 72 % \u00e0 97 %. Suppression de contenu et de comptes en infraction Nous trouvons et nous supprimons de plus en plus de contenus ind\u00e9sirables. Au troisi\u00e8me trimestre 2018, nous avons agi sur 15,4 millions contenus comprenant de la violence visuelle. Cela comprenait la suppression du contenu, l&rsquo;affichage d&rsquo;un \u00e9cran d&rsquo;avertissement, la d\u00e9sactivation du compte incrimin\u00e9 et\/ou la transmission du contenu aux forces de l&rsquo;ordre. C&rsquo;est plus de 10 fois qu\u2019au quatri\u00e8me trimestre de 2017. Cette augmentation est en grande partie due \u00e0 l\u2019am\u00e9lioration de nos technologies, qui nous ont permis d\u2019appliquer automatiquement la m\u00eame action \u00e0 plusieurs contenus extr\u00eamement semblables, voire identiques. De la m\u00eame mani\u00e8re, comme nous l\u2019avons annonc\u00e9 la semaine derni\u00e8re, la quantit\u00e9 de contenu terroriste que nous avons supprim\u00e9 a consid\u00e9rablement augment\u00e9 au deuxi\u00e8me trimestre 2018. Nous avons \u00e9tendu l\u2019utilisation de notre syst\u00e8me de mise en correspondance de m\u00e9dias, une technologie qui d\u00e9tecte les photos extr\u00eamement semblables \u00e0 des contenus en infraction se trouvant d\u00e9j\u00e0 dans notre base de donn\u00e9es, afin de supprimer d\u2019anciennes images de propagande terroriste. Une autre partie de cette augmentation est due \u00e0 la correction d\u2019un bug qui nous emp\u00eachait de supprimer certains contenus en infraction. Nous avons \u00e9galement supprim\u00e9 plus de faux comptes au deuxi\u00e8me et au troisi\u00e8me trimestre qu\u2019au cours des trimestres pr\u00e9c\u00e9dents : 800 millions et 754 millions respectivement. La plupart de ces faux comptes ont \u00e9t\u00e9 cr\u00e9\u00e9s en masse pour des raisons commerciales. Nous sommes en mesure de supprimer la plupart de ces comptes seulement quelques minutes apr\u00e8s leur cr\u00e9ation, c\u2019est pourquoi la pr\u00e9dominance de faux comptes sur Facebook s\u2019est stabilis\u00e9e entre 3 et 4% des utilisateurs actifs mensuels, comme nous l\u2019avons rapport\u00e9 dans nos r\u00e9sultats du troisi\u00e8me trimestre. Ajout de nouvelles cat\u00e9gories En ce qui concerne les nouvelles cat\u00e9gories que nous avons ajout\u00e9es \u00e0 ce rapport (l\u2019intimidation et le harc\u00e8lement, et la nudit\u00e9 et exploitation sexuelle d\u2019enfants), les donn\u00e9es nous serviront de point de d\u00e9part pour mesurer nos progr\u00e8s contre ces infractions dans le temps. L\u2019intimidation et le harc\u00e8lement sont souvent des sujets personnels qui d\u00e9pendent du contexte, c\u2019est pourquoi nous avons g\u00e9n\u00e9ralement besoin que quelqu\u2019un nous signale ces comportements afin de pouvoir les identifier et les supprimer. Notre taux de d\u00e9tection proactive est donc inf\u00e9rieur pour ces deux cat\u00e9gories. Au dernier trimestre, nous avons agi sur 2,1 millions d\u2019\u00e9l\u00e9ments de contenu allant \u00e0 l\u2019encontre de nos politiques contre l&rsquo;intimidation et le harc\u00e8lement, et 15 % de ces \u00e9l\u00e9ments ont \u00e9t\u00e9 supprim\u00e9s avant signalement. Nous avons d\u00e9couvert ces contenus de mani\u00e8re proactive en recherchant d\u2019autres types d\u2019infractions. Pour les victimes, le fait de devoir signaler le contenu avant que nous ne puissions intervenir peut s\u2019av\u00e9rer bouleversant. Nous sommes d\u00e9termin\u00e9s \u00e0 am\u00e9liorer notre compr\u00e9hension de ce type d\u2019abus afin de mieux les d\u00e9tecter de mani\u00e8re proactive. Nos Standards de la communaut\u00e9 interdisent l\u2019exploitation d\u2019enfants. Mais, afin d\u2019\u00e9viter tout risque d\u2019abus, nous supprimons \u00e9galement certains contenus non sexuels, par exemple d&rsquo;innocentes photos d\u2019enfants dans leur bain, qui pourraient \u00eatre utilis\u00e9es de fa\u00e7on inad\u00e9quate dans un autre contexte. Au dernier trimestre seulement, nous avons supprim\u00e9 8,7 millions de contenus contraires \u00e0 nos politiques en mati\u00e8re de nudit\u00e9 infantile ou d\u2019exploitation sexuelle d\u2019enfants, et 99% ont \u00e9t\u00e9 supprim\u00e9s avant signalement. Nous avons \u00e9galement r\u00e9cemment annonc\u00e9 une nouvelle technologie pour lutter contre l\u2019exploitation d\u2019enfants sur Facebook, qui nous permettra d\u2019identifier davantage de contenus ill\u00e9gaux plus rapidement. De mani\u00e8re g\u00e9n\u00e9rale, nous savons que nous avons encore beaucoup \u00e0 faire en ce qui concerne la pr\u00e9vention des abus sur Facebook. Le machine learning et l\u2019intelligence artificielle continueront de nous aider \u00e0 d\u00e9tecter et \u00e0 supprimer les contenus ind\u00e9sirables de Facebook. La mesure de nos progr\u00e8s est \u00e9galement essentielle, car elle permet \u00e0 nos \u00e9quipes de se concentrer sur ces d\u00e9fis et d\u2019\u00e9valuer l\u2019efficacit\u00e9 de notre travail. Pour nous aider \u00e0 \u00e9valuer nos processus et nos m\u00e9thodes de traitement des donn\u00e9es, nous travaillons en collaboration avec le Data Transparency Advisory Group (DTAG), un groupe d\u2019experts en mati\u00e8re de mesure et de gouvernance. Nous continuerons d\u2019am\u00e9liorer ces donn\u00e9es dans le temps afin de les rendre plus pr\u00e9cises et plus pertinentes. Pour plus d&rsquo;informations : Data Snapshot Hate Speech Proactive Detection Graphic Violence Proactive Detection Press Call Transcript 11.13.18 Content Standard Forum Minutes\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/\" \/>\n<meta property=\"og:site_name\" content=\"\u00c0 propos de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2018-11-19T15:26:15+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2019-11-04T19:14:12+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540\" \/>\n\t<meta property=\"og:image:width\" content=\"960\" \/>\n\t<meta property=\"og:image:height\" content=\"540\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"elodielarcis\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"6 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/\"},\"author\":\"Facebook company\",\"headline\":\"Dans quelle mesure parvenons-nous \u00e0 appliquer nos Standards de la communaut\u00e9 ?\",\"datePublished\":\"2018-11-19T15:26:15+00:00\",\"dateModified\":\"2019-11-04T19:14:12+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/\"},\"wordCount\":1173,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540\",\"articleSection\":[\"Uncategorized\"],\"inLanguage\":\"fr-FR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/\",\"url\":\"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/\",\"name\":\"Dans quelle mesure parvenons-nous \u00e0 appliquer nos Standards de la communaut\u00e9 ? | \u00c0 propos de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540\",\"datePublished\":\"2018-11-19T15:26:15+00:00\",\"dateModified\":\"2019-11-04T19:14:12+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/\"]}],\"author\":\"\u00c0 propos de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540\",\"contentUrl\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540\",\"width\":960,\"height\":540},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/fr\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Dans quelle mesure parvenons-nous \u00e0 appliquer nos Standards de la communaut\u00e9 ?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/fr\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"\u00c0 propos de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/fr\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/fr\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/fr\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Dans quelle mesure parvenons-nous \u00e0 appliquer nos Standards de la communaut\u00e9 ? | \u00c0 propos de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/","og_locale":"fr_FR","og_type":"article","og_title":"Dans quelle mesure parvenons-nous \u00e0 appliquer nos Standards de la communaut\u00e9 ? | \u00c0 propos de Meta","og_description":"Pour publier en toute s\u00e9r\u00e9nit\u00e9, il faut avant tout se sentir en s\u00e9curit\u00e9. C\u2019est pourquoi, au cours de ces deux derni\u00e8res ann\u00e9es, nous avons massivement investi dans la technologie et les ressources humaines afin de supprimer plus efficacement les contenus ind\u00e9sirables. Au printemps dernier, nous avons pour la premi\u00e8re fois publi\u00e9 les directives internes que nos \u00e9quipes de v\u00e9rification utilisent pour appliquer nos Standards de la communaut\u00e9, afin de permettre \u00e0 notre communaut\u00e9 de mieux comprendre ce qui est autoris\u00e9 sur Facebook et pourquoi. En mai, nous avons publi\u00e9 des chiffres concernant la quantit\u00e9 de contenus en infraction que nous avons d\u00e9tect\u00e9s, afin de permettre \u00e0 tous d\u2019\u00e9valuer la qualit\u00e9 de notre travail. Aujourd\u2019hui, nous publions notre second rapport sur l\u2019application de nos Standards de la communaut\u00e9. Ce second rapport recense nos efforts d\u2019application de nos politiques contre la nudit\u00e9 et l&rsquo;activit\u00e9 sexuelle des adultes, les faux comptes, les discours haineux, le spam, la propagande terroriste, la violence visuelle, pour les six mois d&rsquo;avril \u00e0 septembre 2018. Le rapport comprend \u00e9galement deux nouvelles cat\u00e9gories de donn\u00e9es : l\u2019intimidation et le harc\u00e8lement, et la nudit\u00e9 et exploitation sexuelle d\u2019enfants. Recherche de contenu en infraction Nous parvenons de plus en plus souvent \u00e0 identifier le contenu en infraction de mani\u00e8re proactive avant que celui-ci ne soit signal\u00e9, en particulier en ce qui concerne les discours incitant \u00e0 la haine et la violence visuelle. Mais nous devons encore nous am\u00e9liorer dans certains domaines. Depuis notre dernier rapport, le pourcentage de discours incitant \u00e0 la haine que nous avons d\u00e9tect\u00e9s de mani\u00e8re proactive avant que ceux-ci ne soient signal\u00e9s a plus que doubl\u00e9, passant de 24 % \u00e0 52 %. La plupart des publications que nous avons supprim\u00e9es dans le cas de discours incitant \u00e0 la haine sont des publications que nous avons trouv\u00e9es avant que celles-ci ne soient signal\u00e9es. C\u2019est un effort essentiel pour nous. Nous continuons ainsi d\u2019investir consid\u00e9rablement l\u00e0 o\u00f9 notre travail n\u2019en est qu\u2019\u00e0 ses d\u00e9buts et pour am\u00e9liorer nos performances dans les langues moins r\u00e9pandues. Notre taux de d\u00e9tection proactive de la violence visuelle a augment\u00e9 de 25 points de pourcentage, passant de 72 % \u00e0 97 %. Suppression de contenu et de comptes en infraction Nous trouvons et nous supprimons de plus en plus de contenus ind\u00e9sirables. Au troisi\u00e8me trimestre 2018, nous avons agi sur 15,4 millions contenus comprenant de la violence visuelle. Cela comprenait la suppression du contenu, l&rsquo;affichage d&rsquo;un \u00e9cran d&rsquo;avertissement, la d\u00e9sactivation du compte incrimin\u00e9 et\/ou la transmission du contenu aux forces de l&rsquo;ordre. C&rsquo;est plus de 10 fois qu\u2019au quatri\u00e8me trimestre de 2017. Cette augmentation est en grande partie due \u00e0 l\u2019am\u00e9lioration de nos technologies, qui nous ont permis d\u2019appliquer automatiquement la m\u00eame action \u00e0 plusieurs contenus extr\u00eamement semblables, voire identiques. De la m\u00eame mani\u00e8re, comme nous l\u2019avons annonc\u00e9 la semaine derni\u00e8re, la quantit\u00e9 de contenu terroriste que nous avons supprim\u00e9 a consid\u00e9rablement augment\u00e9 au deuxi\u00e8me trimestre 2018. Nous avons \u00e9tendu l\u2019utilisation de notre syst\u00e8me de mise en correspondance de m\u00e9dias, une technologie qui d\u00e9tecte les photos extr\u00eamement semblables \u00e0 des contenus en infraction se trouvant d\u00e9j\u00e0 dans notre base de donn\u00e9es, afin de supprimer d\u2019anciennes images de propagande terroriste. Une autre partie de cette augmentation est due \u00e0 la correction d\u2019un bug qui nous emp\u00eachait de supprimer certains contenus en infraction. Nous avons \u00e9galement supprim\u00e9 plus de faux comptes au deuxi\u00e8me et au troisi\u00e8me trimestre qu\u2019au cours des trimestres pr\u00e9c\u00e9dents : 800 millions et 754 millions respectivement. La plupart de ces faux comptes ont \u00e9t\u00e9 cr\u00e9\u00e9s en masse pour des raisons commerciales. Nous sommes en mesure de supprimer la plupart de ces comptes seulement quelques minutes apr\u00e8s leur cr\u00e9ation, c\u2019est pourquoi la pr\u00e9dominance de faux comptes sur Facebook s\u2019est stabilis\u00e9e entre 3 et 4% des utilisateurs actifs mensuels, comme nous l\u2019avons rapport\u00e9 dans nos r\u00e9sultats du troisi\u00e8me trimestre. Ajout de nouvelles cat\u00e9gories En ce qui concerne les nouvelles cat\u00e9gories que nous avons ajout\u00e9es \u00e0 ce rapport (l\u2019intimidation et le harc\u00e8lement, et la nudit\u00e9 et exploitation sexuelle d\u2019enfants), les donn\u00e9es nous serviront de point de d\u00e9part pour mesurer nos progr\u00e8s contre ces infractions dans le temps. L\u2019intimidation et le harc\u00e8lement sont souvent des sujets personnels qui d\u00e9pendent du contexte, c\u2019est pourquoi nous avons g\u00e9n\u00e9ralement besoin que quelqu\u2019un nous signale ces comportements afin de pouvoir les identifier et les supprimer. Notre taux de d\u00e9tection proactive est donc inf\u00e9rieur pour ces deux cat\u00e9gories. Au dernier trimestre, nous avons agi sur 2,1 millions d\u2019\u00e9l\u00e9ments de contenu allant \u00e0 l\u2019encontre de nos politiques contre l&rsquo;intimidation et le harc\u00e8lement, et 15 % de ces \u00e9l\u00e9ments ont \u00e9t\u00e9 supprim\u00e9s avant signalement. Nous avons d\u00e9couvert ces contenus de mani\u00e8re proactive en recherchant d\u2019autres types d\u2019infractions. Pour les victimes, le fait de devoir signaler le contenu avant que nous ne puissions intervenir peut s\u2019av\u00e9rer bouleversant. Nous sommes d\u00e9termin\u00e9s \u00e0 am\u00e9liorer notre compr\u00e9hension de ce type d\u2019abus afin de mieux les d\u00e9tecter de mani\u00e8re proactive. Nos Standards de la communaut\u00e9 interdisent l\u2019exploitation d\u2019enfants. Mais, afin d\u2019\u00e9viter tout risque d\u2019abus, nous supprimons \u00e9galement certains contenus non sexuels, par exemple d&rsquo;innocentes photos d\u2019enfants dans leur bain, qui pourraient \u00eatre utilis\u00e9es de fa\u00e7on inad\u00e9quate dans un autre contexte. Au dernier trimestre seulement, nous avons supprim\u00e9 8,7 millions de contenus contraires \u00e0 nos politiques en mati\u00e8re de nudit\u00e9 infantile ou d\u2019exploitation sexuelle d\u2019enfants, et 99% ont \u00e9t\u00e9 supprim\u00e9s avant signalement. Nous avons \u00e9galement r\u00e9cemment annonc\u00e9 une nouvelle technologie pour lutter contre l\u2019exploitation d\u2019enfants sur Facebook, qui nous permettra d\u2019identifier davantage de contenus ill\u00e9gaux plus rapidement. De mani\u00e8re g\u00e9n\u00e9rale, nous savons que nous avons encore beaucoup \u00e0 faire en ce qui concerne la pr\u00e9vention des abus sur Facebook. Le machine learning et l\u2019intelligence artificielle continueront de nous aider \u00e0 d\u00e9tecter et \u00e0 supprimer les contenus ind\u00e9sirables de Facebook. La mesure de nos progr\u00e8s est \u00e9galement essentielle, car elle permet \u00e0 nos \u00e9quipes de se concentrer sur ces d\u00e9fis et d\u2019\u00e9valuer l\u2019efficacit\u00e9 de notre travail. Pour nous aider \u00e0 \u00e9valuer nos processus et nos m\u00e9thodes de traitement des donn\u00e9es, nous travaillons en collaboration avec le Data Transparency Advisory Group (DTAG), un groupe d\u2019experts en mati\u00e8re de mesure et de gouvernance. Nous continuerons d\u2019am\u00e9liorer ces donn\u00e9es dans le temps afin de les rendre plus pr\u00e9cises et plus pertinentes. Pour plus d&rsquo;informations : Data Snapshot Hate Speech Proactive Detection Graphic Violence Proactive Detection Press Call Transcript 11.13.18 Content Standard Forum Minutes","og_url":"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/","og_site_name":"\u00c0 propos de Meta","article_published_time":"2018-11-19T15:26:15+00:00","article_modified_time":"2019-11-04T19:14:12+00:00","og_image":[{"url":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540","width":960,"height":540,"type":"image\/png"}],"author":"elodielarcis","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"6 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/"},"author":"Facebook company","headline":"Dans quelle mesure parvenons-nous \u00e0 appliquer nos Standards de la communaut\u00e9 ?","datePublished":"2018-11-19T15:26:15+00:00","dateModified":"2019-11-04T19:14:12+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/"},"wordCount":1173,"publisher":{"@id":"https:\/\/about.fb.com\/fr\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540","articleSection":["Uncategorized"],"inLanguage":"fr-FR"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/","url":"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/","name":"Dans quelle mesure parvenons-nous \u00e0 appliquer nos Standards de la communaut\u00e9 ? | \u00c0 propos de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/fr\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540","datePublished":"2018-11-19T15:26:15+00:00","dateModified":"2019-11-04T19:14:12+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/"]}],"author":"\u00c0 propos de Meta"},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/#primaryimage","url":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540","contentUrl":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540","width":960,"height":540},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/fr\/news\/2018\/11\/dans-quelle-mesure-parvenons-nous-a-appliquer-nos-standards-de-la-communaute\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/fr\/"},{"@type":"ListItem","position":2,"name":"Dans quelle mesure parvenons-nous \u00e0 appliquer nos Standards de la communaut\u00e9 ?"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/fr\/#website","url":"https:\/\/about.fb.com\/news\/","name":"\u00c0 propos de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/fr\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/fr\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/fr\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/fr\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2018\/11\/transparency-report-header-2x.png?fit=960%2C540","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts\/7337","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/users\/137019697"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/comments?post=7337"}],"version-history":[{"count":5,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts\/7337\/revisions"}],"predecessor-version":[{"id":8126,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts\/7337\/revisions\/8126"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/media\/7326"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/media?parent=7337"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/categories?post=7337"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/tags?post=7337"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}