{"id":6860,"date":"2018-05-15T16:04:45","date_gmt":"2018-05-15T14:04:45","guid":{"rendered":"http:\/\/fr.newsroom.fb.com\/?p=6860"},"modified":"2020-02-25T06:55:44","modified_gmt":"2020-02-25T05:55:44","slug":"facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme","status":"publish","type":"post","link":"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/","title":{"rendered":"Facebook publie pour la premi\u00e8re fois les chiffres concernant la gestion des contenus sur sa plateforme"},"content":{"rendered":"<ul>\n<li><strong>3,5 millions <\/strong>de contenus <strong>violents ou haineux<\/strong> supprim\u00e9s au premier trimestre 2018<\/li>\n<li><strong>21 millions<\/strong> de contenus comprenant <strong>de la<\/strong> <strong>nudit\u00e9 adulte ou de la pornographie<\/strong> supprim\u00e9s au premier trimestre 2018<\/li>\n<li><strong>837 millions <\/strong>de contenus relatifs \u00e0 des <strong>spams<\/strong> supprim\u00e9s au premier trimestre 2018<\/li>\n<\/ul>\n<p><strong>Facebook organise aujourd&rsquo;hui \u00e0 Paris un forum de dialogue et de d\u00e9bat avec les acteurs fran\u00e7ais autour de ses r\u00e8gles de gestion des contenus, dites Standards de la Communaut\u00e9, en pr\u00e9sence de Monika Bickert, directrice de la politique mondiale des contenus de Facebook. <\/strong><\/p>\n<p>Nous sommes r\u00e9guli\u00e8rement questionn\u00e9s sur la mani\u00e8re dont nous d\u00e9cidons de ce qui est autoris\u00e9 sur Facebook, et sur le nombre de contenus qui enfreignent les r\u00e8gles \u00e9nonc\u00e9es dans les Standards de la communaut\u00e9. Depuis des ann\u00e9es, nous avons des Standards de la Communaut\u00e9 qui expliquent ce qui est autoris\u00e9, ou pas, sur Facebook. Il y a trois semaines, pour la premi\u00e8re fois, nous avons publi\u00e9 <a href=\"https:\/\/www.facebook.com\/communitystandards\/\">nos directives internes que nous utilisons pour appliquer ces normes<\/a>. <strong>Aujourd&rsquo;hui, nous publions <\/strong><a href=\"https:\/\/transparency.facebook.com\/\"><strong>un rapport contenant des chiffres in\u00e9dits sur l&rsquo;application de ces r\u00e8gles<\/strong><\/a><strong> afin que vous puissiez juger de notre performance par vous-m\u00eame.<\/strong><\/p>\n<p><a href=\"https:\/\/fileshare-emea.bm.com\/dl\/jiHG26uhFE\">Ce rapport<\/a> couvre nos efforts d\u2019application des Standards de la communaut\u00e9 entre octobre 2017 et mars 2018 et couvre six domaines : la violence visuelle, la nudit\u00e9 adulte et la pornographie, la propagande terroriste, le discours de haine, le spam et les faux comptes. Les chiffres s&rsquo;int\u00e9ressent \u00e0 :<\/p>\n<ul>\n<li>La quantit\u00e9 de contenus que les gens ont vus et qui \u00e9taient \u00e0 l\u2019encontre de nos r\u00e8gles<\/li>\n<li>La quantit\u00e9 de contenus que nous avons supprim\u00e9s<\/li>\n<li>La quantit\u00e9 de contenus que nous avons d\u00e9tect\u00e9s de mani\u00e8re proactive \u00e0 l&rsquo;aide de notre technologie, c\u2019est-\u00e0-dire avant m\u00eame que les utilisateurs de Facebook ne les signalent<\/li>\n<\/ul>\n<h5>Quelques chiffres cl\u00e9s<\/h5>\n<ul>\n<li><strong>Les spams :<\/strong> Nous avons retir\u00e9 <strong>837 millions de contenus relatifs \u00e0 des spams<\/strong> au premier trimestre 2018, dont pr\u00e8s de 100 % ont \u00e9t\u00e9 d\u00e9tect\u00e9s et signal\u00e9s avant que quiconque ne les signale. (<a href=\"https:\/\/www.facebook.com\/communitystandards\/integrity_authenticity\/spam\">Extrait de nos Standards de la Communaut\u00e9<\/a>)<\/li>\n<li><strong>Les faux comptes :<\/strong> La cl\u00e9 de la lutte contre les spams est de supprimer les faux comptes qui les propagent. Au premier trimestre, nous avons d\u00e9sactiv\u00e9 environ <strong>583 millions de faux comptes<\/strong>, dont la plupart ont \u00e9t\u00e9 d\u00e9sactiv\u00e9s quelques minutes apr\u00e8s leur inscription. Ceci s&rsquo;ajoute aux millions de tentatives de cr\u00e9ation de faux comptes que nous emp\u00eachons quotidiennement de s&rsquo;inscrire sur Facebook. Dans l&rsquo;ensemble, nous estimons qu&rsquo;environ 3 \u00e0 4% des comptes Facebook actifs sur le site au cours de cette p\u00e9riode \u00e9taient des faux comptes.\u00a0 (<a href=\"https:\/\/www.facebook.com\/communitystandards\/integrity_authenticity\/misrepresentation\">Extrait de nos Standards de la Communaut\u00e9<\/a>)<\/li>\n<li><strong>La nudit\u00e9 adulte ou la pornographie<\/strong> <strong>: <\/strong>Nous avons supprim\u00e9 <strong>21 millions de contenus<\/strong> comprenant de la nudit\u00e9 adulte ou de la pornographie au premier trimestre 2018, <strong>dont<\/strong> <strong>96% ont \u00e9t\u00e9 identifi\u00e9s et signal\u00e9s par notre technologie avant qu\u2019ils ne soient signal\u00e9s par notre communaut\u00e9<\/strong><strong>.<\/strong> Dans l&rsquo;ensemble, nous estimons que sur 10 000 contenus visionn\u00e9s sur Facebook, 7 \u00e0 9 n\u2019\u00e9taient pas conformes avec nos politiques en mati\u00e8re de nudit\u00e9 adulte et de pornographie. (<a href=\"https:\/\/www.facebook.com\/communitystandards\/objectionable_content\/adult_nudity_sexual_activity\">Extrait de nos Standards de la Communaut\u00e9<\/a>)<\/li>\n<li><strong>Les<\/strong> <strong>images violentes et les discours haineux<\/strong> <strong>:<\/strong> Au premier trimestre 2018, nous avons supprim\u00e9 ou appos\u00e9 des avertissements sur environ <strong>3,5 millions de contenus violents, dont 86% ont \u00e9t\u00e9 identifi\u00e9s par notre technologie avant d&rsquo;\u00eatre signal\u00e9s \u00e0 Facebook<\/strong><strong>.<\/strong> Par comparaison, nous avons supprim\u00e9 2,5 millions de contenus comportant des discours haineux au premier trimestre 2018, dont 38% ont \u00e9t\u00e9 signal\u00e9s par notre technologie. Nous travaillons \u00e0 l&rsquo;am\u00e9lioration de cette technologie. (<a href=\"https:\/\/www.facebook.com\/communitystandards\/violence_criminal_behavior\/\">Extrait de nos Standards de la Communaut\u00e9<\/a>)<\/li>\n<\/ul>\n<p><strong>Comme \u00e9voqu\u00e9 par Mark Zuckerberg lors de la conf\u00e9rence F8, nous avons encore beaucoup de travail \u00e0 accomplir pour pr\u00e9venir les abus sur notre plateforme.<\/strong> C&rsquo;est en partie parce que la technologie comme l&rsquo;intelligence artificielle, bien que prometteuse, est encore loin d&rsquo;\u00eatre efficace pour la plupart des contenus non conformes \u00e0 nos politiques. En effet, le contexte prend une place importante dans la d\u00e9cision. Par exemple, l&rsquo;intelligence artificielle n&rsquo;est pas encore assez efficace pour d\u00e9terminer si quelqu&rsquo;un appelle \u00e0 la haine ou s\u2019il d\u00e9crit une situation v\u00e9cue \u00e0 des fins de sensibilisation de l\u2019opinion publique. Et plus g\u00e9n\u00e9ralement, comme expliqu\u00e9 dans ce <a href=\"https:\/\/newsroom.fb.com\/news\/2018\/05\/removing-content-using-ai\/\">blogpost<\/a>, la technologie a besoin de grandes quantit\u00e9s de donn\u00e9es de formation pour reconna\u00eetre des sch\u00e9mas de comportement significatifs, ce qui nous manque souvent dans des langues moins r\u00e9pandues ou pour des cas qui ne sont pas signal\u00e9s r\u00e9guli\u00e8rement. De plus, dans de nombreux domaines, qu&rsquo;il s&rsquo;agisse de spams, de pornographie ou de faux comptes, nous sommes confront\u00e9s \u00e0 des adversaires sophistiqu\u00e9s qui changent continuellement de tactiques pour contourner nos contr\u00f4les, ce qui signifie que nous devons continuellement adapter nos efforts. C&rsquo;est pourquoi nous investissons massivement dans la croissance de nos \u00e9quipes et dans une meilleure technologie, pour rendre Facebook plus s\u00fbr pour tout le monde.<\/p>\n<p>C&rsquo;est aussi la raison pour laquelle nous publions ces informations. Nous croyons que la transparence tend \u00e0 accro\u00eetre la responsabilisation et la responsabilit\u00e9 au fil du temps, et la publication de ces informations nous encourage \u00e0 nous am\u00e9liorer plus rapidement. Ce sont les m\u00eames donn\u00e9es que nous utilisons pour mesurer nos progr\u00e8s en interne &#8211; et vous pouvez maintenant le voir pour juger de nos progr\u00e8s par vous-m\u00eames.<\/p>\n<p>Alex Schultz, notre vice-pr\u00e9sident en charge de l&rsquo;analyse des donn\u00e9es, explique plus en d\u00e9tail comment nous mesurons exactement ce qui se passe sur Facebook dans ce blogpost et dans notre guide pour \u00ab <a href=\"https:\/\/transparency.facebook.com\/\">Comprendre le rapport sur l&rsquo;application des Standards de la communaut\u00e9 <\/a>\u00bb. Mais il est important de souligner qu&rsquo;il s&rsquo;agit d&rsquo;un travail que nous menons en continu, et que nous adapterons notre m\u00e9thodologie au fur et \u00e0 mesure que nous en apprendrons davantage sur ce qui est important et ce qui fonctionne.<\/p>\n<h4>Forum Facebook aujourd&rsquo;hui \u00e0 Paris\u00a0: dialogue et d\u00e9bat des acteurs fran\u00e7ais autour de Standards de la Communaut\u00e9 de Facebook<\/h4>\n<p>Lors de la publication de <a href=\"https:\/\/about.fb.com\/fr\/2018\/04\/standards-de-la-communaute-facebook-publie-ses-directives-internes-et-elargit-son-processus-de-recours-aux-contenus-individuels\/\">nos directives internes<\/a> d&rsquo;application des Standards de la Communaut\u00e9, nous avions annonc\u00e9 la tenue d&rsquo;une s\u00e9rie d\u2019\u00e9v\u00e9nements publics de dialogue et de d\u00e9bat autour des Standards de la Communaut\u00e9, en Allemagne, en France, au Royaume-Uni, en Inde, \u00e0 Singapour, aux Etats-Unis et dans d\u2019autres pays afin de recueillir les commentaires des utilisateurs.<\/p>\n<p><strong>C&rsquo;est aujourd&rsquo;hui, mardi 15 mai, qu&rsquo;a lieu<\/strong> <strong>le premier Forum Facebook \u00e0 Paris.<\/strong> Monika Bickert, Directrice de la politique de contenus de Facebook et de nombreux experts ext\u00e9rieurs, \u00e9changent sur les \u00e9volutions de la politique de mod\u00e9ration des contenus de Facebook et les enjeux associ\u00e9s. Les participants ont ainsi l&rsquo;opportunit\u00e9 de s\u2019immerger dans la politique de contenus de Facebook autour d&rsquo;exemples concrets, de poser leurs questions aux experts Facebook mais aussi \u00e0 des experts ext\u00e9rieurs, et de participer \u00e0 des ateliers de r\u00e9flexion sur la politique de mod\u00e9ration des contenus.<\/p>\n<p>Plusieurs ateliers th\u00e9matiques sont organis\u00e9s :<\/p>\n<ul>\n<li><strong>\u00ab\u00a0Violence et comportement criminel\u00a0\u00bb<\/strong>, anim\u00e9 par Erin Saltman, Responsable de la politique de lutte contre le terrorisme pour la r\u00e9gion EMEA<\/li>\n<li><strong>\u00ab\u00a0S\u00e9curit\u00e9\u00a0\u00bb<\/strong>, anim\u00e9 par Julie de Bailliencourt, Directrice mondiale de la s\u00e9curit\u00e9 des utilisateurs<\/li>\n<li><strong>\u00ab\u00a0Contenus de haine\u00a0\u00bb<\/strong>, anim\u00e9 par Monika Bickert, Directrice mondiale de la politique de contenus<\/li>\n<\/ul>\n<p>De nombreux experts participent au Sommet, comme par exemple J\u00e9r\u00e9mie Mani, Pr\u00e9sident de la soci\u00e9t\u00e9 Netino, sp\u00e9cialis\u00e9e dans la mod\u00e9ration des espaces participatifs, Fr\u00e9d\u00e9ric Potier, directeur de la DILCRAH en charge de la lutte contre les contenus de haine, ou encore Marc Hecker, expert de la lutte anti-terroriste.<\/p>\n<h3>Ressources<\/h3>\n<ul>\n<li>Suivez le livestream de cet \u00e9v\u00e9nement ici : <a href=\"https:\/\/www.facebook.com\/fbsafety\/videos\/1659752750729223\/\">https:\/\/www.facebook.com\/fbsafety\/videos\/1659752750729223\/<\/a><\/li>\n<li>Retrouvez toutes les informations sur l&rsquo;\u00e9v\u00e9nement sur cette page : <a href=\"https:\/\/facebookforums.fb.com\/fr\/\">https:\/\/facebookforums.fb.com\/fr\/<\/a><\/li>\n<li>Lisez le blog d&rsquo;Alex Schulz (Hard Questions: How Do We Measure Our Efforts to Keep Bad Content off Facebook?) sur le sujet :\u00a0<a href=\"https:\/\/newsroom.fb.com\/news\/2018\/05\/measuring-our-efforts\/\">https:\/\/newsroom.fb.com\/news\/2018\/05\/measuring-our-efforts\/<\/a><\/li>\n<li>Pour plus d&rsquo;informations, consultez le <a href=\"https:\/\/fileshare-emea.bm.com\/dl\/jiHG26uhFE\">Rapport pr\u00e9liminaire d&rsquo;application de nos Standards de la Communaut\u00e9<\/a>.<\/li>\n<li>Plus d&rsquo;informations sur les Standards de la Communaut\u00e9 et nos directives internes d&rsquo;application : <a href=\"https:\/\/about.fb.com\/fr\/2018\/04\/standards-de-la-communaute-facebook-publie-ses-directives-internes-et-elargit-son-processus-de-recours-aux-contenus-individuels\/\">https:\/\/about.fb.com\/fr\/2018\/04\/standards-de-la-communaute-facebook-publie-ses-directives-internes-et-elargit-son-processus-de-recours-aux-contenus-individuels\/<\/a><\/li>\n<\/ul>\n<hr \/>\n<h2>Rapport sur l&rsquo;application des Standards de la Communaute Facebook\u00a0: Chiffres Cl\u00e9s<\/h2>\n<p><strong>Le rapport que nous pr\u00e9sentons aujourd&rsquo;hui couvre nos efforts d\u2019application des Standards de la communaut\u00e9 entre octobre 2017 et mars 2018 et s\u2019attarde sur les six domaines suivants : la violence visuelle, la nudit\u00e9 adultes et la pornographie, la propagande terroriste, le discours de haine, le spam et les faux comptes.<\/strong><\/p>\n<p><strong>Violence visuelle<\/strong><\/p>\n<ul>\n<li>Au premier trimestre 2018<strong>, <\/strong><strong>0,22 % \u00e0 0,27 %<\/strong> (sur 10 000 visualisation de contenus, une estimation de 22 \u00e0 27 contenaient de la violence visuelle) des vues \u00e9taient li\u00e9es \u00e0 des contenus qui enfreignaient nos politiques en mati\u00e8re de violence visuelle. L\u2019estimation \u00e9tait de 0,16 % \u00e0 0,19 % au quatri\u00e8me trimestre de 2017.<\/li>\n<li>Au premier trimestre, nous avons pris des mesures contre <strong>3,4 millions de contenus li\u00e9s \u00e0 de la violence visuelle<\/strong>. Il s&rsquo;agit \u00e0 la fois de la suppression de contenus et d&rsquo;actions prises contre des contenus en les identifiant comme d\u00e9rangeants pour cause de violence visuelle. La grande majorit\u00e9 de ces contenus n\u2019ont pas \u00e9t\u00e9 supprim\u00e9s mais ils ont \u00e9t\u00e9 accompagn\u00e9s d\u2019un message d&rsquo;avertissement afin de pr\u00e9venir et de prot\u00e9ger les utilisateurs sensibles.<\/li>\n<li>Au premier trimestre 2018, nous avons <strong>identifi\u00e9 et signal\u00e9 proactivement 85,6 % de contenus<\/strong> sur lesquels nous avons par la suite pris des mesures, avant que les utilisateurs nous les signalent.<\/li>\n<\/ul>\n<p><strong>Nudit\u00e9 adulte et pornographie (hors contenus li\u00e9s \u00e0 l&rsquo;exploitation sexuelle et \u00e0 la p\u00e9dopornographie)<\/strong><\/p>\n<ul>\n<li>Au premier trimestre 2018, de <strong>0,07 % \u00e0 0,09 %<\/strong> des consultations ont port\u00e9 sur des contenus qui enfreignaient nos normes relatives \u00e0 la nudit\u00e9 et \u00e0 l&rsquo;activit\u00e9 sexuelle des adultes. Ce chiffre est l\u00e9g\u00e8rement sup\u00e9rieur \u00e0 l&rsquo;estimation du 4\u00e8me trimestre 2017 qui \u00e9tait de 0,06 % \u00e0 0,08 %.<\/li>\n<li>Au premier trimestre 2018, nous avons pris des mesures \u00e0 l\u2019encontre de <strong>21 millions de contenus<\/strong>, chiffre similaire au quatri\u00e8me trimestre 2017.<\/li>\n<li>Au premier trimestre 2018, nous avons <strong>identifi\u00e9 et signal\u00e9 proactivement 95,8 % des contenus<\/strong> sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne les signalent. Nous avons agi sur les 4,2 % restants parce que les utilisateurs nous les ont signal\u00e9s en premier.<\/li>\n<\/ul>\n<p><strong>Propagande terroriste (ISIS, Al-Qa\u00efda et ses affili\u00e9s)<\/strong><\/p>\n<ul>\n<li>Par rapport \u00e0 d&rsquo;autres types de violation comme la violence visuelle, le <strong>nombre de vues<\/strong> de contenu de propagande terroriste li\u00e9 \u00e0 ISIS, \u00e0 Al-Qa\u00efda et \u00e0 leurs affili\u00e9s sur Facebook est <strong>extr\u00eamement faible<\/strong>.<\/li>\n<li>Au premier trimestre 2018, nous avons pris des mesures \u00e0 l&rsquo;encontre de <strong>1,9 million de contenus<\/strong>, ce qui repr\u00e9sente une augmentation de 73 % par rapport au 1,1 million de contenus identifi\u00e9s au 4\u00e8me trimestre de 2017. Cette augmentation est due \u00e0 l&rsquo;am\u00e9lioration de notre capacit\u00e9 \u00e0 identifier des contenus gr\u00e2ce \u00e0 la technologie de d\u00e9tection de photos, qui d\u00e9tecte \u00e0 la fois le contenu ancien et le contenu nouvellement publi\u00e9.<\/li>\n<li>Au premier trimestre 2018, nous avons <strong>identifi\u00e9 et signal\u00e9 proactivement 99,5 % de contenus<\/strong> sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne le signalent. Nous avons agi sur 0,05 % des contenus restants suite aux signalements d\u2019utilisateurs.<\/li>\n<\/ul>\n<p><strong>Discours de haine<\/strong><\/p>\n<ul>\n<li>Aucun chiffre n&rsquo;indique la pr\u00e9valence de la propagande haineuse sur Facebook.<\/li>\n<li>Au 1er trimestre 2018, nous avons pris des mesures \u00e0 l\u2019encontre d\u2019environ <strong>2,5 millions de contenus<\/strong>, soit une hausse d&rsquo;environ 56 % par rapport \u00e0 environ 1,6 million de contenus au quatri\u00e8me trimestre 2017.<\/li>\n<li>Au 1er trimestre 2018, nous avons <strong>identifi\u00e9 et signal\u00e9 proactivement environ 38 % de contenus<\/strong> sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs nous les signalent. Nous avons agi sur les 62 % restants parce que les utilisateurs les ont d\u00e9clar\u00e9s en amont.<\/li>\n<li>Les contenus impliquants des discours de haine exigent souvent un examen d\u00e9taill\u00e9 par nos examinateurs form\u00e9s pour comprendre le contexte et d\u00e9cider si le contenu enfreint les normes, ainsi nous en identifions et signalons moins proactivement et nous nous fions davantage aux signalements de nos utilisateurs que pour d\u2019autres cas de violations de nos normes.<\/li>\n<\/ul>\n<p><strong>Spams<\/strong><\/p>\n<ul>\n<li>Au 1er trimestre 2018, nous avons pris des mesures \u00e0 l&rsquo;encontre de <strong>837 millions de contenus<\/strong>, ce chiffre est en hausse de 15 % par rapport aux 727 millions de contenus au quatri\u00e8me trimestre de 2017.<\/li>\n<li>Au 1er trimestre 2018, nous avons <strong>identifi\u00e9 et signal\u00e9 proactivement pr\u00e8s de 100 % des contenus<\/strong> sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne les signalent.<\/li>\n<\/ul>\n<p><strong>Faux comptes<\/strong><\/p>\n<ul>\n<li>Nous estimons que les faux comptes repr\u00e9sentaient environ <strong>3 % \u00e0 4 % des utilisateurs actifs<\/strong> <strong>mensuels<\/strong> (MAU) sur Facebook au 1er trimestre 2018 et au 4\u00e8me trimestre 2017.<\/li>\n<li>Au 1er trimestre 2018, nous avons <strong>d\u00e9sactiv\u00e9 583 millions faux comptes<\/strong>, ce chiffre est en baisse de 16 % par rapport aux 694 millions d\u00e9sactiv\u00e9s au 4\u00e8me trimestre 2017.<\/li>\n<li>Au 1er trimestre de 2018, nous avons <strong>identifi\u00e9 et signal\u00e9 proactivement 98,5 % des comptes <\/strong>sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne les signalent.<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"3,5 millions de contenus violents ou haineux supprim\u00e9s au premier trimestre 2018 21 millions de contenus comprenant de la nudit\u00e9 adulte ou de la pornographie supprim\u00e9s au premier trimestre 2018 837 millions de contenus relatifs \u00e0 des spams supprim\u00e9s au premier trimestre 2018 Facebook organise aujourd&rsquo;hui \u00e0 Paris un forum de dialogue et de d\u00e9bat avec les acteurs fran\u00e7ais autour de ses r\u00e8gles de gestion des contenus, dites Standards de la Communaut\u00e9, en pr\u00e9sence de Monika Bickert, directrice de la politique mondiale des contenus de Facebook. Nous sommes r\u00e9guli\u00e8rement questionn\u00e9s sur la mani\u00e8re dont nous d\u00e9cidons de ce qui est autoris\u00e9 sur Facebook, et sur le nombre de contenus qui enfreignent les r\u00e8gles \u00e9nonc\u00e9es dans les Standards de la communaut\u00e9. Depuis des ann\u00e9es, nous avons des Standards de la Communaut\u00e9 qui expliquent ce qui est autoris\u00e9, ou pas, sur Facebook. Il y a trois semaines, pour la premi\u00e8re fois, nous avons publi\u00e9 nos directives internes que nous utilisons pour appliquer ces normes. Aujourd&rsquo;hui, nous publions un rapport contenant des chiffres in\u00e9dits sur l&rsquo;application de ces r\u00e8gles afin que vous puissiez juger de notre performance par vous-m\u00eame. Ce rapport couvre nos efforts d\u2019application des Standards de la communaut\u00e9 entre octobre 2017 et mars 2018 et couvre six domaines : la violence visuelle, la nudit\u00e9 adulte et la pornographie, la propagande terroriste, le discours de haine, le spam et les faux comptes. Les chiffres s&rsquo;int\u00e9ressent \u00e0 : La quantit\u00e9 de contenus que les gens ont vus et qui \u00e9taient \u00e0 l\u2019encontre de nos r\u00e8gles La quantit\u00e9 de contenus que nous avons supprim\u00e9s La quantit\u00e9 de contenus que nous avons d\u00e9tect\u00e9s de mani\u00e8re proactive \u00e0 l&rsquo;aide de notre technologie, c\u2019est-\u00e0-dire avant m\u00eame que les utilisateurs de Facebook ne les signalent Quelques chiffres cl\u00e9s Les spams : Nous avons retir\u00e9 837 millions de contenus relatifs \u00e0 des spams au premier trimestre 2018, dont pr\u00e8s de 100 % ont \u00e9t\u00e9 d\u00e9tect\u00e9s et signal\u00e9s avant que quiconque ne les signale. (Extrait de nos Standards de la Communaut\u00e9) Les faux comptes : La cl\u00e9 de la lutte contre les spams est de supprimer les faux comptes qui les propagent. Au premier trimestre, nous avons d\u00e9sactiv\u00e9 environ 583 millions de faux comptes, dont la plupart ont \u00e9t\u00e9 d\u00e9sactiv\u00e9s quelques minutes apr\u00e8s leur inscription. Ceci s&rsquo;ajoute aux millions de tentatives de cr\u00e9ation de faux comptes que nous emp\u00eachons quotidiennement de s&rsquo;inscrire sur Facebook. Dans l&rsquo;ensemble, nous estimons qu&rsquo;environ 3 \u00e0 4% des comptes Facebook actifs sur le site au cours de cette p\u00e9riode \u00e9taient des faux comptes.\u00a0 (Extrait de nos Standards de la Communaut\u00e9) La nudit\u00e9 adulte ou la pornographie : Nous avons supprim\u00e9 21 millions de contenus comprenant de la nudit\u00e9 adulte ou de la pornographie au premier trimestre 2018, dont 96% ont \u00e9t\u00e9 identifi\u00e9s et signal\u00e9s par notre technologie avant qu\u2019ils ne soient signal\u00e9s par notre communaut\u00e9. Dans l&rsquo;ensemble, nous estimons que sur 10 000 contenus visionn\u00e9s sur Facebook, 7 \u00e0 9 n\u2019\u00e9taient pas conformes avec nos politiques en mati\u00e8re de nudit\u00e9 adulte et de pornographie. (Extrait de nos Standards de la Communaut\u00e9) Les images violentes et les discours haineux : Au premier trimestre 2018, nous avons supprim\u00e9 ou appos\u00e9 des avertissements sur environ 3,5 millions de contenus violents, dont 86% ont \u00e9t\u00e9 identifi\u00e9s par notre technologie avant d&rsquo;\u00eatre signal\u00e9s \u00e0 Facebook. Par comparaison, nous avons supprim\u00e9 2,5 millions de contenus comportant des discours haineux au premier trimestre 2018, dont 38% ont \u00e9t\u00e9 signal\u00e9s par notre technologie. Nous travaillons \u00e0 l&rsquo;am\u00e9lioration de cette technologie. (Extrait de nos Standards de la Communaut\u00e9) Comme \u00e9voqu\u00e9 par Mark Zuckerberg lors de la conf\u00e9rence F8, nous avons encore beaucoup de travail \u00e0 accomplir pour pr\u00e9venir les abus sur notre plateforme. C&rsquo;est en partie parce que la technologie comme l&rsquo;intelligence artificielle, bien que prometteuse, est encore loin d&rsquo;\u00eatre efficace pour la plupart des contenus non conformes \u00e0 nos politiques. En effet, le contexte prend une place importante dans la d\u00e9cision. Par exemple, l&rsquo;intelligence artificielle n&rsquo;est pas encore assez efficace pour d\u00e9terminer si quelqu&rsquo;un appelle \u00e0 la haine ou s\u2019il d\u00e9crit une situation v\u00e9cue \u00e0 des fins de sensibilisation de l\u2019opinion publique. Et plus g\u00e9n\u00e9ralement, comme expliqu\u00e9 dans ce blogpost, la technologie a besoin de grandes quantit\u00e9s de donn\u00e9es de formation pour reconna\u00eetre des sch\u00e9mas de comportement significatifs, ce qui nous manque souvent dans des langues moins r\u00e9pandues ou pour des cas qui ne sont pas signal\u00e9s r\u00e9guli\u00e8rement. De plus, dans de nombreux domaines, qu&rsquo;il s&rsquo;agisse de spams, de pornographie ou de faux comptes, nous sommes confront\u00e9s \u00e0 des adversaires sophistiqu\u00e9s qui changent continuellement de tactiques pour contourner nos contr\u00f4les, ce qui signifie que nous devons continuellement adapter nos efforts. C&rsquo;est pourquoi nous investissons massivement dans la croissance de nos \u00e9quipes et dans une meilleure technologie, pour rendre Facebook plus s\u00fbr pour tout le monde. C&rsquo;est aussi la raison pour laquelle nous publions ces informations. Nous croyons que la transparence tend \u00e0 accro\u00eetre la responsabilisation et la responsabilit\u00e9 au fil du temps, et la publication de ces informations nous encourage \u00e0 nous am\u00e9liorer plus rapidement. Ce sont les m\u00eames donn\u00e9es que nous utilisons pour mesurer nos progr\u00e8s en interne &#8211; et vous pouvez maintenant le voir pour juger de nos progr\u00e8s par vous-m\u00eames. Alex Schultz, notre vice-pr\u00e9sident en charge de l&rsquo;analyse des donn\u00e9es, explique plus en d\u00e9tail comment nous mesurons exactement ce qui se passe sur Facebook dans ce blogpost et dans notre guide pour \u00ab Comprendre le rapport sur l&rsquo;application des Standards de la communaut\u00e9 \u00bb. Mais il est important de souligner qu&rsquo;il s&rsquo;agit d&rsquo;un travail que nous menons en continu, et que nous adapterons notre m\u00e9thodologie au fur et \u00e0 mesure que nous en apprendrons davantage sur ce qui est important et ce qui fonctionne. Forum Facebook aujourd&rsquo;hui \u00e0 Paris\u00a0: dialogue et d\u00e9bat des acteurs fran\u00e7ais autour de Standards de la Communaut\u00e9 de Facebook Lors de la publication de nos directives internes d&rsquo;application des Standards de la Communaut\u00e9, nous avions annonc\u00e9 la tenue d&rsquo;une s\u00e9rie d\u2019\u00e9v\u00e9nements publics de dialogue et de d\u00e9bat autour des Standards de la Communaut\u00e9, en Allemagne, en France, au Royaume-Uni, en Inde, \u00e0 Singapour, aux Etats-Unis et dans d\u2019autres pays afin de recueillir les commentaires des utilisateurs. C&rsquo;est aujourd&rsquo;hui, mardi 15 mai, qu&rsquo;a lieu le premier Forum Facebook \u00e0 Paris. Monika Bickert, Directrice de la politique de contenus de Facebook et de nombreux experts ext\u00e9rieurs, \u00e9changent sur les \u00e9volutions de la politique de mod\u00e9ration des contenus de Facebook et les enjeux associ\u00e9s. Les participants ont ainsi l&rsquo;opportunit\u00e9 de s\u2019immerger dans la politique de contenus de Facebook autour d&rsquo;exemples concrets, de poser leurs questions aux experts Facebook mais aussi \u00e0 des experts ext\u00e9rieurs, et de participer \u00e0 des ateliers de r\u00e9flexion sur la politique de mod\u00e9ration des contenus. Plusieurs ateliers th\u00e9matiques sont organis\u00e9s : \u00ab\u00a0Violence et comportement criminel\u00a0\u00bb, anim\u00e9 par Erin Saltman, Responsable de la politique de lutte contre le terrorisme pour la r\u00e9gion EMEA \u00ab\u00a0S\u00e9curit\u00e9\u00a0\u00bb, anim\u00e9 par Julie de Bailliencourt, Directrice mondiale de la s\u00e9curit\u00e9 des utilisateurs \u00ab\u00a0Contenus de haine\u00a0\u00bb, anim\u00e9 par Monika Bickert, Directrice mondiale de la politique de contenus De nombreux experts participent au Sommet, comme par exemple J\u00e9r\u00e9mie Mani, Pr\u00e9sident de la soci\u00e9t\u00e9 Netino, sp\u00e9cialis\u00e9e dans la mod\u00e9ration des espaces participatifs, Fr\u00e9d\u00e9ric Potier, directeur de la DILCRAH en charge de la lutte contre les contenus de haine, ou encore Marc Hecker, expert de la lutte anti-terroriste. Ressources Suivez le livestream de cet \u00e9v\u00e9nement ici : <a href=\"https:\/\/www.facebook.com\/fbsafety\/videos\/1659752750729223\/\" rel=\"nofollow\">https:\/\/www.facebook.com\/fbsafety\/videos\/1659752750729223\/<\/a> Retrouvez toutes les informations sur l&rsquo;\u00e9v\u00e9nement sur cette page : <a href=\"https:\/\/facebookforums.fb.com\/fr\/\" rel=\"nofollow\">https:\/\/facebookforums.fb.com\/fr\/<\/a> Lisez le blog d&rsquo;Alex Schulz (Hard Questions: How Do We Measure Our Efforts to Keep Bad Content off Facebook?) sur le sujet :\u00a0https:\/\/newsroom.fb.com\/news\/2018\/05\/measuring-our-efforts\/ Pour plus d&rsquo;informations, consultez le Rapport pr\u00e9liminaire d&rsquo;application de nos Standards de la Communaut\u00e9. Plus d&rsquo;informations sur les Standards de la Communaut\u00e9 et nos directives internes d&rsquo;application : <a href=\"https:\/\/about.fb.com\/fr\/2018\/04\/standards-de-la-communaute-facebook-publie-ses-directives-internes-et-elargit-son-processus-de-recours-aux-contenus-individuels\/\">https:\/\/about.fb.com\/fr\/2018\/04\/standards-de-la-communaute-facebook-publie-ses-directives-internes-et-elargit-son-processus-de-recours-aux-contenus-individuels\/<\/a> Rapport sur l&rsquo;application des Standards de la Communaute Facebook\u00a0: Chiffres Cl\u00e9s Le rapport que nous pr\u00e9sentons aujourd&rsquo;hui couvre nos efforts d\u2019application des Standards de la communaut\u00e9 entre octobre 2017 et mars 2018 et s\u2019attarde sur les six domaines suivants : la violence visuelle, la nudit\u00e9 adultes et la pornographie, la propagande terroriste, le discours de haine, le spam et les faux comptes. Violence visuelle Au premier trimestre 2018, 0,22 % \u00e0 0,27 % (sur 10 000 visualisation de contenus, une estimation de 22 \u00e0 27 contenaient de la violence visuelle) des vues \u00e9taient li\u00e9es \u00e0 des contenus qui enfreignaient nos politiques en mati\u00e8re de violence visuelle. L\u2019estimation \u00e9tait de 0,16 % \u00e0 0,19 % au quatri\u00e8me trimestre de 2017. Au premier trimestre, nous avons pris des mesures contre 3,4 millions de contenus li\u00e9s \u00e0 de la violence visuelle. Il s&rsquo;agit \u00e0 la fois de la suppression de contenus et d&rsquo;actions prises contre des contenus en les identifiant comme d\u00e9rangeants pour cause de violence visuelle. La grande majorit\u00e9 de ces contenus n\u2019ont pas \u00e9t\u00e9 supprim\u00e9s mais ils ont \u00e9t\u00e9 accompagn\u00e9s d\u2019un message d&rsquo;avertissement afin de pr\u00e9venir et de prot\u00e9ger les utilisateurs sensibles. Au premier trimestre 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement 85,6 % de contenus sur lesquels nous avons par la suite pris des mesures, avant que les utilisateurs nous les signalent. Nudit\u00e9 adulte et pornographie (hors contenus li\u00e9s \u00e0 l&rsquo;exploitation sexuelle et \u00e0 la p\u00e9dopornographie) Au premier trimestre 2018, de 0,07 % \u00e0 0,09 % des consultations ont port\u00e9 sur des contenus qui enfreignaient nos normes relatives \u00e0 la nudit\u00e9 et \u00e0 l&rsquo;activit\u00e9 sexuelle des adultes. Ce chiffre est l\u00e9g\u00e8rement sup\u00e9rieur \u00e0 l&rsquo;estimation du 4\u00e8me trimestre 2017 qui \u00e9tait de 0,06 % \u00e0 0,08 %. Au premier trimestre 2018, nous avons pris des mesures \u00e0 l\u2019encontre de 21 millions de contenus, chiffre similaire au quatri\u00e8me trimestre 2017. Au premier trimestre 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement 95,8 % des contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne les signalent. Nous avons agi sur les 4,2 % restants parce que les utilisateurs nous les ont signal\u00e9s en premier. Propagande terroriste (ISIS, Al-Qa\u00efda et ses affili\u00e9s) Par rapport \u00e0 d&rsquo;autres types de violation comme la violence visuelle, le nombre de vues de contenu de propagande terroriste li\u00e9 \u00e0 ISIS, \u00e0 Al-Qa\u00efda et \u00e0 leurs affili\u00e9s sur Facebook est extr\u00eamement faible. Au premier trimestre 2018, nous avons pris des mesures \u00e0 l&rsquo;encontre de 1,9 million de contenus, ce qui repr\u00e9sente une augmentation de 73 % par rapport au 1,1 million de contenus identifi\u00e9s au 4\u00e8me trimestre de 2017. Cette augmentation est due \u00e0 l&rsquo;am\u00e9lioration de notre capacit\u00e9 \u00e0 identifier des contenus gr\u00e2ce \u00e0 la technologie de d\u00e9tection de photos, qui d\u00e9tecte \u00e0 la fois le contenu ancien et le contenu nouvellement publi\u00e9. Au premier trimestre 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement 99,5 % de contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne le signalent. Nous avons agi sur 0,05 % des contenus restants suite aux signalements d\u2019utilisateurs. Discours de haine Aucun chiffre n&rsquo;indique la pr\u00e9valence de la propagande haineuse sur Facebook. Au 1er trimestre 2018, nous avons pris des mesures \u00e0 l\u2019encontre d\u2019environ 2,5 millions de contenus, soit une hausse d&rsquo;environ 56 % par rapport \u00e0 environ 1,6 million de contenus au quatri\u00e8me trimestre 2017. Au 1er trimestre 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement environ 38 % de contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs nous les signalent. Nous avons agi sur les 62 % restants parce que les utilisateurs les ont d\u00e9clar\u00e9s en amont. Les contenus impliquants des discours de haine exigent souvent un examen d\u00e9taill\u00e9 par nos examinateurs form\u00e9s pour comprendre le contexte et d\u00e9cider si le contenu enfreint les normes, ainsi nous en identifions et signalons moins proactivement et nous nous fions davantage aux signalements de nos utilisateurs que pour d\u2019autres cas de violations de nos normes. Spams Au 1er trimestre 2018, nous avons pris des mesures \u00e0 l&rsquo;encontre de 837 millions de contenus, ce chiffre est en hausse de 15 % par rapport aux 727 millions de contenus au quatri\u00e8me trimestre de 2017. Au 1er trimestre 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement pr\u00e8s de 100 % des contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne les signalent. Faux comptes Nous estimons que les faux comptes repr\u00e9sentaient environ 3 % \u00e0 4 % des utilisateurs actifs mensuels (MAU) sur Facebook au 1er trimestre 2018 et au 4\u00e8me trimestre 2017. Au 1er trimestre 2018, nous avons d\u00e9sactiv\u00e9 583 millions faux comptes, ce chiffre est en baisse de 16 % par rapport aux 694 millions d\u00e9sactiv\u00e9s au 4\u00e8me trimestre 2017. Au 1er trimestre de 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement 98,5 % des comptes sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne les signalent.","protected":false},"author":112028226,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243897990,19698],"tags":[],"class_list":["post-6860","post","type-post","status-publish","format-standard","hentry","category-actualites","category-evenements"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Facebook publie pour la premi\u00e8re fois les chiffres concernant la gestion des contenus sur sa plateforme | \u00c0 propos de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Facebook publie pour la premi\u00e8re fois les chiffres concernant la gestion des contenus sur sa plateforme | \u00c0 propos de Meta\" \/>\n<meta property=\"og:description\" content=\"3,5 millions de contenus violents ou haineux supprim\u00e9s au premier trimestre 2018 21 millions de contenus comprenant de la nudit\u00e9 adulte ou de la pornographie supprim\u00e9s au premier trimestre 2018 837 millions de contenus relatifs \u00e0 des spams supprim\u00e9s au premier trimestre 2018 Facebook organise aujourd&rsquo;hui \u00e0 Paris un forum de dialogue et de d\u00e9bat avec les acteurs fran\u00e7ais autour de ses r\u00e8gles de gestion des contenus, dites Standards de la Communaut\u00e9, en pr\u00e9sence de Monika Bickert, directrice de la politique mondiale des contenus de Facebook. Nous sommes r\u00e9guli\u00e8rement questionn\u00e9s sur la mani\u00e8re dont nous d\u00e9cidons de ce qui est autoris\u00e9 sur Facebook, et sur le nombre de contenus qui enfreignent les r\u00e8gles \u00e9nonc\u00e9es dans les Standards de la communaut\u00e9. Depuis des ann\u00e9es, nous avons des Standards de la Communaut\u00e9 qui expliquent ce qui est autoris\u00e9, ou pas, sur Facebook. Il y a trois semaines, pour la premi\u00e8re fois, nous avons publi\u00e9 nos directives internes que nous utilisons pour appliquer ces normes. Aujourd&rsquo;hui, nous publions un rapport contenant des chiffres in\u00e9dits sur l&rsquo;application de ces r\u00e8gles afin que vous puissiez juger de notre performance par vous-m\u00eame. Ce rapport couvre nos efforts d\u2019application des Standards de la communaut\u00e9 entre octobre 2017 et mars 2018 et couvre six domaines : la violence visuelle, la nudit\u00e9 adulte et la pornographie, la propagande terroriste, le discours de haine, le spam et les faux comptes. Les chiffres s&rsquo;int\u00e9ressent \u00e0 : La quantit\u00e9 de contenus que les gens ont vus et qui \u00e9taient \u00e0 l\u2019encontre de nos r\u00e8gles La quantit\u00e9 de contenus que nous avons supprim\u00e9s La quantit\u00e9 de contenus que nous avons d\u00e9tect\u00e9s de mani\u00e8re proactive \u00e0 l&rsquo;aide de notre technologie, c\u2019est-\u00e0-dire avant m\u00eame que les utilisateurs de Facebook ne les signalent Quelques chiffres cl\u00e9s Les spams : Nous avons retir\u00e9 837 millions de contenus relatifs \u00e0 des spams au premier trimestre 2018, dont pr\u00e8s de 100 % ont \u00e9t\u00e9 d\u00e9tect\u00e9s et signal\u00e9s avant que quiconque ne les signale. (Extrait de nos Standards de la Communaut\u00e9) Les faux comptes : La cl\u00e9 de la lutte contre les spams est de supprimer les faux comptes qui les propagent. Au premier trimestre, nous avons d\u00e9sactiv\u00e9 environ 583 millions de faux comptes, dont la plupart ont \u00e9t\u00e9 d\u00e9sactiv\u00e9s quelques minutes apr\u00e8s leur inscription. Ceci s&rsquo;ajoute aux millions de tentatives de cr\u00e9ation de faux comptes que nous emp\u00eachons quotidiennement de s&rsquo;inscrire sur Facebook. Dans l&rsquo;ensemble, nous estimons qu&rsquo;environ 3 \u00e0 4% des comptes Facebook actifs sur le site au cours de cette p\u00e9riode \u00e9taient des faux comptes.\u00a0 (Extrait de nos Standards de la Communaut\u00e9) La nudit\u00e9 adulte ou la pornographie : Nous avons supprim\u00e9 21 millions de contenus comprenant de la nudit\u00e9 adulte ou de la pornographie au premier trimestre 2018, dont 96% ont \u00e9t\u00e9 identifi\u00e9s et signal\u00e9s par notre technologie avant qu\u2019ils ne soient signal\u00e9s par notre communaut\u00e9. Dans l&rsquo;ensemble, nous estimons que sur 10 000 contenus visionn\u00e9s sur Facebook, 7 \u00e0 9 n\u2019\u00e9taient pas conformes avec nos politiques en mati\u00e8re de nudit\u00e9 adulte et de pornographie. (Extrait de nos Standards de la Communaut\u00e9) Les images violentes et les discours haineux : Au premier trimestre 2018, nous avons supprim\u00e9 ou appos\u00e9 des avertissements sur environ 3,5 millions de contenus violents, dont 86% ont \u00e9t\u00e9 identifi\u00e9s par notre technologie avant d&rsquo;\u00eatre signal\u00e9s \u00e0 Facebook. Par comparaison, nous avons supprim\u00e9 2,5 millions de contenus comportant des discours haineux au premier trimestre 2018, dont 38% ont \u00e9t\u00e9 signal\u00e9s par notre technologie. Nous travaillons \u00e0 l&rsquo;am\u00e9lioration de cette technologie. (Extrait de nos Standards de la Communaut\u00e9) Comme \u00e9voqu\u00e9 par Mark Zuckerberg lors de la conf\u00e9rence F8, nous avons encore beaucoup de travail \u00e0 accomplir pour pr\u00e9venir les abus sur notre plateforme. C&rsquo;est en partie parce que la technologie comme l&rsquo;intelligence artificielle, bien que prometteuse, est encore loin d&rsquo;\u00eatre efficace pour la plupart des contenus non conformes \u00e0 nos politiques. En effet, le contexte prend une place importante dans la d\u00e9cision. Par exemple, l&rsquo;intelligence artificielle n&rsquo;est pas encore assez efficace pour d\u00e9terminer si quelqu&rsquo;un appelle \u00e0 la haine ou s\u2019il d\u00e9crit une situation v\u00e9cue \u00e0 des fins de sensibilisation de l\u2019opinion publique. Et plus g\u00e9n\u00e9ralement, comme expliqu\u00e9 dans ce blogpost, la technologie a besoin de grandes quantit\u00e9s de donn\u00e9es de formation pour reconna\u00eetre des sch\u00e9mas de comportement significatifs, ce qui nous manque souvent dans des langues moins r\u00e9pandues ou pour des cas qui ne sont pas signal\u00e9s r\u00e9guli\u00e8rement. De plus, dans de nombreux domaines, qu&rsquo;il s&rsquo;agisse de spams, de pornographie ou de faux comptes, nous sommes confront\u00e9s \u00e0 des adversaires sophistiqu\u00e9s qui changent continuellement de tactiques pour contourner nos contr\u00f4les, ce qui signifie que nous devons continuellement adapter nos efforts. C&rsquo;est pourquoi nous investissons massivement dans la croissance de nos \u00e9quipes et dans une meilleure technologie, pour rendre Facebook plus s\u00fbr pour tout le monde. C&rsquo;est aussi la raison pour laquelle nous publions ces informations. Nous croyons que la transparence tend \u00e0 accro\u00eetre la responsabilisation et la responsabilit\u00e9 au fil du temps, et la publication de ces informations nous encourage \u00e0 nous am\u00e9liorer plus rapidement. Ce sont les m\u00eames donn\u00e9es que nous utilisons pour mesurer nos progr\u00e8s en interne &#8211; et vous pouvez maintenant le voir pour juger de nos progr\u00e8s par vous-m\u00eames. Alex Schultz, notre vice-pr\u00e9sident en charge de l&rsquo;analyse des donn\u00e9es, explique plus en d\u00e9tail comment nous mesurons exactement ce qui se passe sur Facebook dans ce blogpost et dans notre guide pour \u00ab Comprendre le rapport sur l&rsquo;application des Standards de la communaut\u00e9 \u00bb. Mais il est important de souligner qu&rsquo;il s&rsquo;agit d&rsquo;un travail que nous menons en continu, et que nous adapterons notre m\u00e9thodologie au fur et \u00e0 mesure que nous en apprendrons davantage sur ce qui est important et ce qui fonctionne. Forum Facebook aujourd&rsquo;hui \u00e0 Paris\u00a0: dialogue et d\u00e9bat des acteurs fran\u00e7ais autour de Standards de la Communaut\u00e9 de Facebook Lors de la publication de nos directives internes d&rsquo;application des Standards de la Communaut\u00e9, nous avions annonc\u00e9 la tenue d&rsquo;une s\u00e9rie d\u2019\u00e9v\u00e9nements publics de dialogue et de d\u00e9bat autour des Standards de la Communaut\u00e9, en Allemagne, en France, au Royaume-Uni, en Inde, \u00e0 Singapour, aux Etats-Unis et dans d\u2019autres pays afin de recueillir les commentaires des utilisateurs. C&rsquo;est aujourd&rsquo;hui, mardi 15 mai, qu&rsquo;a lieu le premier Forum Facebook \u00e0 Paris. Monika Bickert, Directrice de la politique de contenus de Facebook et de nombreux experts ext\u00e9rieurs, \u00e9changent sur les \u00e9volutions de la politique de mod\u00e9ration des contenus de Facebook et les enjeux associ\u00e9s. Les participants ont ainsi l&rsquo;opportunit\u00e9 de s\u2019immerger dans la politique de contenus de Facebook autour d&rsquo;exemples concrets, de poser leurs questions aux experts Facebook mais aussi \u00e0 des experts ext\u00e9rieurs, et de participer \u00e0 des ateliers de r\u00e9flexion sur la politique de mod\u00e9ration des contenus. Plusieurs ateliers th\u00e9matiques sont organis\u00e9s : \u00ab\u00a0Violence et comportement criminel\u00a0\u00bb, anim\u00e9 par Erin Saltman, Responsable de la politique de lutte contre le terrorisme pour la r\u00e9gion EMEA \u00ab\u00a0S\u00e9curit\u00e9\u00a0\u00bb, anim\u00e9 par Julie de Bailliencourt, Directrice mondiale de la s\u00e9curit\u00e9 des utilisateurs \u00ab\u00a0Contenus de haine\u00a0\u00bb, anim\u00e9 par Monika Bickert, Directrice mondiale de la politique de contenus De nombreux experts participent au Sommet, comme par exemple J\u00e9r\u00e9mie Mani, Pr\u00e9sident de la soci\u00e9t\u00e9 Netino, sp\u00e9cialis\u00e9e dans la mod\u00e9ration des espaces participatifs, Fr\u00e9d\u00e9ric Potier, directeur de la DILCRAH en charge de la lutte contre les contenus de haine, ou encore Marc Hecker, expert de la lutte anti-terroriste. Ressources Suivez le livestream de cet \u00e9v\u00e9nement ici : https:\/\/www.facebook.com\/fbsafety\/videos\/1659752750729223\/ Retrouvez toutes les informations sur l&rsquo;\u00e9v\u00e9nement sur cette page : https:\/\/facebookforums.fb.com\/fr\/ Lisez le blog d&rsquo;Alex Schulz (Hard Questions: How Do We Measure Our Efforts to Keep Bad Content off Facebook?) sur le sujet :\u00a0https:\/\/newsroom.fb.com\/news\/2018\/05\/measuring-our-efforts\/ Pour plus d&rsquo;informations, consultez le Rapport pr\u00e9liminaire d&rsquo;application de nos Standards de la Communaut\u00e9. Plus d&rsquo;informations sur les Standards de la Communaut\u00e9 et nos directives internes d&rsquo;application : https:\/\/about.fb.com\/fr\/2018\/04\/standards-de-la-communaute-facebook-publie-ses-directives-internes-et-elargit-son-processus-de-recours-aux-contenus-individuels\/ Rapport sur l&rsquo;application des Standards de la Communaute Facebook\u00a0: Chiffres Cl\u00e9s Le rapport que nous pr\u00e9sentons aujourd&rsquo;hui couvre nos efforts d\u2019application des Standards de la communaut\u00e9 entre octobre 2017 et mars 2018 et s\u2019attarde sur les six domaines suivants : la violence visuelle, la nudit\u00e9 adultes et la pornographie, la propagande terroriste, le discours de haine, le spam et les faux comptes. Violence visuelle Au premier trimestre 2018, 0,22 % \u00e0 0,27 % (sur 10 000 visualisation de contenus, une estimation de 22 \u00e0 27 contenaient de la violence visuelle) des vues \u00e9taient li\u00e9es \u00e0 des contenus qui enfreignaient nos politiques en mati\u00e8re de violence visuelle. L\u2019estimation \u00e9tait de 0,16 % \u00e0 0,19 % au quatri\u00e8me trimestre de 2017. Au premier trimestre, nous avons pris des mesures contre 3,4 millions de contenus li\u00e9s \u00e0 de la violence visuelle. Il s&rsquo;agit \u00e0 la fois de la suppression de contenus et d&rsquo;actions prises contre des contenus en les identifiant comme d\u00e9rangeants pour cause de violence visuelle. La grande majorit\u00e9 de ces contenus n\u2019ont pas \u00e9t\u00e9 supprim\u00e9s mais ils ont \u00e9t\u00e9 accompagn\u00e9s d\u2019un message d&rsquo;avertissement afin de pr\u00e9venir et de prot\u00e9ger les utilisateurs sensibles. Au premier trimestre 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement 85,6 % de contenus sur lesquels nous avons par la suite pris des mesures, avant que les utilisateurs nous les signalent. Nudit\u00e9 adulte et pornographie (hors contenus li\u00e9s \u00e0 l&rsquo;exploitation sexuelle et \u00e0 la p\u00e9dopornographie) Au premier trimestre 2018, de 0,07 % \u00e0 0,09 % des consultations ont port\u00e9 sur des contenus qui enfreignaient nos normes relatives \u00e0 la nudit\u00e9 et \u00e0 l&rsquo;activit\u00e9 sexuelle des adultes. Ce chiffre est l\u00e9g\u00e8rement sup\u00e9rieur \u00e0 l&rsquo;estimation du 4\u00e8me trimestre 2017 qui \u00e9tait de 0,06 % \u00e0 0,08 %. Au premier trimestre 2018, nous avons pris des mesures \u00e0 l\u2019encontre de 21 millions de contenus, chiffre similaire au quatri\u00e8me trimestre 2017. Au premier trimestre 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement 95,8 % des contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne les signalent. Nous avons agi sur les 4,2 % restants parce que les utilisateurs nous les ont signal\u00e9s en premier. Propagande terroriste (ISIS, Al-Qa\u00efda et ses affili\u00e9s) Par rapport \u00e0 d&rsquo;autres types de violation comme la violence visuelle, le nombre de vues de contenu de propagande terroriste li\u00e9 \u00e0 ISIS, \u00e0 Al-Qa\u00efda et \u00e0 leurs affili\u00e9s sur Facebook est extr\u00eamement faible. Au premier trimestre 2018, nous avons pris des mesures \u00e0 l&rsquo;encontre de 1,9 million de contenus, ce qui repr\u00e9sente une augmentation de 73 % par rapport au 1,1 million de contenus identifi\u00e9s au 4\u00e8me trimestre de 2017. Cette augmentation est due \u00e0 l&rsquo;am\u00e9lioration de notre capacit\u00e9 \u00e0 identifier des contenus gr\u00e2ce \u00e0 la technologie de d\u00e9tection de photos, qui d\u00e9tecte \u00e0 la fois le contenu ancien et le contenu nouvellement publi\u00e9. Au premier trimestre 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement 99,5 % de contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne le signalent. Nous avons agi sur 0,05 % des contenus restants suite aux signalements d\u2019utilisateurs. Discours de haine Aucun chiffre n&rsquo;indique la pr\u00e9valence de la propagande haineuse sur Facebook. Au 1er trimestre 2018, nous avons pris des mesures \u00e0 l\u2019encontre d\u2019environ 2,5 millions de contenus, soit une hausse d&rsquo;environ 56 % par rapport \u00e0 environ 1,6 million de contenus au quatri\u00e8me trimestre 2017. Au 1er trimestre 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement environ 38 % de contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs nous les signalent. Nous avons agi sur les 62 % restants parce que les utilisateurs les ont d\u00e9clar\u00e9s en amont. Les contenus impliquants des discours de haine exigent souvent un examen d\u00e9taill\u00e9 par nos examinateurs form\u00e9s pour comprendre le contexte et d\u00e9cider si le contenu enfreint les normes, ainsi nous en identifions et signalons moins proactivement et nous nous fions davantage aux signalements de nos utilisateurs que pour d\u2019autres cas de violations de nos normes. Spams Au 1er trimestre 2018, nous avons pris des mesures \u00e0 l&rsquo;encontre de 837 millions de contenus, ce chiffre est en hausse de 15 % par rapport aux 727 millions de contenus au quatri\u00e8me trimestre de 2017. Au 1er trimestre 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement pr\u00e8s de 100 % des contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne les signalent. Faux comptes Nous estimons que les faux comptes repr\u00e9sentaient environ 3 % \u00e0 4 % des utilisateurs actifs mensuels (MAU) sur Facebook au 1er trimestre 2018 et au 4\u00e8me trimestre 2017. Au 1er trimestre 2018, nous avons d\u00e9sactiv\u00e9 583 millions faux comptes, ce chiffre est en baisse de 16 % par rapport aux 694 millions d\u00e9sactiv\u00e9s au 4\u00e8me trimestre 2017. Au 1er trimestre de 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement 98,5 % des comptes sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne les signalent.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/\" \/>\n<meta property=\"og:site_name\" content=\"\u00c0 propos de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2018-05-15T14:04:45+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2020-02-25T05:55:44+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"prgrand\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"11 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/\"},\"author\":\"Facebook company\",\"headline\":\"Facebook publie pour la premi\u00e8re fois les chiffres concernant la gestion des contenus sur sa plateforme\",\"datePublished\":\"2018-05-15T14:04:45+00:00\",\"dateModified\":\"2020-02-25T05:55:44+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/\"},\"wordCount\":2196,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#organization\"},\"articleSection\":[\"Actualit\u00e9s\",\"\u00c9v\u00e8nements\"],\"inLanguage\":\"fr-FR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/\",\"url\":\"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/\",\"name\":\"Facebook publie pour la premi\u00e8re fois les chiffres concernant la gestion des contenus sur sa plateforme | \u00c0 propos de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#website\"},\"datePublished\":\"2018-05-15T14:04:45+00:00\",\"dateModified\":\"2020-02-25T05:55:44+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/\"]}],\"author\":\"\u00c0 propos de Meta\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/fr\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Facebook publie pour la premi\u00e8re fois les chiffres concernant la gestion des contenus sur sa plateforme\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/fr\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"\u00c0 propos de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/fr\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/fr\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/fr\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Facebook publie pour la premi\u00e8re fois les chiffres concernant la gestion des contenus sur sa plateforme | \u00c0 propos de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/","og_locale":"fr_FR","og_type":"article","og_title":"Facebook publie pour la premi\u00e8re fois les chiffres concernant la gestion des contenus sur sa plateforme | \u00c0 propos de Meta","og_description":"3,5 millions de contenus violents ou haineux supprim\u00e9s au premier trimestre 2018 21 millions de contenus comprenant de la nudit\u00e9 adulte ou de la pornographie supprim\u00e9s au premier trimestre 2018 837 millions de contenus relatifs \u00e0 des spams supprim\u00e9s au premier trimestre 2018 Facebook organise aujourd&rsquo;hui \u00e0 Paris un forum de dialogue et de d\u00e9bat avec les acteurs fran\u00e7ais autour de ses r\u00e8gles de gestion des contenus, dites Standards de la Communaut\u00e9, en pr\u00e9sence de Monika Bickert, directrice de la politique mondiale des contenus de Facebook. Nous sommes r\u00e9guli\u00e8rement questionn\u00e9s sur la mani\u00e8re dont nous d\u00e9cidons de ce qui est autoris\u00e9 sur Facebook, et sur le nombre de contenus qui enfreignent les r\u00e8gles \u00e9nonc\u00e9es dans les Standards de la communaut\u00e9. Depuis des ann\u00e9es, nous avons des Standards de la Communaut\u00e9 qui expliquent ce qui est autoris\u00e9, ou pas, sur Facebook. Il y a trois semaines, pour la premi\u00e8re fois, nous avons publi\u00e9 nos directives internes que nous utilisons pour appliquer ces normes. Aujourd&rsquo;hui, nous publions un rapport contenant des chiffres in\u00e9dits sur l&rsquo;application de ces r\u00e8gles afin que vous puissiez juger de notre performance par vous-m\u00eame. Ce rapport couvre nos efforts d\u2019application des Standards de la communaut\u00e9 entre octobre 2017 et mars 2018 et couvre six domaines : la violence visuelle, la nudit\u00e9 adulte et la pornographie, la propagande terroriste, le discours de haine, le spam et les faux comptes. Les chiffres s&rsquo;int\u00e9ressent \u00e0 : La quantit\u00e9 de contenus que les gens ont vus et qui \u00e9taient \u00e0 l\u2019encontre de nos r\u00e8gles La quantit\u00e9 de contenus que nous avons supprim\u00e9s La quantit\u00e9 de contenus que nous avons d\u00e9tect\u00e9s de mani\u00e8re proactive \u00e0 l&rsquo;aide de notre technologie, c\u2019est-\u00e0-dire avant m\u00eame que les utilisateurs de Facebook ne les signalent Quelques chiffres cl\u00e9s Les spams : Nous avons retir\u00e9 837 millions de contenus relatifs \u00e0 des spams au premier trimestre 2018, dont pr\u00e8s de 100 % ont \u00e9t\u00e9 d\u00e9tect\u00e9s et signal\u00e9s avant que quiconque ne les signale. (Extrait de nos Standards de la Communaut\u00e9) Les faux comptes : La cl\u00e9 de la lutte contre les spams est de supprimer les faux comptes qui les propagent. Au premier trimestre, nous avons d\u00e9sactiv\u00e9 environ 583 millions de faux comptes, dont la plupart ont \u00e9t\u00e9 d\u00e9sactiv\u00e9s quelques minutes apr\u00e8s leur inscription. Ceci s&rsquo;ajoute aux millions de tentatives de cr\u00e9ation de faux comptes que nous emp\u00eachons quotidiennement de s&rsquo;inscrire sur Facebook. Dans l&rsquo;ensemble, nous estimons qu&rsquo;environ 3 \u00e0 4% des comptes Facebook actifs sur le site au cours de cette p\u00e9riode \u00e9taient des faux comptes.\u00a0 (Extrait de nos Standards de la Communaut\u00e9) La nudit\u00e9 adulte ou la pornographie : Nous avons supprim\u00e9 21 millions de contenus comprenant de la nudit\u00e9 adulte ou de la pornographie au premier trimestre 2018, dont 96% ont \u00e9t\u00e9 identifi\u00e9s et signal\u00e9s par notre technologie avant qu\u2019ils ne soient signal\u00e9s par notre communaut\u00e9. Dans l&rsquo;ensemble, nous estimons que sur 10 000 contenus visionn\u00e9s sur Facebook, 7 \u00e0 9 n\u2019\u00e9taient pas conformes avec nos politiques en mati\u00e8re de nudit\u00e9 adulte et de pornographie. (Extrait de nos Standards de la Communaut\u00e9) Les images violentes et les discours haineux : Au premier trimestre 2018, nous avons supprim\u00e9 ou appos\u00e9 des avertissements sur environ 3,5 millions de contenus violents, dont 86% ont \u00e9t\u00e9 identifi\u00e9s par notre technologie avant d&rsquo;\u00eatre signal\u00e9s \u00e0 Facebook. Par comparaison, nous avons supprim\u00e9 2,5 millions de contenus comportant des discours haineux au premier trimestre 2018, dont 38% ont \u00e9t\u00e9 signal\u00e9s par notre technologie. Nous travaillons \u00e0 l&rsquo;am\u00e9lioration de cette technologie. (Extrait de nos Standards de la Communaut\u00e9) Comme \u00e9voqu\u00e9 par Mark Zuckerberg lors de la conf\u00e9rence F8, nous avons encore beaucoup de travail \u00e0 accomplir pour pr\u00e9venir les abus sur notre plateforme. C&rsquo;est en partie parce que la technologie comme l&rsquo;intelligence artificielle, bien que prometteuse, est encore loin d&rsquo;\u00eatre efficace pour la plupart des contenus non conformes \u00e0 nos politiques. En effet, le contexte prend une place importante dans la d\u00e9cision. Par exemple, l&rsquo;intelligence artificielle n&rsquo;est pas encore assez efficace pour d\u00e9terminer si quelqu&rsquo;un appelle \u00e0 la haine ou s\u2019il d\u00e9crit une situation v\u00e9cue \u00e0 des fins de sensibilisation de l\u2019opinion publique. Et plus g\u00e9n\u00e9ralement, comme expliqu\u00e9 dans ce blogpost, la technologie a besoin de grandes quantit\u00e9s de donn\u00e9es de formation pour reconna\u00eetre des sch\u00e9mas de comportement significatifs, ce qui nous manque souvent dans des langues moins r\u00e9pandues ou pour des cas qui ne sont pas signal\u00e9s r\u00e9guli\u00e8rement. De plus, dans de nombreux domaines, qu&rsquo;il s&rsquo;agisse de spams, de pornographie ou de faux comptes, nous sommes confront\u00e9s \u00e0 des adversaires sophistiqu\u00e9s qui changent continuellement de tactiques pour contourner nos contr\u00f4les, ce qui signifie que nous devons continuellement adapter nos efforts. C&rsquo;est pourquoi nous investissons massivement dans la croissance de nos \u00e9quipes et dans une meilleure technologie, pour rendre Facebook plus s\u00fbr pour tout le monde. C&rsquo;est aussi la raison pour laquelle nous publions ces informations. Nous croyons que la transparence tend \u00e0 accro\u00eetre la responsabilisation et la responsabilit\u00e9 au fil du temps, et la publication de ces informations nous encourage \u00e0 nous am\u00e9liorer plus rapidement. Ce sont les m\u00eames donn\u00e9es que nous utilisons pour mesurer nos progr\u00e8s en interne &#8211; et vous pouvez maintenant le voir pour juger de nos progr\u00e8s par vous-m\u00eames. Alex Schultz, notre vice-pr\u00e9sident en charge de l&rsquo;analyse des donn\u00e9es, explique plus en d\u00e9tail comment nous mesurons exactement ce qui se passe sur Facebook dans ce blogpost et dans notre guide pour \u00ab Comprendre le rapport sur l&rsquo;application des Standards de la communaut\u00e9 \u00bb. Mais il est important de souligner qu&rsquo;il s&rsquo;agit d&rsquo;un travail que nous menons en continu, et que nous adapterons notre m\u00e9thodologie au fur et \u00e0 mesure que nous en apprendrons davantage sur ce qui est important et ce qui fonctionne. Forum Facebook aujourd&rsquo;hui \u00e0 Paris\u00a0: dialogue et d\u00e9bat des acteurs fran\u00e7ais autour de Standards de la Communaut\u00e9 de Facebook Lors de la publication de nos directives internes d&rsquo;application des Standards de la Communaut\u00e9, nous avions annonc\u00e9 la tenue d&rsquo;une s\u00e9rie d\u2019\u00e9v\u00e9nements publics de dialogue et de d\u00e9bat autour des Standards de la Communaut\u00e9, en Allemagne, en France, au Royaume-Uni, en Inde, \u00e0 Singapour, aux Etats-Unis et dans d\u2019autres pays afin de recueillir les commentaires des utilisateurs. C&rsquo;est aujourd&rsquo;hui, mardi 15 mai, qu&rsquo;a lieu le premier Forum Facebook \u00e0 Paris. Monika Bickert, Directrice de la politique de contenus de Facebook et de nombreux experts ext\u00e9rieurs, \u00e9changent sur les \u00e9volutions de la politique de mod\u00e9ration des contenus de Facebook et les enjeux associ\u00e9s. Les participants ont ainsi l&rsquo;opportunit\u00e9 de s\u2019immerger dans la politique de contenus de Facebook autour d&rsquo;exemples concrets, de poser leurs questions aux experts Facebook mais aussi \u00e0 des experts ext\u00e9rieurs, et de participer \u00e0 des ateliers de r\u00e9flexion sur la politique de mod\u00e9ration des contenus. Plusieurs ateliers th\u00e9matiques sont organis\u00e9s : \u00ab\u00a0Violence et comportement criminel\u00a0\u00bb, anim\u00e9 par Erin Saltman, Responsable de la politique de lutte contre le terrorisme pour la r\u00e9gion EMEA \u00ab\u00a0S\u00e9curit\u00e9\u00a0\u00bb, anim\u00e9 par Julie de Bailliencourt, Directrice mondiale de la s\u00e9curit\u00e9 des utilisateurs \u00ab\u00a0Contenus de haine\u00a0\u00bb, anim\u00e9 par Monika Bickert, Directrice mondiale de la politique de contenus De nombreux experts participent au Sommet, comme par exemple J\u00e9r\u00e9mie Mani, Pr\u00e9sident de la soci\u00e9t\u00e9 Netino, sp\u00e9cialis\u00e9e dans la mod\u00e9ration des espaces participatifs, Fr\u00e9d\u00e9ric Potier, directeur de la DILCRAH en charge de la lutte contre les contenus de haine, ou encore Marc Hecker, expert de la lutte anti-terroriste. Ressources Suivez le livestream de cet \u00e9v\u00e9nement ici : https:\/\/www.facebook.com\/fbsafety\/videos\/1659752750729223\/ Retrouvez toutes les informations sur l&rsquo;\u00e9v\u00e9nement sur cette page : https:\/\/facebookforums.fb.com\/fr\/ Lisez le blog d&rsquo;Alex Schulz (Hard Questions: How Do We Measure Our Efforts to Keep Bad Content off Facebook?) sur le sujet :\u00a0https:\/\/newsroom.fb.com\/news\/2018\/05\/measuring-our-efforts\/ Pour plus d&rsquo;informations, consultez le Rapport pr\u00e9liminaire d&rsquo;application de nos Standards de la Communaut\u00e9. Plus d&rsquo;informations sur les Standards de la Communaut\u00e9 et nos directives internes d&rsquo;application : https:\/\/about.fb.com\/fr\/2018\/04\/standards-de-la-communaute-facebook-publie-ses-directives-internes-et-elargit-son-processus-de-recours-aux-contenus-individuels\/ Rapport sur l&rsquo;application des Standards de la Communaute Facebook\u00a0: Chiffres Cl\u00e9s Le rapport que nous pr\u00e9sentons aujourd&rsquo;hui couvre nos efforts d\u2019application des Standards de la communaut\u00e9 entre octobre 2017 et mars 2018 et s\u2019attarde sur les six domaines suivants : la violence visuelle, la nudit\u00e9 adultes et la pornographie, la propagande terroriste, le discours de haine, le spam et les faux comptes. Violence visuelle Au premier trimestre 2018, 0,22 % \u00e0 0,27 % (sur 10 000 visualisation de contenus, une estimation de 22 \u00e0 27 contenaient de la violence visuelle) des vues \u00e9taient li\u00e9es \u00e0 des contenus qui enfreignaient nos politiques en mati\u00e8re de violence visuelle. L\u2019estimation \u00e9tait de 0,16 % \u00e0 0,19 % au quatri\u00e8me trimestre de 2017. Au premier trimestre, nous avons pris des mesures contre 3,4 millions de contenus li\u00e9s \u00e0 de la violence visuelle. Il s&rsquo;agit \u00e0 la fois de la suppression de contenus et d&rsquo;actions prises contre des contenus en les identifiant comme d\u00e9rangeants pour cause de violence visuelle. La grande majorit\u00e9 de ces contenus n\u2019ont pas \u00e9t\u00e9 supprim\u00e9s mais ils ont \u00e9t\u00e9 accompagn\u00e9s d\u2019un message d&rsquo;avertissement afin de pr\u00e9venir et de prot\u00e9ger les utilisateurs sensibles. Au premier trimestre 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement 85,6 % de contenus sur lesquels nous avons par la suite pris des mesures, avant que les utilisateurs nous les signalent. Nudit\u00e9 adulte et pornographie (hors contenus li\u00e9s \u00e0 l&rsquo;exploitation sexuelle et \u00e0 la p\u00e9dopornographie) Au premier trimestre 2018, de 0,07 % \u00e0 0,09 % des consultations ont port\u00e9 sur des contenus qui enfreignaient nos normes relatives \u00e0 la nudit\u00e9 et \u00e0 l&rsquo;activit\u00e9 sexuelle des adultes. Ce chiffre est l\u00e9g\u00e8rement sup\u00e9rieur \u00e0 l&rsquo;estimation du 4\u00e8me trimestre 2017 qui \u00e9tait de 0,06 % \u00e0 0,08 %. Au premier trimestre 2018, nous avons pris des mesures \u00e0 l\u2019encontre de 21 millions de contenus, chiffre similaire au quatri\u00e8me trimestre 2017. Au premier trimestre 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement 95,8 % des contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne les signalent. Nous avons agi sur les 4,2 % restants parce que les utilisateurs nous les ont signal\u00e9s en premier. Propagande terroriste (ISIS, Al-Qa\u00efda et ses affili\u00e9s) Par rapport \u00e0 d&rsquo;autres types de violation comme la violence visuelle, le nombre de vues de contenu de propagande terroriste li\u00e9 \u00e0 ISIS, \u00e0 Al-Qa\u00efda et \u00e0 leurs affili\u00e9s sur Facebook est extr\u00eamement faible. Au premier trimestre 2018, nous avons pris des mesures \u00e0 l&rsquo;encontre de 1,9 million de contenus, ce qui repr\u00e9sente une augmentation de 73 % par rapport au 1,1 million de contenus identifi\u00e9s au 4\u00e8me trimestre de 2017. Cette augmentation est due \u00e0 l&rsquo;am\u00e9lioration de notre capacit\u00e9 \u00e0 identifier des contenus gr\u00e2ce \u00e0 la technologie de d\u00e9tection de photos, qui d\u00e9tecte \u00e0 la fois le contenu ancien et le contenu nouvellement publi\u00e9. Au premier trimestre 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement 99,5 % de contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne le signalent. Nous avons agi sur 0,05 % des contenus restants suite aux signalements d\u2019utilisateurs. Discours de haine Aucun chiffre n&rsquo;indique la pr\u00e9valence de la propagande haineuse sur Facebook. Au 1er trimestre 2018, nous avons pris des mesures \u00e0 l\u2019encontre d\u2019environ 2,5 millions de contenus, soit une hausse d&rsquo;environ 56 % par rapport \u00e0 environ 1,6 million de contenus au quatri\u00e8me trimestre 2017. Au 1er trimestre 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement environ 38 % de contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs nous les signalent. Nous avons agi sur les 62 % restants parce que les utilisateurs les ont d\u00e9clar\u00e9s en amont. Les contenus impliquants des discours de haine exigent souvent un examen d\u00e9taill\u00e9 par nos examinateurs form\u00e9s pour comprendre le contexte et d\u00e9cider si le contenu enfreint les normes, ainsi nous en identifions et signalons moins proactivement et nous nous fions davantage aux signalements de nos utilisateurs que pour d\u2019autres cas de violations de nos normes. Spams Au 1er trimestre 2018, nous avons pris des mesures \u00e0 l&rsquo;encontre de 837 millions de contenus, ce chiffre est en hausse de 15 % par rapport aux 727 millions de contenus au quatri\u00e8me trimestre de 2017. Au 1er trimestre 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement pr\u00e8s de 100 % des contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne les signalent. Faux comptes Nous estimons que les faux comptes repr\u00e9sentaient environ 3 % \u00e0 4 % des utilisateurs actifs mensuels (MAU) sur Facebook au 1er trimestre 2018 et au 4\u00e8me trimestre 2017. Au 1er trimestre 2018, nous avons d\u00e9sactiv\u00e9 583 millions faux comptes, ce chiffre est en baisse de 16 % par rapport aux 694 millions d\u00e9sactiv\u00e9s au 4\u00e8me trimestre 2017. Au 1er trimestre de 2018, nous avons identifi\u00e9 et signal\u00e9 proactivement 98,5 % des comptes sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne les signalent.","og_url":"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/","og_site_name":"\u00c0 propos de Meta","article_published_time":"2018-05-15T14:04:45+00:00","article_modified_time":"2020-02-25T05:55:44+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"prgrand","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"11 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/"},"author":"Facebook company","headline":"Facebook publie pour la premi\u00e8re fois les chiffres concernant la gestion des contenus sur sa plateforme","datePublished":"2018-05-15T14:04:45+00:00","dateModified":"2020-02-25T05:55:44+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/"},"wordCount":2196,"publisher":{"@id":"https:\/\/about.fb.com\/fr\/#organization"},"articleSection":["Actualit\u00e9s","\u00c9v\u00e8nements"],"inLanguage":"fr-FR"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/","url":"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/","name":"Facebook publie pour la premi\u00e8re fois les chiffres concernant la gestion des contenus sur sa plateforme | \u00c0 propos de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/fr\/#website"},"datePublished":"2018-05-15T14:04:45+00:00","dateModified":"2020-02-25T05:55:44+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/"]}],"author":"\u00c0 propos de Meta"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/fr\/news\/2018\/05\/facebook-publie-pour-la-premiere-fois-les-chiffres-concernant-la-gestion-des-contenus-sur-sa-plateforme\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/fr\/"},{"@type":"ListItem","position":2,"name":"Facebook publie pour la premi\u00e8re fois les chiffres concernant la gestion des contenus sur sa plateforme"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/fr\/#website","url":"https:\/\/about.fb.com\/news\/","name":"\u00c0 propos de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/fr\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/fr\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/fr\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/fr\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/fr\/wp-content\/uploads\/sites\/12\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/fr\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts\/6860","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/users\/112028226"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/comments?post=6860"}],"version-history":[{"count":5,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts\/6860\/revisions"}],"predecessor-version":[{"id":6865,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/posts\/6860\/revisions\/6865"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/media?parent=6860"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/categories?post=6860"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/fr\/wp-json\/wp\/v2\/tags?post=6860"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}