Meta

Facebook publie pour la première fois les chiffres concernant la gestion des contenus sur sa plateforme

Facebook organise aujourd’hui à Paris un forum de dialogue et de débat avec les acteurs français autour de ses règles de gestion des contenus, dites Standards de la Communauté, en présence de Monika Bickert, directrice de la politique mondiale des contenus de Facebook.

Nous sommes régulièrement questionnés sur la manière dont nous décidons de ce qui est autorisé sur Facebook, et sur le nombre de contenus qui enfreignent les règles énoncées dans les Standards de la communauté. Depuis des années, nous avons des Standards de la Communauté qui expliquent ce qui est autorisé, ou pas, sur Facebook. Il y a trois semaines, pour la première fois, nous avons publié nos directives internes que nous utilisons pour appliquer ces normes. Aujourd’hui, nous publions un rapport contenant des chiffres inédits sur l’application de ces règles afin que vous puissiez juger de notre performance par vous-même.

Ce rapport couvre nos efforts d’application des Standards de la communauté entre octobre 2017 et mars 2018 et couvre six domaines : la violence visuelle, la nudité adulte et la pornographie, la propagande terroriste, le discours de haine, le spam et les faux comptes. Les chiffres s’intéressent à :

Quelques chiffres clés

Comme évoqué par Mark Zuckerberg lors de la conférence F8, nous avons encore beaucoup de travail à accomplir pour prévenir les abus sur notre plateforme. C’est en partie parce que la technologie comme l’intelligence artificielle, bien que prometteuse, est encore loin d’être efficace pour la plupart des contenus non conformes à nos politiques. En effet, le contexte prend une place importante dans la décision. Par exemple, l’intelligence artificielle n’est pas encore assez efficace pour déterminer si quelqu’un appelle à la haine ou s’il décrit une situation vécue à des fins de sensibilisation de l’opinion publique. Et plus généralement, comme expliqué dans ce blogpost, la technologie a besoin de grandes quantités de données de formation pour reconnaître des schémas de comportement significatifs, ce qui nous manque souvent dans des langues moins répandues ou pour des cas qui ne sont pas signalés régulièrement. De plus, dans de nombreux domaines, qu’il s’agisse de spams, de pornographie ou de faux comptes, nous sommes confrontés à des adversaires sophistiqués qui changent continuellement de tactiques pour contourner nos contrôles, ce qui signifie que nous devons continuellement adapter nos efforts. C’est pourquoi nous investissons massivement dans la croissance de nos équipes et dans une meilleure technologie, pour rendre Facebook plus sûr pour tout le monde.

C’est aussi la raison pour laquelle nous publions ces informations. Nous croyons que la transparence tend à accroître la responsabilisation et la responsabilité au fil du temps, et la publication de ces informations nous encourage à nous améliorer plus rapidement. Ce sont les mêmes données que nous utilisons pour mesurer nos progrès en interne – et vous pouvez maintenant le voir pour juger de nos progrès par vous-mêmes.

Alex Schultz, notre vice-président en charge de l’analyse des données, explique plus en détail comment nous mesurons exactement ce qui se passe sur Facebook dans ce blogpost et dans notre guide pour « Comprendre le rapport sur l’application des Standards de la communauté ». Mais il est important de souligner qu’il s’agit d’un travail que nous menons en continu, et que nous adapterons notre méthodologie au fur et à mesure que nous en apprendrons davantage sur ce qui est important et ce qui fonctionne.

Forum Facebook aujourd’hui à Paris : dialogue et débat des acteurs français autour de Standards de la Communauté de Facebook

Lors de la publication de nos directives internes d’application des Standards de la Communauté, nous avions annoncé la tenue d’une série d’événements publics de dialogue et de débat autour des Standards de la Communauté, en Allemagne, en France, au Royaume-Uni, en Inde, à Singapour, aux Etats-Unis et dans d’autres pays afin de recueillir les commentaires des utilisateurs.

C’est aujourd’hui, mardi 15 mai, qu’a lieu le premier Forum Facebook à Paris. Monika Bickert, Directrice de la politique de contenus de Facebook et de nombreux experts extérieurs, échangent sur les évolutions de la politique de modération des contenus de Facebook et les enjeux associés. Les participants ont ainsi l’opportunité de s’immerger dans la politique de contenus de Facebook autour d’exemples concrets, de poser leurs questions aux experts Facebook mais aussi à des experts extérieurs, et de participer à des ateliers de réflexion sur la politique de modération des contenus.

Plusieurs ateliers thématiques sont organisés :

De nombreux experts participent au Sommet, comme par exemple Jérémie Mani, Président de la société Netino, spécialisée dans la modération des espaces participatifs, Frédéric Potier, directeur de la DILCRAH en charge de la lutte contre les contenus de haine, ou encore Marc Hecker, expert de la lutte anti-terroriste.

Ressources


Rapport sur l’application des Standards de la Communaute Facebook : Chiffres Clés

Le rapport que nous présentons aujourd’hui couvre nos efforts d’application des Standards de la communauté entre octobre 2017 et mars 2018 et s’attarde sur les six domaines suivants : la violence visuelle, la nudité adultes et la pornographie, la propagande terroriste, le discours de haine, le spam et les faux comptes.

Violence visuelle

Nudité adulte et pornographie (hors contenus liés à l’exploitation sexuelle et à la pédopornographie)

Propagande terroriste (ISIS, Al-Qaïda et ses affiliés)

Discours de haine

Spams

Faux comptes