Nous sommes régulièrement questionnés sur la manière dont nous décidons de l’autorisation des contenus sur Facebook, ainsi que sur le nombre de ces contenus qui enfreignent nos Standards de la communauté. Pour y répondre, nous avons étoffé notre rapport de transparence. Le Transparency report, publié le 15 mai, dernier présente des chiffres inédits sur l’application de ces règles afin que chacun puisse évaluer la performance de la politique de gestion des contenus.
Couvrant la période d’octobre 2017 à mars 2018 et structuré en six domaines (la violence visuelle, la nudité adulte et pornographique, la propagande terroriste, les discours de haine, le spam et les faux comptes), le rapport contient notamment des indicateurs relatifs au nombre de contenus supprimés, ou détectés à l’aide de technologie (IA) avant même que les utilisateurs de Facebook ne les signalent.
Nous avons encore beaucoup de travail à accomplir pour prévenir les abus sur Facebook, comme l’a évoqué Mark Zuckerberg lors de la conférence F8. La technologie de l’Intelligence Artificielle, même si très prometteuse, n’est pas encore efficace dans le traitement des contenus non conformes à nos Standards.
Il faut en effet prendre en compte le contexte dans la décision de supprimer un contenu, et l’Intelligence artificielle n’est pas encore assez pointue pour différencier certaines situations, en particulier face aux discours de haine. Aussi, il faut noter que cette technologie nécessite une quantité de données de formation importante notamment dans des langues moins répandues, celles-ci permettant de développer des algorithmes compréhensifs et capables de reconnaître des schémas de comportement significatifs.
Enfin, dans de nombreux domaines (spams, pornographies, faux comptes), nous faisons face à des adversaires sophistiqués, changeant continuellement de tactiques pour contourner nos contrôles ; nous devons ainsi adapter notre stratégie et nos efforts en permanence.
C’est pour toutes ces raisons que nous investissons massivement dans la croissance de nos équipes ainsi que dans une meilleure technologie pour rendre Facebook plus sûr, pour tout le monde.
Voici quelques chiffres clés :
- Les spams : nous avons retiré 837 millions de contenus relatifs à des spams au premier trimestre 2018, dont près de 100% ont été détectés et signalés par notre technologie
- Les faux comptes : nous avons désactivé environ 583 millions de faux comptes, dont la plupart ont été désactivés quelques minutes après leur inscription. Ce chiffre s’ajoute aux millions de tentatives de création de faux comptes que nous empêchons quotidiennement. Dans l’ensemble, nous estimons qu’environ 3 à 4% des comptes Facebook actifs au cours de cette période étaient des faux comptes.
- La nudité adulte ou la pornographie : nous avons supprimé 21 millions de contenus comprenant de la nudité adulte ou de la pornographie au premier trimestre 2018. 96% ont été identifiés et signalés par notre technologie avant qu’ils ne le soient par notre communauté.
- Les images violentes et les discours haineux : nous avons supprimé ou apposé des avertissements sur environ 3,5 millions de contenus violents, dont 86% ont été identifiés par notre technologie avant d’être signalés à Facebook. Sur 2,5 millions de suppression de contenus comportant des discours haineux, 38% ont été détectés et signalés par notre technologie.
Retrouvez ici le rapport détaillé.