Depuis maintenant six mois, nous avons fait le choix de publier un rapport présentant l’application de nos Standards de la Communauté, qui définissent le comportement éthique et responsable que nous prônons sur le réseau, notamment en termes de contenus partagés. Cela, dans un souci de transparence, afin de permettre à tous d’évaluer la qualité de notre travail en matière de lutte contre les contenus inappropriés en ligne.
Le 19 novembre dernier, nous avons publié notre second rapport sur l’application de nos Standards de la communauté pour les six mois d’avril à septembre 2018.
Deux nouvelles catégories ont été intégrées au rapport de transparence, s’ajoutant aux 6 déjà existantes (la nudité et l’activité sexuelle des adultes ; les faux comptes ; les discours haineux ; le spam ; la propagande terroriste ; la violence visuelle) :
-
- l’intimidation et le harcèlement ;
- la nudité et l’exploitation sexuelle d’enfants
Les chiffres clefs
Pour vous donner une idée du travail que nous avons accompli, voici quelques chiffres présentant la quantité de contenus sur lesquels nous sommes intervenus d’avril à septembre 2018 :
-
- Nous avons supprimé 1,554 milliard de faux comptes
- Nous avons agi sur 1,321 milliard de contenus indésirables
- En outre, nous sommes opposés aux discours incitant à la haine et avons ainsi invalidé 5,4 millions de contenus en ce sens.
- Concernant la lutte contre les contenus ayant trait à la nudité et l’ activité sexuelle des adultes, nous avons réussi à détecter 65,6 millions de contenus, soit une augmentation de 56% par rapport à la période précédente.
- En matière de propagande terroriste, nous avons agi sur 12,4 millions de contenus.
- Nous sommes engagés contre l’exploitation des enfants et avons donc censuré 8,7 millions de contenus ayant trait à « la nudité et l’exploitation sexuelle des enfants » entre juillet et septembre 2018.
- Enfin, pour lutter contre les problèmes d’harcèlement et intimidation, nous avons supprimé 2,1 millions de messages, commentaires ou autres contenus négatifs.
La grande majorité des contenus ayant nécessité notre intervention, ont été détectés de manière proactive, c’est-à-dire avant même que les utilisateurs ne nous les signalent – ce qui atteste du renforcement et de l’amélioration de nos moyens de régulation.
Ainsi, notre taux de détection proactive de la violence visuelle a augmenté de 25 points, passant de 72 % à 97 %.