Meta

Rapport d’application des Standards de la communauté, août 2020

Guy Rosen, VP Integrity

Nous publions aujourd’hui la sixième édition de notre Rapport d’application des Standards de la communauté, notre première mise à jour trimestrielle, qui fournit des indicateurs sur la manière dont nous avons appliqué nos règles d’avril à juin 2020. Ce rapport comprend des indicateurs sur 12 catégories de règles sur Facebook et 10 sur Instagram.

En raison de la pandémie de COVID-19, nous avons demandé à nos modérateurs de contenu de rester chez eux dès le mois de mars afin de protéger leur santé et leur sécurité. Depuis lors, nous nous sommes davantage appuyés sur notre technologie pour examiner le contenu. Depuis, nous avons permis à de nombreux modérateurs de faire du télétravail et, une fois leur sécurité assurée, à un certain nombre d’entre eux de retourner au bureau. Nous continuerons d’utiliser la technologie pour donner la priorité à l’examen des contenus les plus potentiellement nuisibles. Le rapport d’aujourd’hui montre l’impact du COVID-19 sur notre modération du contenu et indique que, bien que notre technologie d’identification et de suppression du contenu en infraction s’améliore, nous aurons toujours besoin de personnes dans différents domaines, tant pour examiner le contenu que pour entraîner nos technologies.

Par exemple, nous comptons beaucoup sur les personnes pour examiner les contenus relatifs au suicide, à l’automutilation et à l’exploitation des enfants. Elles nous aident également à améliorer la technologie qui permet de trouver et de supprimer de manière proactive les contenus identiques ou quasi identiques qui enfreignent ces règles. Puisque nous disposions de moins de modérateurs de contenu, nous avons pris des mesures pour un nombre réduit de contenus en rapport avec le suicide et l’automutilation sur Facebook et Instagram, ainsi que la nudité et l’exploitation sexuelle des enfants sur Instagram. Malgré ces diminutions, nous avons établi des priorités et pris des mesures pour les contenus les plus nuisibles au sein de ces catégories. Notre objectif reste de trouver et de supprimer ces contenus tout en augmentant la capacité des modérateurs le plus rapidement et le plus sûrement possible.

Le nombre de recours est également beaucoup moins élevé dans ce rapport, car nous n’avons pas toujours pu y répondre. Nous en informons les personnes, et si celles-ci estiment que nous avons fait une erreur, nous leur offrons toujours la possibilité de nous dire qu’elles ne sont pas d’accord avec notre décision. Nous avons examiné une grande partie de ces cas et restauré le contenu le cas échéant. Enfin, étant donné que nous avons donné la priorité à la suppression du contenu nuisible plutôt qu’à la mesure de certains efforts pendant cette période, nous n’avons pas pu calculer la prévalence du contenu violent et explicite, ainsi que de la nudité adulte et des actes sexuels. Nous pensons être en mesure de partager ces mesures dans notre prochain rapport, au troisième trimestre.

Malgré l’impact du COVID-19, les améliorations apportées à notre technologie nous ont permis de prendre des mesures pour davantage de contenus dans certains domaines et d’augmenter notre taux de détection proactive dans d’autres. Notre taux de détection proactive des discours haineux sur Facebook a augmenté de 6 points, passant de 89 % à 95 %. En retour, le nombre de contenus pour lesquels nous avons pris des mesures est passé de 9,6 millions au premier trimestre à 22,5 millions au deuxième trimestre. Cela est dû au fait que nous avons étendu les versions espagnole, arabe et indonésienne de certaines de nos technologies d’automatisation et amélioré notre technologie de détection en anglais au premier trimestre. Au deuxième trimestre, l’amélioration de nos capacités d’automatisation nous a permis de prendre des mesures pour davantage de contenus en anglais, en espagnol et en birman. Sur Instagram, notre taux de détection proactive des discours haineux a augmenté de 39 points, passant de 45 % à 84 %, et le nombre de contenus pour lesquels nous avons pris des mesures est passé de 808 900 au premier trimestre 2020 à 3,3 millions au deuxième trimestre. Ces augmentations sont dues au développement de nos technologies de détection proactive en anglais et en espagnol.

Un autre domaine dans lequel nous avons constaté des améliorations grâce à notre technologie est celui du contenu à caractère terroriste. Sur Facebook, le nombre de contenus pour lesquels nous avons pris des mesures est passé de 6,3 millions au premier trimestre à 8,7 millions au deuxième trimestre. De plus, grâce aux améliorations de notre technologie et au retour de certains modérateurs de contenu, nous avons pu traiter davantage de contenus liés à la haine organisée sur Instagram et à l’intimidation et au harcèlement sur Facebook et Instagram.

Nous avons fait des progrès dans la lutte contre la haine sur nos applications, mais nous savons qu’il nous reste encore beaucoup à faire afin que tout le monde se sente à l’aise en utilisant nos services. C’est pourquoi nous avons mis en place de nouvelles équipes et nouveaux groupes de travail inclusifs, notamment l’équipe Instagram chargée de l’équité et le Conseil Facebook pour des produits inclusifs, afin de nous aider à développer des produits volontairement équitables et inclusifs. Nous lançons aussi un Conseil consultatif sur la diversité, qui apportera un avis basé sur des expériences vécues sur toute une variété de sujets et de problématiques. De plus, nous mettons à jour notre politique pour prendre en compte plus spécifiquement certains types de discours haineux implicites, tels que le contenu représentant le blackface (des personnes déguisées ou maquillées en noir) ou des stéréotypes insinuant que les juifs contrôleraient le monde. Nous avons également continué à donner la priorité à la suppression du contenu allant à l’encontre de nos règles de lutte contre les groupes incitant à la haine. Depuis octobre 2019, nous avons mené 14 actions stratégiques de perturbation du réseau pour supprimer 23 organisations interdites différentes, dont plus de la moitié soutenaient le suprémacisme blanc.

Nous voulons que le public ait la certitude que les chiffres que nous communiquons sur le contenu nuisible sont exacts. C’est pourquoi dès 2021, nous ferons l’objet d’un audit indépendant mené par un tiers afin de valider les chiffres que nous publions dans notre Rapport d’application des Standards de la communauté.

À mesure que la pandémie de COVID-19 évolue, nous continuerons d’adapter notre processus d’examen du contenu et à œuvrer pour l’amélioration de notre technologie et la reprise du travail en ligne pour un plus grand nombre de modérateurs.



Nous utilisons des cookies pour personnaliser le contenu, ajuster et mesurer les publicités et offrir une expérience plus sûre. En cliquant ou en naviguant sur le site, vous nous autorisez à collecter des informations sur et en dehors de Facebook via les cookies. Pour en savoir plus, notamment sur les contrôles disponibles : Politique d’utilisation des cookies