Aujourd’hui, nous publions la cinquième édition de notre rapport sur l’application des Standards de la communauté, qui mesure la façon dont nous avons appliqué nos règlements d’octobre 2019 à mars 2020. Nous avons passé ces dernières années à construire des outils, des équipes et des technologies qui aident à protéger les élections de toute interférence, à empêcher les fausses nouvelles de circuler sur nos apps et à protéger les personnes des contenus nuisibles. Quand la crise du COVID-19 a émergé, nous avions donc déjà des outils et processus en place. Ils nous ont permis d’avancer très vite et de continuer à trouver et à supprimer les contenus qui enfreignent nos politiques. Quand nous avons temporairement placé nos équipes de modérateurs de contenus en télétravail en raison de la pandémie du COVID-19, nous avons d’autant plus utilisé ces systèmes automatiques et nous n’avons envoyé que les contenus les plus prioritaires aux équipes manuelles, afin de garantir la sécurité de nos plateformes.
Ce rapport inclut des données seulement jusqu’à mars 2020, et ne reflète donc pas l’ensemble des changements que nous avons apportés pendant la pandémie. Nous pensons que ces changements se verront dans notre prochain rapport et peut-être dans les suivants, et nous en parlerons de façon transparente. Par exemple, ces sept dernières semaines, nous n’avons pas toujours pu proposer de procédures d’appel pour les suppressions de contenus et de comptes. Nous prévoyons donc beaucoup moins de recours en appel dans notre prochain rapport. Nous avons également arrêté certaines mesures pour nous concentrer sur la suppression de contenus nuisibles, et nous ne pourrons peut-être pas calculer la prévalence des contenus en infraction pendant cette période. Le rapport que nous publions aujourd’hui montre l’importance des avancées que nous avons faites dans nos outils technologiques d’identification et de suppression des contenus en infraction.
Les nouveautés de cette édition
Nous incluons maintenant des indicateurs concernant douze politiques différentes sur Facebook et dix politiques sur Instagram. Le rapport présente pour la première fois des données sur quatre catégories de contenus Instagram : discours haineux, nudité adulte et activité sexuelle, contenu explicite et violent, et intimidation et harcèlement. Pour la première fois, nous partageons également des informations sur le nombre de procédures en appel qui ont fait réponse à nos décisions sur Instagram et sur le nombre de décisions que nous avons annulées, soit à la suite de ces appels, soit de façon proactive. Nous avons également ajouté des données sur nos efforts de lutte contre les organisations haineuses sur Facebook et sur Instagram. Vous pouvez en apprendre plus sur ces efforts et sur nos progrès ici.
Nos progrès pour l’identification et la suppression des contenus en infraction
Nous avons amélioré les technologies qui identifient les contenus en infraction de manière proactive, ce qui nous a aidé à en supprimer plus, donc à mieux limiter leur visibilité.
- Sur Facebook, nous avons continué à étendre notre technologie de détection proactive des discours haineux dans plus de langues. Nous avons également amélioré nos systèmes de détection existants. Notre taux de proactivité pour la détection de discours haineux a augmenté de plus de 8 points au cours des deux derniers trimestres, soit près de 20 points d’augmentation sur 12 mois. Nous pouvons donc trouver plus de contenus et pouvons maintenant détecter presque 90 % du contenu que nous supprimons avant qu’il nous ait été signalé. De plus, grâce à d’autres améliorations apportées à notre technologie de détection, nous avons doublé le nombre de contenus liés à la drogue supprimés pendant le T4 2019, supprimant ainsi 8,8 millions de contenus.
- Sur Instagram, nous avons amélioré nos technologies mettant en lien les images et le texte qui leur est associé : nous pouvons ainsi trouver plus de contenus en rapport avec le suicide et l’automutilation. Nous avons donc pu agir sur 40 % de contenus en plus qu’au dernier rapport, et notre taux de proactivité a augmenté de plus de 12 points. Nous avons également travaillé à limiter le harcèlement en ligne en ajoutant plusieurs nouvelles fonctionnalités qui aident les personnes à gérer leur expérience et à limiter les interactions non désirées, et nous avons annoncé des nouveaux réglages de confidentialité pour Instagram hier. Nous partageons des données sur les actions entreprises contre le harcèlement sur Instagram pour la première fois dans ce rapport, dont la prise de mesures sur 1,5 millions de contenus au cours du T4 2019 et du T1 2020.
- Enfin, nous avons pu améliorer nos technologies de détection et de suppression de contenus similaires à ceux qui ont déjà été signalés pour infraction dans nos bases de données. Ceci nous a aidés à supprimer plus de contenus sur la nudité des enfants et l’exploitation sexuelle sur Facebook et Instagram.
Au cours des six derniers mois, nous avons commencé à utiliser la technologie plus souvent afin de prioriser le contenu étudié par nos équipes, en nous basant sur des critères incluant la viralité et la sévérité de l’infraction. À l’avenir, nous comptons utiliser la technologie pour également prendre des mesures sur le contenu, en particulier pour supprimer plus de publications automatiquement. Cela permettra à nos examinateurs de contenus de se concentrer sur d’autres types de contenus, qui exigent plus de nuances et de contexte pour prendre une décision.
Le Rapport sur l’application des Standards de la communauté est publié en même temps que notre Rapport de transparence biannuel qui partage des données sur les demandes de données par des gouvernements, les restrictions de contenus basées sur les lois locales, les suppressions de contenus dues à la propriété intellectuelle et les coupures d’Internet. À l’avenir, nous partagerons ce rapport chaque trimestre : notre prochain rapport sera donc publié en août.