Par Katie Harbath, Global Politics and Government Outreach Director et Samidh Chakrabarti, Director of Product Management, Civic Engagement

Au cours des deux dernières années, nous avons réalisé d’importants investissements pour aider à protéger l’intégrité d’élections – non seulement pour faire face aux menaces que nous avons détectées sur notre plateforme par le passé, mais aussi pour prévoir les nouveaux défis et répondre aux nouveaux risques.

Notre approche pour traiter ce problème – comme le problème lui-même  –  est multiforme. Notre tactique consiste au blocage et à la suppression des faux comptes, à la recherche et la suppression des acteurs malveillants, à la limitation de la diffusion de fausses informations et de la désinformation, et l’application d’une transparence sans précédent s’agissant des publicités à visée politique. Pour soutenir ce travail, nous comptons maintenant plus de 30 000 personnes qui travaillent sur la sûreté et la sécurité au sein de Facebook, soit trois fois plus qu’en 2017. Nous avons également amélioré nos capacités en matière de machine learning, ce qui nous permet d’être plus efficaces dans la recherche et l’élimination des comportements irrespectueux de nos Standards de la Communauté. Ces améliorations ont été utiles à bien des égards, y compris dans notre travail de lutte contre les comportements inauthentiques. A titre d’exemple, les progrès technologiques nous ont permis de mieux identifier et bloquer les mauvais usages, parallèlement aux activités de recherche et de démantèlement manuel des réseaux plus sophistiqués, conduites par nos experts.

Nous faisons tout cela en travaillant en étroite collaboration avec les autorités, régulateurs, les commissions électorales, d’autres entreprises technologiques, des chercheurs, des universitaires et des groupes de la société civile. Bien que ces efforts soient mondiaux, nous adaptons également notre travail à chaque pays en nous fondant sur des recherches et des évaluations de la menace qui commencent plusieurs mois avant que les scrutins.

Voici quelques-unes des autres façons dont nous travaillons pour renforcer notre plateforme avant les élections de 2019.

Élargissement de nos politiques de transparence en matière de publicité politique

Plus tôt ce mois-ci au Nigeria, nous avons commencé à interdire temporairement les publicités électorales achetées à l’extérieur du pays avant les élections, et nous mettrons en œuvre la même politique en Ukraine avant l’élection présidentielle. En prévision des élections du Parlement Européen, nous lancerons fin mars des outils supplémentaires au sein des pays de l’UE pour aider à prévenir l’ingérence étrangère et rendre la publicité politique sur Facebook plus transparente. Les annonceurs devront demander l’autorisation d’acheter des publicités politiques ; nous donnerons aux gens plus d’informations sur les publicités liées à la politique et aux enjeux politiques ; et nous créerons une bibliothèque publique consultable de ces publicités pour une période allant jusqu’à sept ans. La bibliothèque comprendra des informations sur l’ensemble du budget publicitaire, sur le nombre d’internautes concernés ainsi que les données démographiques des personnes qui ont visionné l’annonce, y compris l’âge, le sexe et le lieu. Ces outils de transparence pour la publicité électorale seront également lancés en Inde en février puis en Ukraine et en Israël avant leurs élections, pour une généralisation mondiale avant fin juin.

Plus de ressources pour une réponse rapide dans le cadre des élections en Europe et en Asie

Afin d’étendre notre travail de lutte contre la désinformation, que nous avons mené avant l’élection présidentielle au Brésil et les midterms aux États-Unis, nous prévoyons de créer deux nouveaux centres d’opérations régionaux, axés sur l’intégrité des élections, situés dans nos bureaux de Dublin et de Singapour. Cela permettra à nos équipes mondiales de mieux travailler dans toutes les régions du monde à l’approche des élections et renforcera encore notre coordination et notre temps de réponse entre les équipes de Menlo Park et celles du pays concerné. Ces équipes ajouteront un niveau de protection supplémentaire contre les fausses informations, les discours haineux et la suppression des électeurs, et travailleront de façon inter-fonctionnelle avec nos équipes de renseignement sur les menaces, de science des données, d’ingénierie, de recherche, de gestion des contenus, juridiques et autres.

Accroître notre capacité à lutter contre la désinformation et les fausses nouvelles

Notre travail de lutte contre les fausses informations continue de s’améliorer. Dans l’ensemble du fil d’actualité, nous suivons une méthode fondée sur 3 piliers pour améliorer la qualité et l’authenticité des publications. Tout d’abord, nous supprimons les contenus qui enfreignent nos Standards de la communauté, ce qui contribue à renforcer la sécurité et la sûreté de la plate-forme. Ensuite, pour les contenus qui ne violent pas directement nos Standards de la communauté mais qui sapent quand même l’authenticité de la plateforme, comme les pièges à clics ou le contenu sensationnaliste, nous réduisons leur diffusion dans les fils d’actualité, de sorte que moins de gens les voient. Enfin, nous informons les gens en leur donnant plus de contexte sur l’information qu’ils voient dans le fil d’actualité. Ainsi, quand quelqu’un voit une actualité, il peut cliquer sur “A propos de cet article” pour voir plus de détails sur l’article et l’éditeur.

Nous continuons également à élargir notre programme de vérification des faits via des tiers. Aujourd’hui, ce programme couvre le contenu publié en 16 langues, et nous avons mis en place la possibilité pour les vérificateurs tiers de vérifier les photos et les vidéos en plus des liens vers les articles, parce que nous savons que la désinformation fondée sur le multimédia représente une plus grande partie des fausses informations. Lorsqu’un vérificateur tiers note un message comme étant faux, nous le montrons plus bas dans le fil d’actualité pour réduire de façon significative le nombre de personnes qui le voient et la probabilité qu’il se propage davantage. Les Pages et les domaines qui partagent de fausses nouvelles de façon répétée seront pénalisés par une distribution réduite et ils ne pourront pas monétiser leurs contenus ou faire de la publicité sur Facebook. Cela aide à freiner la propagation de fausses informations motivées par des considérations financières.

Bien que ces efforts représentent une amélioration par rapport aux dernières années, nous savons que l’amélioration de la sécurité n’est jamais terminée. Il y a toujours eu des gens qui ont essayé de saper la démocratie. Nous nous heurtons à des adversaires déterminés qui tentent d’attaquer sur de nombreux fronts et nous reconnaissons notre rôle et notre responsabilité. Nous n’arrêterons jamais tous les mauvais acteurs, mais nous faisons de réels progrès et nous sommes déterminés à continuer à nous améliorer.

Pour en savoir plus sur notre travail en vue des élections du Parlement européen en mai, voir ici.