- Des équipes spécialisées sont mobilisées pour identifier et répondre aux risques potentiels affectant les élections municipales.
- Bien que chaque élection soit unique, Meta a développé une approche globale des élections sur ses plateformes : une approche qui protège la liberté d’expression et applique ses politiques contre les opérations d’influence.
- Cela implique également une transparence totale concernant les contenus créés ou modifiés à l’aide de l’IA.
En mars 2026, les citoyens français se rendront aux urnes pour élire leurs maires. Chez Meta, nous nous y préparons depuis longtemps et avons mis en place une équipe dédiée afin de développer une approche sur mesure pour aider à préserver l’intégrité de chacune de ces élections sur nos plateformes. Meta a investi plus de 30 milliards de dollars dans la sûreté et la sécurité au cours de la dernière décennie, notamment pour protéger les élections. Sur Facebook, Instagram et Threads, nous appliquons nos politiques contre l’ingérence électorale, la violence électorale et les fausses informations concernant la date, le lieu et les modalités de vote lors d’une élection. Comme toujours, nous supprimons les contenus qui enfreignent nos politiques dès que nous en avons connaissance. Nous supprimerons également les contenus susceptibles d’entraîner des dommages physiques ou d’interférer avec les élections.
Voici les quatre domaines clés sur lesquels nos équipes se concentrent :
La lutte contre la désinformation
Nous supprimons certaines fausses informations sur FB, IG et Threads, notamment celles qui sont susceptibles de contribuer à des risques physiques imminents ou qui tentent d’empêcher le vote
Pour les contenus qui n’enfreignent pas ces règles spécifiques, nous travaillons avec des organisations indépendantes de vérification des faits, toutes certifiées par l’International Fact Checking Network (IFCN) ou l’European Fact-Checking Standards Network (EFCSN), qui examinent et évaluent les contenus. En France, nous travaillons avec l’AFP, 20 Minutes, Les Surligneurs et France 24 pour réduire la circulation des fausses informations. Depuis 2022, avons travaillé avec l’AFP au lancement d’une ligne WhatsApp dédiée à laquelle les utilisateurs peuvent adresser des questions concernant des contenus douteux à vérifier.
Avant la période électorale, nous ferons en sorte qu’il soit plus facile pour tous nos partenaires de vérification de faits de trouver et d’évaluer les contenus liés aux élections, car nous reconnaissons que la rapidité est particulièrement importante dans ces moments. Nous avons renforcé leur capacité à évaluer et à examiner les contenus et nous utiliserons la détection de mots-clés pour regrouper les contenus connexes en un seul endroit, ce qui facilitera la recherche pour les vérificateurs de faits. Nos partenaires de vérification des faits ont été formés à notre nouvel outil de recherche, Meta Content Library, qui dispose d’une puissante capacité de recherche pour les aider dans leur travail.
Veuillez également noter que, depuis le 6 octobre 2025, Meta, à l’instar d’autres plateformes, n’autorise plus la diffusion de publicités liées à des questions politiques, électorales ou sociales sur ses plateformes dans l’Union européenne, en raison des défis opérationnels importants et des incertitudes juridiques introduits par le règlement européen sur la transparence et le ciblage de la publicité politique (TTPA).
Pour toute question relative aux règles et réglementations en vigueur pendant les périodes de campagne, veuillez vous référer au Code électoral français et aux recommandations de l’ARPP.
La lutte contre les opérations d’influence
Nous continuons également à révéler et à perturber les opérations d’influence étrangères, notamment celles qui ciblent les élections, et avons supprimé plus de 200 réseaux de comportements inauthentiques coordonnés (CIB) depuis 2017.
Il s’agit d’un domaine très controversé où les campagnes trompeuses que nous supprimons tentent de revenir et d’échapper à notre détection. C’est pourquoi nous prenons des mesures continues contre les réseaux que nous avons précédemment supprimés pour cause de CIB et qui tentent de revenir sur nos services.
Nous partageons publiquement nos conclusions dans notre rapport sur les menaces adversaires, dans des archives dédiées aux chercheurs, et communiquons ces informations à nos partenaires industriels afin qu’ils puissent mener leurs propres enquêtes sur les comportements suspects. En exposant ces opérations et leurs tactiques, nous souhaitons permettre aux utilisateurs d’identifier plus facilement ces campagnes s’ils les rencontrent dans leurs flux, et ainsi renforcer leur résilience face aux comportements manipulateurs. Nous encourageons nos utilisateurs à signaler tout comportement ou contenu problématique, conformément à nos règles.
Par ailleurs, nous étiquetons les médias contrôlés par un Etat sur Facebook, Instagram et Threads afin que les utilisateurs sachent quand le contenu provient d’une publication pouvant être sous le contrôle éditorial d’un gouvernement. Nous avons également appliqué des mesures plus strictes aux médias russes contrôlés par l’État, notamment en les bloquant dans l’UE et en réduisant la visibilité de leurs publications à l’échelle mondiale. Une étude réalisée en 2024 par Graphika montre que cela a entraîné une baisse de 55 % du volume des publications sur leurs pages et à une baisse des niveaux d’engagement de 94 % par rapport aux niveaux d’avant-guerre, tandis que « plus de la moitié de tous les médias d’État russes avaient complètement cessé de publier ».
En France, nous travaillons régulièrement aux côtés d’experts tels que VIGINUM afin de réagir rapidement face à ce type de menaces.
L’identification des contenus générés ou modifiés par l’IA
Nos Standards de la communauté et nos Standards publicitaires s’appliquent à tout contenu, y compris ceux créés ou modifiés à l’aide de l’IA, et nous supprimons tout contenu qui enfreint nos politiques, qu’il ait été créé par l’IA ou par une personne.
- Nous utilisons une combinaison de normes industrielles et de technologies (telles que C2PA) pour aider à identifier les contenus générés ou modifiés à l’aide de l’IA en dehors des publicités sur nos plateformes, et nous les étiquetons afin de promouvoir la transparence.
- Nous affichons une étiquette « AI info » pour les contenus que nous détectons comme ayant été générés par un outil d’IA, et nous indiquons si le contenu est étiqueté en raison de signaux partagés par l’industrie ou parce que quelqu’un l’a divulgué de son propre chef.
- Nous exigeons des utilisateurs qu’ils utilisent cet outil de divulgation et d’étiquetage lorsqu’ils publient du contenu organique avec une vidéo photoréaliste ou un audio réaliste qui a été créé ou modifié numériquement, et nous pouvons appliquer des sanctions s’ils ne le font pas. Meta dispose désormais d’une fonctionnalité permettant aux utilisateurs d’indiquer lorsqu’ils partagent un fichier vidéo ou audio généré par l’IA, afin que nous puissions y ajouter une étiquette.
La sécurité des candidats
Nous souhaitons que nos plateformes permettent aux élus et aux candidats de mobiliser leurs électeurs sur des questions qui leur tiennent à cœur, de manière sûre et positive. Bien que nos règles distinguent les personnalités publiques des particuliers pour permettre une discussion ouverte, nous employons diverses mesures pour protéger les personnalités publiques contre les messages et les comportements malveillants.
Nos Standards de la communauté décrivent ce qui est autorisé et ce qui ne l’est pas sur Facebook, Instagram et Threads. Grâce aux retours de notre communauté et d’experts du monde entier, nous avons créé des politiques spécifiques pour protéger les personnalités publiques.
- Discours de haine : Nous définissons les discours haineux comme une attaque directe contre des personnes, plutôt que contre des concepts ou des institutions, fondée sur ce que nous appelons des caractéristiques protégées. Ainsi, nous supprimons les attaques contre une personne basées sur l’origine ethnique, l’origine nationale, le handicap, la religion, la caste, l’orientation sexuelle, le sexe, l’identité de genre, et les maladies graves.
- Violence et incitation : nous supprimons tout langage qui facilite ou incite à la violence, nous désactivons les comptes et coopérons avec les forces de l’ordre lorsque nous pensons qu’il existe un risque réel de préjudice physique ou une menace directe pour la sécurité publique.
- Intimidation et harcèlement : nous protégeons les députés et les candidats contre les contacts non désirés répétés et le harcèlement sexuel, et pouvons supprimer des messages de ce type si une personnalité publique est directement identifiée dans une publication ou un commentaire ou lorsqu’elle le signale directement.
Sur Facebook et Instagram, Advanced Protection propose des outils de sécurité supplémentaires pour aider les personnalités publiques à protéger leurs comptes, notamment les candidats et leurs équipes de campagne, ainsi que les élus locaux.
Pour plus d’informations sur l’approche de Meta en matière d’élections, consultez notre page Préparation des élections et, pour WhatsApp, rendez-vous sur notre site web consacré aux élections.