Meta

Comment Meta se prépare aux élections législatives françaises de 2024

Tout au long de l’année 2024, de nombreux pays et régions du monde se rendront aux urnes pour élire leurs dirigeants. Chez Meta, nous nous y préparons depuis longtemps et avons activé une équipe dédiée pour développer une approche personnalisée afin d’aider à préserver l’intégrité de chacune de ces élections sur nos plateformes. 

Bien que chaque élection soit unique, ce travail s’appuie sur les principales leçons que nous avons tirées de plus de 200 élections dans le monde depuis 2016. Ces leçons nous aident à orienter le travail de nos équipes, nos technologies et nos investissements afin qu’ils aient la plus grande efficacité.

Depuis 2016, nous avons investi plus de 20 milliards de dollars dans la sûreté et la sécurité et quadruplé la taille de notre équipe mondiale travaillant dans ce domaine pour atteindre environ 40 000 personnes. Cela inclut 15 000 modérateurs qui examinent le contenu sur Facebook, Instagram et Threads. 

Au cours des huit dernières années, nous avons déployé des outils de pointe pour les publicités portant sur un enjeu social, électoral ou politique, développé des politiques complètes pour prévenir l’ingérence électorale et la fraude électorale, et mis en place le plus grand programme de vérification de faits par des tiers de toutes les plateformes de réseaux sociaux pour aider à lutter contre la propagation des fausses informations. Plus récemment, nous nous sommes engagés à adopter une approche responsable concernant les nouvelles technologies comme l’IA générative. Nous nous appuierons sur toutes ces ressources à l’approche des élections et lancerons dès cette semaine une nouvelle campagne publicitaire sur Facebook et Instagram pour sensibiliser à ces outils et fonctionnalités.

Nous activerons également un centre d’opérations électorales spécifique à la France, réunissant des experts de toute l’entreprise, issus de nos équipes de data science, d’ingénierie, de recherche, d’opérations, de politique de contenu ou encore de nos équipes juridiques pour identifier les menaces potentielles et mettre en place des mesures d’atténuation spécifiques dans nos applications et technologies en temps réel.

Voici quatre domaines clés sur lesquels nos équipes se concentreront : 

La lutte contre les fausses informations 

Nous supprimons les types de fausses informations les plus graves sur Facebook, Instagram et Threads, tels que les contenus susceptibles de contribuer à une violence imminente ou à des dommages physiques, ou qui tentent d’empêcher le vote.

Pour les contenus qui n’enfreignent pas ces règles spécifiques, nous travaillons avec des organisations indépendantes de vérification de faits, toutes certifiées par l’International Fact Checking Network (IFCN) ou l’European Fact-Checking Standards Network (EFCSN), qui examinent et évaluent les contenus. En France, nous travaillons avec l’AFP, 20 Minutes, Les Surligneurs et France 24 pour réduire la circulation des fausses informations. Dès 2022, nous avons travaillé avec l’AFP au lancement d’une ligne dédiée à AFP Factuel, à laquelle les utilisateurs peuvent adresser des questions concernant des contenus douteux à vérifier. Cette ligne est toujours active et joignable au 0647087046.

Avant la période électorale, nous ferons en sorte qu’il soit plus facile pour tous nos partenaires de vérification de faits de trouver et d’évaluer les contenus liés aux élections, car nous reconnaissons que la rapidité est particulièrement importante dans ces moments. Nous avons renforcé leur capacité à évaluer et à examiner le contenu et nous utiliserons la détection de mots-clés pour regrouper le contenu connexe en un seul endroit, ce qui facilitera la recherche pour les vérificateurs de faits. Nos partenaires de vérification de faits ont été formés à notre nouvel outil de recherche, Meta Content Library, qui dispose d’une puissante capacité de recherche pour les aider dans leur travail.

Nous n’autorisons pas les publicités comprenant du contenu évalué comme faux. Nous n’autorisons pas non plus les publicités ciblant la France qui découragent les gens de voter aux élections, remettent en question la légitimité de l’élection et de son résultat, ou contiennent des revendications prématurées de victoire électorale. Notre processus d’examen des publicités comporte plusieurs niveaux d’analyse et de détection, à la fois avant et après la mise en ligne d’une publicité, que vous pouvez lire plus en détail ici.

Les annonceurs diffusant des campagnes sur les plateformes de Meta doivent respecter nos politiques en matière de publicité ainsi que les lois et réglementations, qui peuvent varier d’un pays à l’autre pour ce qui concerne les élections. Pour toute question liée aux règles et régulations en période de campagne, veuillez s’il vous plaît vous référer au Code électoral français ainsi qu’aux recommandations de l’ARPP.

Nous accompagnons ces efforts de démarches et campagnes régulières en faveur de l’éducation aux médias. Depuis le début de l’année 2024 par exemple, nous avons travaillé à une campagne de sensibilisation aux bons réflexes à adopter en ligne avec l’AFP, à travers la réalisation d’une vidéo dans laquelle Thomas Pesquet livrait ses conseils et expériences face aux fausses informations. Aux côtés des autres grandes plateformes numériques, nous avons également soutenu en mai le programme de l’association Génération Numérique contre la désinformation et les manipulations, consistant en la diffusion de 16 vidéos de sensibilisation sur des sujets aussi variés que les biais de confirmation ou encore les théories du complot et les signes à repérer pour ne pas tomber dans ces pièges. 

La lutte contre les opérations d’influence

Nous définissons les opérations d’influence comme des efforts coordonnés pour manipuler ou corrompre le débat public dans un but stratégique – ce que certains peuvent appeler de la désinformation – et qui peuvent ou non inclure la fausse information comme tactique. Elles peuvent varier de campagnes cachées qui reposent sur de fausses identités (ce que nous appelons comportements inauthentiques coordonnés) à des efforts manifestes par des entités médiatiques contrôlées par l’État. 

Pour contrer les opérations d’influence secrètes, nous avons mis en place des équipes mondiales spécialisées pour mettre fin aux comportements inauthentiques coordonnés et avons enquêté et démantelé plus de 200 de ces réseaux adverses depuis 2017, ce que nous partageons publiquement dans nos rapports trimestriels sur les menaces. Il s’agit d’un espace très conflictuel où les campagnes trompeuses que nous supprimons tentent sans cesse de revenir et d’échapper à notre détection et celle d’autres plateformes, c’est pourquoi nous prenons des mesures en continu à chaque fois que nous découvrons de nouvelles activités enfreignant nos règles.

Par ailleurs, nous étiquetons les médias contrôlés par un Etat sur Facebook, Instagram et Threads afin que les utilisateurs sachent quand le contenu provient d’une publication pouvant être sous le contrôle éditorial d’un gouvernement. Nous avons également appliqué de nouvelles mesures plus strictes aux médias russes contrôlés par l’État, notamment en les bloquant dans l’UE et en réduisant la visibilité de leurs publications à l’échelle mondiale. Une étude récente de Graphika montre que cela a conduit à une baisse de 55 % des volumes de publication sur leurs pages et à une baisse des niveaux d’engagement de 94 % par rapport aux niveaux d’avant-guerre, tandis que « plus de la moitié de tous les médias d’État russes avaient complètement cessé de publier ».

En France, nous travaillons régulièrement aux côtés d’experts tels que VIGINUM afin de réagir rapidement face à ce type de menaces. 

La lutte contre les risques liés à l’utilisation abusive des technologies GenAI

Nos Standards de la communauté et nos Standards publicitaires s’appliquent à tout contenu, y compris le contenu généré par l’IA, et nous prendrons des mesures contre ce type de contenu lorsqu’il va à l’encontre de ces Standards. Le contenu généré par l’IA peut également être examiné et évalué par nos partenaires indépendants de vérification de faits. L’une des options d’évaluation est Altéré, qui comprend « Audio, vidéo ou photos truqués, manipulés ou transformés ». Lorsqu’il est évalué comme tel, nous le signalons et le rétrogradons dans le fil d’actualité, afin que moins de personnes le voient. Nous n’autorisons pas non plus la diffusion d’une publicité si elle contient du contenu qui a déjà été évalué comme faux.

Pour le contenu qui n’enfreint pas nos politiques, nous pensons toujours qu’il est important que les gens sachent quand le contenu photoréaliste qu’ils voient a été créé à l’aide de l’IA. Nous étiquetons les images photoréalistes créées à l’aide de Meta AI et étiquetons les  images générées par l’IA que les utilisateurs publient sur Facebook, Instagram et Threads à partir de Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock à mesure qu’ils mettent en œuvre leurs projets d’identification de ces contenus. 

Nous avons également ajouté une fonctionnalité permettant aux utilisateurs d’indiquer lorsqu’ils partagent des images, des vidéos ou des audios générés par l’IA afin que nous puissions y ajouter une étiquette.

Les annonceurs qui diffusent des publicités liées à un enjeu social, électoral ou politique avec Meta doivent également indiquer s’ils utilisent une image, une vidéo ou un extrait audio qui semble réaliste, qui a été créé ou modifié numériquement, y compris avec l’IA, dans certains cas. Cela s’ajoute à notre transparence publicitaire de pointe, qui comprend: un processus de vérification pour prouver qu’un annonceur est bien celui qu’il prétend être et qu’il vit en France ; une mention « Payé par » pour montrer qui est derrière chaque publicité ; et notre bibliothèque publicitaire, où tout le monde peut voir quelles publicités sont diffusées, voir des informations sur le ciblage et savoir combien a été dépensé pour celles-ci.

Depuis que le contenu généré par l’IA apparaît sur Internet, nous travaillons également avec d’autres entreprises de notre secteur sur des normes et des standards communs. Par exemple, nous sommes membres du Partnership on IA, et nous avons récemment signé l’ accord technologique pour lutter contre la diffusion de contenus trompeurs lors des élections de 2024. Ce travail est trop important pour une entreprise seule et nécessitera un effort immense de l’ensemble de l’industrie, des gouvernements et de la société civile.

La sécurité des candidats

Nous souhaitons que nos plateformes permettent aux élus et aux candidats de mobiliser leurs électeurs sur les questions qui leur tiennent à cœur de manière sûre et positive. Bien que nos règles distinguent les personnalités publiques des particuliers pour permettre une discussion ouverte, nous employons diverses mesures pour protéger les personnalités publiques contre les messages et les comportements malveillants.

Nos Standards de la communauté décrivent ce qui est autorisé et ce qui ne l’est pas sur Facebook, Instagram et Threads. Grâce aux retours de notre communauté et d’experts du monde entier, nous avons créé des politiques spécifiques pour protéger les personnalités publiques.

Nous travaillons également en étroite collaboration avec les partis politiques pour encourager les candidats à signaler tout ce qui suscite des inquiétudes et adopter les meilleures pratiques en matière de sécurité sur les réseaux sociaux. Nous organisons des sessions de formation sur la sécurité pour les candidats, décrivant l’aide disponible pour lutter contre le harcèlement sur nos plateformes. Toutes ces informations seront également disponibles dans notre centre électoral pour les candidats aux élections législatives françaises.

Pour plus d’informations sur la façon dont Meta aborde les élections, consultez notre page Préparation des élections et pour WhatsApp, visitez notre site Web sur les élections.