Meta

Identifier les contenus générés par l’IA sur Facebook, Instagram et Threads

 

En tant qu’entreprise à la pointe du développement de l’IA depuis plus de dix ans, il est extrêmement gratifiant de voir s’exprimer toute la créativité des personnes qui utilisent nos nouveaux outils d’IA générative, comme notre générateur d’images Meta AI qui aide les utilisateurs à créer des images à l’aide de simples prompts textes.

À mesure que la différence entre le contenu humain et le contenu synthétique s’estompe, les utilisateurs souhaitent pouvoir les distinguer. Certains d’entre eux découvrent souvent le contenu généré par l’IA pour la première fois et nous ont indiqué qu’ils appréciaient la transparence autour de cette nouvelle technologie. Il est donc important que nous les aidions à savoir si le contenu photoréaliste qu’ils voient a été créé à l’aide de l’IA. Pour ce faire, nous apposons la mention « Imaginé avec l’IA » sur les images photoréalistes créées à l’aide de notre fonction Meta AI, mais nous souhaitons également pouvoir le faire pour les contenus créés à l’aide d’outils d’autres entreprises.

C’est pourquoi nous avons travaillé avec des partenaires du secteur pour nous aligner sur des normes techniques communes qui signalent qu’un contenu a été créé à l’aide de l’IA. La détection de ces signaux nous permettra d’étiqueter les images générées par l’IA que les utilisateurs publient sur Facebook, Instagram et Threads. Nous développons actuellement cette fonctionnalité et, dans les mois à venir, nous commencerons à appliquer l’étiquetage dans toutes les langues prises en charge par chaque application. Nous poursuivrons cette approche tout au long de l’année prochaine, au cours de laquelle un certain nombre d’élections importantes se dérouleront à travers le monde. Pendant cette période, nous espérons en apprendre beaucoup plus sur la façon dont les utilisateurs créent et partagent le contenu créé avec l’IA, sur le type de transparence que les gens jugent le plus utile et sur la façon dont ces technologies évoluent. Ce que nous apprendrons éclairera les meilleures pratiques du secteur et notre propre approche pour l’avenir.

Une nouvelle approche de l’identification et de l’étiquetage des contenus générés par l’IA

Lorsque des images photoréalistes sont créées à l’aide de notre fonctionnalité Meta AI, nous prenons plusieurs mesures pour que les utilisateurs sachent que l’IA est impliquée, notamment en plaçant des marqueurs visibles sur les images, ainsi que des watermarkers invisibles et des métadonnées intégrées dans les fichiers d’image. Cette utilisation de watermarkers invisibles et de métadonnées améliore la robustesse de ces balises invisibles et aide les autres plateformes à les identifier. Il s’agit là d’un élément important de l’approche responsable que nous adoptons pour créer des fonctions d’IA générative

Étant donné que le contenu généré par l’IA apparaît partout sur internet, nous avons travaillé avec d’autres entreprises de notre secteur pour développer des normes communes d’identification dans le cadre de forums tels que le Partnership on AI (PAI). Les watermarkers invisibles que nous utilisons pour les images Meta AI – métadonnées IPTC et marqueurs invisibles – sont conformes aux meilleures pratiques du PAI.

Nous mettons au point des outils de pointe capables d’identifier les watermarkers invisibles à grande échelle, en particulier les informations « générées par l’IA » dans les normes techniques C2PA et IPTC, afin de pouvoir étiqueter les images de Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock lorsqu’ils mettront en œuvre leurs projets d’ajout de métadonnées aux images créées à l’aide de leurs outils.

Si les entreprises commencent à inclure des signaux dans leurs générateurs d’images, elles n’ont pas encore commencé à les inclure dans les outils d’IA qui génèrent du son et de la vidéo à la même échelle, de sorte que nous ne pouvons pas encore détecter ces signaux et étiqueter ce type de contenu provenant d’autres entreprises. Pendant que l’industrie travaille pour mettre en place cette fonctionnalité, nous ajoutons une fonction permettant aux utilisateurs lorsqu’ils partagent des vidéos ou des sons générés par l’IA de l’indiquer afin que nous puissions les étiqueter. Nous exigerons des utilisateurs qu’ils utilisent cet outil d’identification et de référencement lorsqu’ils publieront du contenu organique avec une vidéo photoréaliste ou un son réaliste qui a été créé ou modifié numériquement.  Nous pourrons appliquer des sanctions s’ils ne le font pas. Si nous déterminons qu’un contenu image, vidéo ou audio créé ou modifié numériquement présente un risque particulièrement élevé de tromper le public sur un sujet important, nous pourrons ajouter un étiquetage plus visible, le cas échéant, afin que les internautes disposent de plus d’informations et d’un meilleur contexte.

Cette approche est à la pointe de ce qui est techniquement possible à l’heure actuelle. Mais il n’est pas encore possible d’identifier tous les contenus générés par l’IA, et il existe des moyens d’éliminer les marqueurs invisibles. C’est pourquoi nous réfléchissons à une série d’options. Nous travaillons ardemment pour développer des classificateurs qui peuvent nous aider à détecter automatiquement le contenu généré par l’IA, même si le contenu n’a pas de marqueurs invisibles. Parallèlement, nous cherchons des moyens de rendre plus difficile la suppression ou la modification des watermarkers invisibles. Par exemple, FAIR, le laboratoire de recherche fondamentale en IA de Meta, a récemment partagé ses recherches sur une technologie de watermaker invisible que nous développons, Stable Signature. Cette technologie intègre le mécanisme de watermarking directement dans le processus de génération d’images pour certains types de générateurs d’images, ce qui pourrait être utile pour les modèles open-source afin que le watermarker ne puisse pas être désactivé.

Ce travail est d’autant plus important qu’il est probable que cet espace devienne de plus en plus hostile dans les années à venir. Les personnes et les organisations qui veulent activement tromper les gens avec du contenu généré par l’IA chercheront à contourner les mesures de protection mises en place pour les détecter. Dans notre secteur et dans la société en général, nous devrons continuer à chercher des moyens de garder une longueur d’avance. 

En attendant, il est important de tenir compte de plusieurs éléments pour déterminer si un contenu a été créé par l’IA, comme vérifier si le compte qui partage le contenu est digne de confiance ou rechercher des détails qui pourraient sembler ou paraître artificiels.

La diffusion des contenus générés par l’IA n’en est qu’à ses débuts. Au fur et à mesure qu’il se répandra dans les années à venir, la société débattra de ce qu’il convient de faire ou de ne pas faire pour identifier les contenus synthétiques et non synthétiques. L’industrie et les régulateurs pourraient s’orienter vers des moyens d’authentifier les contenus qui n’ont pas été créés à l’aide de l’IA ainsi que les contenus qui l’ont été. Ce que nous présentons aujourd’hui, ce sont les étapes que nous estimons appropriées pour les contenus partagés sur nos plateformes à l’heure actuelle. Mais nous continuerons d’observer et d’apprendre, et nous reverrons notre approche au fur et à mesure. Nous continuerons à collaborer avec nos pairs du secteur. Et nous resterons en dialogue avec les gouvernements et la société civile.

Nos standards de la communauté s’appliquent à tous les contenus publiés sur nos plateformes, quelle que soit la manière dont ils ont été créés. En ce qui concerne les contenus préjudiciables, le plus important est que nous soyons en mesure de les repérer et de prendre des mesures, qu’ils aient été créés ou non à l’aide de l’IA. L’utilisation de l’IA dans nos systèmes d’intégrité est un élément important qui nous permet de les détecter.  

Depuis plusieurs années, nous utilisons des systèmes d’IA pour protéger nos utilisateurs. Par exemple, nous utilisons l’IA pour nous aider à détecter et à traiter les discours haineux et autres contenus qui enfreignent nos politiques. C’est en grande partie la raison pour laquelle nous avons pu réduire la prévalence des discours haineux sur Facebook à seulement 0,01-0,02 % (à partir du 3e trimestre en 2023). En d’autres termes, pour 10 000 contenus visualisés, nous estimons qu’un ou deux seulement contiendront des propos haineux.

Bien que nous utilisions la technologie de l’IA pour contribuer à l’application de nos politiques, notre utilisation d’outils d’IA générative à cette fin a été limitée. Mais nous sommes optimistes et pensons que l’IA générative pourrait nous aider à supprimer les contenus préjudiciables plus rapidement et avec plus de précision. Elle pourrait également être utile pour faire appliquer nos politiques pendant les périodes où les risques sont les plus élevés, comme les élections.

Nous avons commencé à tester les grands modèles de langage (LLM) en les entraînant sur nos standards de la communauté afin de déterminer si un contenu enfreint nos politiques. Ces premiers tests suggèrent que les LLM peuvent être plus performants que les modèles d’apprentissage automatiques existants. Nous utilisons également les LLM pour supprimer des contenus des files d’attente d’examen dans certaines circonstances, lorsque nous sommes convaincus qu’ils n’enfreignent pas nos politiques. Cela permet à nos modérateurs de se concentrer sur les contenus les plus susceptibles d’enfreindre nos règles.

Les contenus générés par l’IA peuvent également être vérifiés par nos partenaires indépendants de fact-checking. Nous étiquetons les contenus démystifiés afin que les internautes disposent d’informations exactes lorsqu’ils rencontrent des contenus similaires sur internet.

Meta est un pionnier dans l’écosystème IA depuis plus d’une décennie. Nous savons que le progrès et la responsabilité peuvent et doivent aller de pair. Les outils d’IA générative offrent d’énormes possibilités, et nous pensons qu’il est à la fois possible et nécessaire que ces technologies soient développées de manière transparente et responsable. C’est pourquoi nous voulons aider les utilisateurs à savoir quand des images photoréalistes ont été créées à l’aide de l’IA. C’est aussi pour cela que nous sommes transparents à propos de ce qui est réalisable. Nous continuerons à apprendre de la manière dont les personnes utilisent nos outils afin de les améliorer. Et nous continuerons à travailler en collaboration avec d’autres parties prenantes dans le cadre de forums tels que le PAI afin d’élaborer des normes et des garde-fous communs.