Meta

Rotulando imagens geradas por inteligência artificial no Facebook, Instagram e Threads

Destaques:

  • Estamos trabalhando ao lado de parceiros da indústria para padronizar questões técnicas comuns na identificação de conteúdos de inteligência artificial, incluindo vídeos e áudios.
  • Nos próximos meses, passaremos a rotular as imagens que os usuários publicam no Facebook, no Instagram e no Threads quando pudermos detectar, por meio de indicadores padronizados do setor, que tenham sido geradas por IA.
  • Rotulamos imagens realistas criadas com a utilização da IA da Meta desde o seu lançamento, para que as pessoas saibam que foram “Criadas com IA”.

Como uma empresa que está à frente do desenvolvimento de inteligência artificial há mais de uma década, tem sido extremamente encorajador testemunhar a explosão de criatividade das pessoas que utilizam das nossas novas ferramentas generativas de IA, como o nosso gerador de imagens da IA da Meta, que ajuda as pessoas a criarem imagens com simples instruções de texto.

À medida que as diferenças entre conteúdos produzidos por humanos e computadores se atenuam, as pessoas querem saber quais são os limites para isso. Muitas vezes, as pessoas se deparam pela primeira vez com conteúdos gerados por inteligência artificial, e os nossos usuários nos disseram que apreciam a transparência em torno dessa nova tecnologia. Por isso, é importante ajudarmos as pessoas a compreender quando o conteúdo fotorrealista que estão vendo foi criado utilizando a IA. Fazemos isso aplicando rótulos de “Criados com IA” à imagens realistas que foram criadas com o uso do recurso da IA da Meta, mas queremos poder fazer isso também com conteúdos criados com ferramentas de outras empresas.

É por isso que temos trabalhado com parceiros da indústria para alinhar padrões técnicos comuns que sinalizam quando um conteúdo foi criado com o uso de inteligência artificial. Ser capaz de detectar esses sinais nos permitirá rotular imagens geradas por IA que os usuários postam no Facebook, no Instagram e no Threads. Estamos desenvolvendo esse recurso agora e, nos próximos meses, começaremos a aplicar esses rótulos em todos os idiomas apoiados por cada aplicativo. Seguiremos utilizando essa abordagem ao longo do ano, em que  ocorrerão diversas eleições importantes ao redor do mundo. Neste período, esperamos aprender muito mais sobre como as pessoas estão criando e compartilhando conteúdos de inteligência artificial, que tipo de transparência as pessoas consideram mais importante e como essas tecnologias evoluem. O que vamos aprender informará as melhores práticas do setor e a nossa própria abordagem no futuro.

Uma nova abordagem para identificar e rotular conteúdos gerados por inteligência artificial

Quando imagens realistas são criadas com o uso do recurso da IA da Meta, há diversas formas para garantir que as pessoas identifiquem se a inteligência artificial está envolvida neste processo, inclusive ao colocar marcadores visíveis que podem ser vistos nas fotos, marcas d’água invisíveis e metadados incorporados em arquivos de imagens. Dessa forma, o uso de marcas d’água invisíveis e metadados melhoram a consistência desses marcadores, além de ajudar outras plataformas a identificá-los. Essa é uma parte importante da abordagem responsável que estamos adotando para construir funcionalidades de inteligência artificial generativa.

Desde que conteúdos gerados por inteligência artificial começaram a aparecer na internet, temos trabalhado com outras empresas do nosso setor para desenvolver uma padronização para identificá-los através de fóruns como o Partnership on AI (PAI). Os marcadores invisíveis que utilizamos para imagens criadas com a IA da Meta – metadados IPTC e marcas d’água invisíveis – estão alinhados com as melhores práticas do PAI.

Estamos construindo ferramentas líderes na indústria que podem identificar marcadores invisíveis em escala – especificamente as informações “geradas por IA” nos padrões técnicos C2PA e IPTC – para que possamos rotular imagens de empresas como Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock à medida que implementam seus planos para adicionar metadados às imagens criadas por suas ferramentas.

 

Embora as empresas estejam começando a incluir sinais em seus geradores de imagens, elas ainda não começaram a incluí-los em ferramentas de inteligência artificial que criam áudios e vídeos na mesma escala e, por isso, ainda não podemos detectar esses sinais e rotular conteúdo de outras companhias. Enquanto a indústria trabalha para alcançar esse recurso, estamos adicionando uma funcionalidade para que as pessoas sinalizem quando compartilharem vídeos ou áudios gerado por inteligência artificial, para que possamos adicionar o rótulo. Passaremos a exigir que as pessoas utilizem essa ferramenta de divulgação e rotulagem quando publicarem conteúdos orgânicos com vídeo ou áudio realista que tenha sido criado ou alterado digitalmente, e poderemos aplicar penalidades caso não o façam. Caso determinemos que a imagem, vídeo ou áudio criado ou alterado digitalmente crie um risco particularmente elevado para enganar substancialmente o seu público sobre uma questão importante, poderemos adicionar um rótulo mais proeminente, se necessário, para que as pessoas tenham mais informações e contexto.

Essa abordagem representa o que há de mais moderno dentro do que é tecnicamente viável no momento. No entanto, ainda não é possível identificar todo o conteúdo gerado pela inteligência artificial e existem maneiras para que as pessoas removam os marcadores invisíveis. Portanto, estamos buscando uma série de opções. Estamos trabalhando muito para desenvolver uma classificação que nos ajude a detectar automaticamente conteúdos gerados por inteligência artificial, mesmo que ele não tenha marcadores invisíveis. Simultaneamente, estamos procurando maneiras de dificultar a remoção ou alteração das marcas d’água invisíveis. Por exemplo, recentemente, o laboratório de pesquisa de inteligência artificial da Meta (FAIR), compartilhou pesquisas sobre uma tecnologia de marca d’água invisível que estamos desenvolvendo, chamada de Stable Signature. Ela integra o mecanismo de marca d’água diretamente no processo de criação de fotos para alguns tipos de geradores de imagem, o que pode ser valioso para modelos de código aberto, de modo que a marca d’água não possa ser desativada.

Esse trabalho é especialmente importante porque é provável que este se torne um espaço cada vez mais adverso nos próximos anos. Pessoas e organizações que desejem ativamente enganar outras pessoas com conteúdos gerados por inteligência artificial vão buscar maneiras de contornar as medidas de segurança implementadas para detectá-los. Em toda a nossa indústria e na sociedade em geral, precisaremos continuar procurando maneiras de estar um passo à frente.

Enquanto isso, é importante que as pessoas considerem vários detalhes ao determinar se um conteúdo foi criado por inteligência artificial, por exemplo, verificando se a conta que compartilhou o conteúdo é confiável ou procurando por detalhes que possam parecer, ou não, reais.

Estamos no início da era de divulgação de conteúdos gerados por inteligência artificial. À medida que essa tecnologia se tornar mais comum nos próximos anos, teremos debates em nossa sociedade sobre o que deve, ou não, ser feito para identificar os conteúdos feitos por computadores ou humanos. A indústria e os reguladores podem ir na direção de formas de autenticar o conteúdo que não foi criado com o uso de inteligência artificial, bem como conteúdos que tenham sido. O que estamos propondo hoje são as etapas que acreditamos ser apropriadas para o conteúdo compartilhado em nossas plataformas neste momento. Mas continuaremos a observar e a aprender. Continuaremos a rever  a nossa abordagem, colaborando com nossos pares da indústria e seguindo em diálogo com governos e sociedade civil.

A IA é tanto uma espada quanto um escudo

Nossos Padrões da Comunidade se aplicam a todos os conteúdos postados em nossas plataformas, independentemente de como tenham sido criados. Quando se trata de um conteúdo prejudicial, o mais importante é que sejamos capazes de detectá-lo e agir independentemente de ter sido gerado, ou não, com inteligência artificial. E o uso de IA nos nossos sistemas de integridade é uma grande parte do que nos permite detectá-la.

Há vários anos que adotamos sistemas de IA para nos ajudar a proteger os nossos usuários. Por exemplo, utilizamos inteligência artificial para nos ajudar a detectar e endereçar discurso de ódio e outros conteúdos que violem as nossas políticas. Essa é uma grande parte da razão pela qual conseguimos reduzir a prevalência do discurso de ódio no Facebook para apenas 0,01-0,02% (dados do terceiro trimestre de 2023). Em outras palavras, para cada 10 mil visualizações de conteúdo, estimamos que apenas uma ou duas conterão discurso de ódio.

Embora utilizemos a tecnologia da inteligência artificial para nos ajudar a aplicar as nossas políticas, a nossa adoção de ferramentas de IA generativa para este fim tem sido limitada. No entanto, estamos otimistas de que a inteligência artificial generativa possa nos ajudar a eliminar conteúdos nocivos com maior  rapidez e precisão. Também poderia ser útil na aplicação das nossas políticas em momentos de risco elevado, como durante as eleições. Começamos a testar grandes modelos de linguagem (LLMs), treinando-os com os nossos Padrões da Comunidade para nos ajudar a determinar se um conteúdo viola as nossas políticas. Esses testes iniciais sugerem que os LLMs podem ter um desempenho melhor do que os modelos de aprendizado de máquina já existentes. Também estamos usando LLMs para remover conteúdo das filas de revisão em determinadas circunstâncias, quando temos certeza de que ele não é violador das  nossas políticas. Isso traz uma maior disponibilidade aos nossos revisores, para que se concentrem em conteúdo com maior probabilidade de violação das nossas regras.

O conteúdo gerado por inteligência artificial também é elegível para a checagem de fatos dos nossos parceiros independentes de checagem, e rotulamos o conteúdo desmentido para que as pessoas tenham informações precisas quando encontrarem informações semelhantes na Internet.

A Meta é pioneira no desenvolvimento de inteligência artificial há mais de uma década. Sabemos que o progresso e a responsabilidade podem e devem andar de mãos dadas. As ferramentas de IA generativa oferecem enormes oportunidades e acreditamos que seja possível e necessário que essas tecnologias sejam desenvolvidas de forma transparente e responsável. É por isso que queremos ajudar as pessoas a entender quando imagens realistas tenham sido criadas com o uso de IA e o porquê de estarmos sendo tão abertos sobre os limites do que é possível. Continuaremos aprendendo como as pessoas utilizam as nossas ferramentas para melhorá-las, e continuaremos a trabalhar em colaboração com terceiros através de fóruns, como o PAI, para desenvolver padrões comuns e barreiras de proteção.