Por Monika Bickert, Vice-Presidente de Políticas de Conteúdo

As pessoas compartilham milhões de fotos e vídeos no Facebook todos os dias, criando alguns dos recursos visuais mais atraentes e criativos da nossa plataforma. Em alguns casos, esse conteúdo é editado, geralmente por motivos benignos como tornar um vídeo mais nítido ou um áudio mais claro. No entanto, há pessoas que se envolvem em edição de mídia para enganar outras pessoas.

As manipulações de mídia podem ser feitas através de tecnologias simples como o Photoshop ou de ferramentas sofisticadas que usam inteligência artificial ou técnicas de “deep learning” para criar vídeos que distorçam a realidade – geralmente chamadas de deepfakes. Embora esses vídeos ainda sejam raros na Internet, eles representam um desafio significativo para nossa indústria e sociedade à medida que seu uso aumenta. 

Hoje, queremos descrever como estamos lidando não apenas com as deepfakes, mas também com todos os tipos de mídias manipuladas. Nossa abordagem tem muitos componentes, de investimentos em conteúdo gerado por inteligência artificial e na detecção comportamentos enganosos como contas falsas, a parcerias com acadêmicos, governos e indústria, e identificação das pessoas por trás desses conteúdos manipulados.

Colaboração é fundamental. Em todo o mundo, já engajamos com mais de 50 especialistas globais com formação técnica, política, de mídia, jurídica, cívica e acadêmica para informar sobre nosso desenvolvimento de políticas e melhorias na ciência de detecção de mídia manipulada.

Como resultado dessas parcerias e discussões, estamos fortalecendo nossas políticas no que diz respeito a vídeos manipulados enganosos identificados como deepfakes. A partir de agora, removeremos a mídia manipulada enganosa se ela atender aos seguintes critérios:

  • O conteúdo foi editado ou sintetizado – para além de ajustes de clareza ou qualidade – de uma maneira que não seja claro para uma pessoa comum e que provavelmente levaria alguém a pensar que uma pessoa no vídeo disse palavras que na verdade não disse; e
  • É produto de inteligência artificial ou de aprendizado de máquina (machine learning) que mescle, substitua ou sobreponha um conteúdo a um vídeo, fazendo com que ele pareça autêntico.

A política não se estende a conteúdos de paródia ou sátira, ou vídeos que foram editados para omitir palavras ditas ou alterar a ordem das palavras ditas.

Em consonância com nossas políticas existentes, qualquer áudio, foto ou vídeo, seja uma deepfake ou não, será removido do Facebook se violar qualquer um dos nossos outros Padrões da Comunidade, incluindo nudez, violência gráfica, supressão de votos e discurso de ódio.

Os vídeos que não atendam a esses critérios de remoção são elegíveis para revisão por verificadores de fatos independentes – são mais de 50 parceiros de checagem de fatos do Facebook no mundo em mais de 40 idiomas. Se uma foto ou vídeo for classificado como falso ou parcialmente falso por um verificador de fatos, reduzimos significativamente sua distribuição no Feed de Notícias e não permitimos que esse conteúdo seja impulsionado com um anúncio. E quando as pessoas tentam compartilhar ou já compartilharam o conteúdo marcado como falso, elas recebem avisos alertando de que se trata de um conteúdo falso.

Essa abordagem é essencial para nossa estratégia, conforme escutamos nas nossas conversas com especialistas. Se nós simplesmente removermos todos os vídeos manipulados identificados pelos verificadores de fatos, esses mesmos vídeos ainda estariam disponíveis em outros lugares da Internet ou em outras redes sociais. Ao deixá-los na nossa plataforma com uma identificação de que são falsos, estamos fornecendo contexto e informação importante para as pessoas.

Nossos esforços para combater mídias manipuladas enganosas também se beneficiam do nosso trabalho de identificar as pessoas normalmente por trás desses conteúdos. No mês passado, identificamos e removemos uma rede que usava fotos geradas por inteligência artificial para ocultar suas contas falsas. Nossas equipes continuam buscando proativamente contas falsas e outros comportamentos inautênticos coordenados.

Também estamos engajados na identificação de conteúdos manipulados, entre os quais as deepfakes são as mais difíceis de detectar. Por isso, em setembro do ano passado lançamos o Desafio para Detecção de Deepfake, que tem estimulado pessoas de todo o mundo a produzir mais pesquisas e ferramentas de código aberto para detectar deepfakes. Esse projeto, apoiado por US$10 milhões em doações, inclui uma coalizão intersetorial de organizações, como a Partnership on AI, Cornell Techl, Universidade de Berkeley, MIT, WITNESS, Microsoft, BBC e AWS, entre várias outras da sociedade civil e da tecnologia, mídia e comunidades acadêmicas.

Em um outro esforço, firmamos uma parceria com a Reuters, maior fornecedora mundial de notícias multimídia, para ajudar redações ao redor do mundo a identificar deepfakes e mídias manipuladas por meio de um curso online gratuito. As organizações de notícias dependem cada vez mais de terceiros para obter grandes volumes de imagens e vídeos, e identificar recursos visuais manipulados é um grande desafio. Esse programa visa apoiar as redações a fazer esse trabalho.

À medida que avançamos estas parcerias e o conhecimento sobre mídias manipuladas, nossas políticas sobre esses conteúdos também irão evoluir. Nesse ínterim, estamos comprometidos em investir no Facebook e  em trabalhar com todas as partes interessadas nessa área para encontrar soluções com impacto real.