Por Tessa Lyons
Durante o último ano e meio, temos trabalhado com afinco para combater notícias falsas por meio de uma combinação de tecnologia e análise humana, incluindo a remoção de contas falsas, parcerias com agências de checagem de fatos e a promoção de iniciativas de news literacy. Esse esforço nunca terminará e ainda temos muito a fazer. Hoje estamos anunciando diversas atualizações como parte deste trabalho:
- Expandindo nosso programa de verificação de fatos para novos países
- Expandindo nosso teste para verificar o conteúdo de fotos e vídeos
- Aumentando o impacto da verificação de fatos usando novas técnicas, incluindo a identificação de conteúdos duplicados
- Tomando medidas contra Páginas e domínios que disseminam notícias falsas além de suas fronteiras
- Melhorando a mensuração do nosso trabalho e a transparência por meio de parcerias com acadêmicos
Expandindo nosso programa de verificação de fatos para novos países. Desde que lançamos o programa de verificação de fatos, já o expandimos para 14 países e temos planos de levá-lo para mais lugares até o fim do ano. Esses verificadores de fatos certificados e independentes classificam a precisão das matérias no Facebook, ajudando-nos a reduzir a distribuição de histórias classificadas como falsas em uma média de 80%.
Expandindo nosso teste para verificar fotos e vídeos. Um desafio na luta contra a desinformação é que ela se manifesta de formas diferentes dependendo dos tipos de conteúdo e país. Para enfrentar esse desafio, expandimos nosso teste para verificar fotos e vídeos a quatro países. Isso inclui imagens que são manipuladas (por exemplo, um vídeo que é editado para mostrar algo que realmente não aconteceu) ou retiradas do contexto (por exemplo, uma foto de uma tragédia anterior associada a um conflito atual diferente).
Aumentando o impacto da verificação de fatos usando novas técnicas. Com mais de um bilhão de conteúdos publicados todos os dias, sabemos que os verificadores de fatos não podem revisar cada história individualmente. Então estamos procurando novas maneiras de identificar notícias falsas e agir em uma escala maior.
- Machine learning nos ajuda a identificar conteúdos duplicados de notícias já contestadas. Por exemplo, um verificador de fatos na França marcou como falsa a alegação de que é possível salvar uma pessoa sofrendo um derrame usando uma agulha para picar seus dedos e tirar sangue. Isso nos permitiu identificar mais de 20 domínios e mais de 1.400 links espalhando essa mesma alegação.
- Além disso, vamos começar a trabalhar com nossos parceiros de verificação de fatos para usar a Claim Review, da Schema.org, uma estrutura de código aberto usada por várias empresas de tecnologia e organizações de verificação de fatos. Isso facilitará para os verificadores compartilhar avaliações com o Facebook e nos ajudará a responder mais rapidamente, especialmente em tempos de crises.
Tomando medidas contra Páginas e domínios que disseminam notícias falsas além de suas fronteiras. Historicamente, usamos classificações de verificadores de fatos para identificar Páginas e domínios que compartilham repetidamente notícias falsas. Em seguida, agimos reduzindo sua distribuição e removendo sua capacidade de gerar receita. Para ajudar a conter a interferência estrangeira no discurso público, estamos começando a usar machine learning para ajudar a identificar e reduzir o alcance orgânico de Páginas estrangeiras que provavelmente espalharão boatos com motivação financeira para pessoas em outros países.
Melhorando a mensuração do nosso trabalho e a transparência por meio de parcerias com acadêmicos. Em abril, anunciamos uma nova iniciativa para ajudar a fornecer pesquisas independentes sobre o papel das redes sociais nas eleições, assim como na democracia em geral. A comissão de pesquisa sobre eleições está no processo de contratação de equipe e estabelecimento de procedimentos legais e organizacionais necessários para se tornar totalmente independente. Nas próximas semanas, a comissão lançará um site e, em seguida, seu primeiro pedido de propostas de trabalho para medir o volume e os efeitos da desinformação no Facebook.
Atualmente, estamos trabalhando com a comissão para desenvolver conjuntos de dados com privacidade protegida que incluirão uma amostra de links com os quais as pessoas se engajam no Facebook. Os acadêmicos selecionados pela comissão poderão estudar esses links para entender melhor os tipos de conteúdo que estão sendo compartilhados no Facebook. Com o tempo, essa pesquisa validada externamente ajudará a acompanhar nosso progresso.