Meta

Relatório de Aplicação dos Padrões da Comunidade, quarto trimestre de 2020

Estamos publicando hoje o nosso Relatório de Aplicação dos Padrões da Comunidade referente ao quarto trimestre de 2020. Este relatório fornece métricas sobre como aplicamos nossas políticas entre os meses de outubro e dezembro, incluindo dados sobre 12 políticas no Facebook e 10 políticas no Instagram.

Destaques do trabalho de revisão de conteúdo

No último trimestre, compartilhamos pela primeira vez a prevalência do discurso de ódio no Facebook para mostrar a porcentagem estimada de vezes que uma pessoa viu esse tipo de conteúdo em nossa plataforma. Neste trimestre, a prevalência de discurso de ódio caiu de 0,10 – 0,11% para 0,07 – 0,08% ou 7 a 8 visualizações de discurso de ódio para cada 10.000 visualizações de conteúdo. A prevalência de conteúdo violento e gráfico também caiu de 0,07% para 0,05% e o conteúdo de nudez adulta caiu de 0,05 – 0,06% para 0,03 – 0,04%.

Essas melhorias estão ligadas às alterações de classificação que fizemos para reduzir o conteúdo problemático no Feed de Notícias. Cada publicação é classificada por meio de processos que levam em consideração uma combinação de sinais de integridade, como a probabilidade de um determinado conteúdo violar nossas políticas, bem como aqueles que recebemos das pessoas em pesquisas ou ações realizadas, como esconder ou denunciar publicações. Melhorar a forma como usamos esses sinais nos ajuda a customizar o Feed de Notícias de acordo com as preferências individuais, e também reduz o número de vezes que mostramos posts que, mais tarde, podem ser considerados violadores das nossas políticas.

Nossa taxa proativa, que é a porcentagem de conteúdo que acionamos e que encontramos antes de um usuário denunciá-lo para nós, melhorou em certas áreas problemáticas, principalmente bullying e assédio. Nossa taxa proativa nessa categoria passou de 26% no terceiro trimestre para 49% no quarto trimestre no Facebook e de 55% para 80% no Instagram. Essas melhorias de IA em áreas em que as nuances e o contexto são essenciais, como discurso de ódio ou bullying e assédio, nos ajudaram a escalar melhor os esforços para que possamos manter mais pessoas seguras.

Aos poucos, continuamos recuperando nossa força de trabalho de revisão de conteúdo em todo o mundo, embora nossa capacidade de revisar conteúdo continue afetada pelo COVID-19 até que uma vacina esteja amplamente disponível. Com capacidade limitada, priorizamos o conteúdo mais nocivo para que nossas equipes analisem, como conteúdo sobre suicídio e automutilação.

No Facebook, no quarto trimestre, agimos em:

 No Instagram, no quarto trimestre, agimos em:

Planos para 2021

Este ano, planejamos compartilhar métricas adicionais no Instagram e adicionar novas categorias de políticas no Facebook. Também estamos trabalhando para tornar nossos dados de aplicação de medidas mais fáceis de entender, com relatórios mais interativos. Nosso objetivo é liderar a indústria de tecnologia em transparência, e continuaremos a compartilhar mais métricas de aplicação de medidas como parte desse esforço.

Também acreditamos que nenhuma empresa deve atribuir uma nota ao seu próprio trabalho. Por isso, no ano passado, nos comprometemos a nos submeter a uma auditoria independente, conduzida por terceiros, dos nossos sistemas de moderação de conteúdo e para validar os números que vamos publicar. Esse processo começará neste ano.

Vamos continuar a desenvolver esse progresso, melhorando nossa tecnologia e esforços de aplicação das medidas para manter conteúdos nocivos fora dos nossos aplicativos.