Relatório de Aplicação dos Padrões da Comunidade, quarto trimestre de 2020

Por Guy Rosen, vice-presidente de Integridade

Estamos publicando hoje o nosso Relatório de Aplicação dos Padrões da Comunidade referente ao quarto trimestre de 2020. Este relatório fornece métricas sobre como aplicamos nossas políticas entre os meses de outubro e dezembro, incluindo dados sobre 12 políticas no Facebook e 10 políticas no Instagram.

Destaques do trabalho de revisão de conteúdo

No último trimestre, compartilhamos pela primeira vez a prevalência do discurso de ódio no Facebook para mostrar a porcentagem estimada de vezes que uma pessoa viu esse tipo de conteúdo em nossa plataforma. Neste trimestre, a prevalência de discurso de ódio caiu de 0,10 – 0,11% para 0,07 – 0,08% ou 7 a 8 visualizações de discurso de ódio para cada 10.000 visualizações de conteúdo. A prevalência de conteúdo violento e gráfico também caiu de 0,07% para 0,05% e o conteúdo de nudez adulta caiu de 0,05 – 0,06% para 0,03 – 0,04%.

Essas melhorias estão ligadas às alterações de classificação que fizemos para reduzir o conteúdo problemático no Feed de Notícias. Cada publicação é classificada por meio de processos que levam em consideração uma combinação de sinais de integridade, como a probabilidade de um determinado conteúdo violar nossas políticas, bem como aqueles que recebemos das pessoas em pesquisas ou ações realizadas, como esconder ou denunciar publicações. Melhorar a forma como usamos esses sinais nos ajuda a customizar o Feed de Notícias de acordo com as preferências individuais, e também reduz o número de vezes que mostramos posts que, mais tarde, podem ser considerados violadores das nossas políticas.

Nossa taxa proativa, que é a porcentagem de conteúdo que acionamos e que encontramos antes de um usuário denunciá-lo para nós, melhorou em certas áreas problemáticas, principalmente bullying e assédio. Nossa taxa proativa nessa categoria passou de 26% no terceiro trimestre para 49% no quarto trimestre no Facebook e de 55% para 80% no Instagram. Essas melhorias de IA em áreas em que as nuances e o contexto são essenciais, como discurso de ódio ou bullying e assédio, nos ajudaram a escalar melhor os esforços para que possamos manter mais pessoas seguras.

Aos poucos, continuamos recuperando nossa força de trabalho de revisão de conteúdo em todo o mundo, embora nossa capacidade de revisar conteúdo continue afetada pelo COVID-19 até que uma vacina esteja amplamente disponível. Com capacidade limitada, priorizamos o conteúdo mais nocivo para que nossas equipes analisem, como conteúdo sobre suicídio e automutilação.

No Facebook, no quarto trimestre, agimos em:

  • 6,3 milhões de peças de conteúdo de bullying e assédio, acima dos 3,5 milhões no terceiro trimestre, devido em parte a atualizações em nossa tecnologia para detectar comentários
  • 6,4 milhões de peças de conteúdo de ódio organizado, acima dos 4 milhões no terceiro trimestre
  • 26,9 milhões de peças de conteúdo de discurso de ódio, acima dos 22,1 milhões no terceiro trimestre, devido em parte às atualizações em nossa tecnologia em árabe, espanhol e português
  • 2,5 milhões de peças de conteúdo de suicídio e automutilação, acima dos 1,3 milhão no terceiro trimestre, devido ao aumento da capacidade de revisão

 No Instagram, no quarto trimestre, agimos em:

  • 5 milhões de peças de conteúdo de bullying e assédio, acima dos 2,6 milhões no terceiro trimestre, em parte devido a atualizações em nossa tecnologia para detectar comentários
  • 308 mil peças de conteúdo de ódio organizado, acima dos 224 mil no terceiro trimestre
  • 6,6 milhões de peças de conteúdo de discurso de ódio, acima dos 6,5 milhões no terceiro trimestre
  • 3,4 milhões de peças de conteúdo de suicídio e automutilação, acima de 1,3 milhão no terceiro trimestre, devido ao aumento da capacidade de revisão

Planos para 2021

Este ano, planejamos compartilhar métricas adicionais no Instagram e adicionar novas categorias de políticas no Facebook. Também estamos trabalhando para tornar nossos dados de aplicação de medidas mais fáceis de entender, com relatórios mais interativos. Nosso objetivo é liderar a indústria de tecnologia em transparência, e continuaremos a compartilhar mais métricas de aplicação de medidas como parte desse esforço.

Também acreditamos que nenhuma empresa deve atribuir uma nota ao seu próprio trabalho. Por isso, no ano passado, nos comprometemos a nos submeter a uma auditoria independente, conduzida por terceiros, dos nossos sistemas de moderação de conteúdo e para validar os números que vamos publicar. Esse processo começará neste ano.

Vamos continuar a desenvolver esse progresso, melhorando nossa tecnologia e esforços de aplicação das medidas para manter conteúdos nocivos fora dos nossos aplicativos.



Usamos cookies para ajudar a personalizar conteúdo, mensurar anúncios e fornecer uma experiência mais segura. Clicando ou navegando no site, você concorda em permitir a coleta de informações dentro e fora do Facebook por meio de cookies. Saiba mais, inclusive sobre os controles disponíveis: Política de Cookies