Meta

Relatório de Aplicação dos Padrões da Comunidade, edição de agosto de 2020

Hoje estamos publicando a sexta edição do nosso Relatório de Aplicação dos Padrões da Comunidade, a primeira atualização trimestral, fornecendo métricas sobre como aplicamos nossas políticas de abril de 2020 a junho de 2020. Este relatório inclui métricas relativas a 12 políticas no Facebook e 10 políticas no Instagram.

Devido à pandemia do COVID-19, enviamos nossos revisores de conteúdo para casa em março, para proteger sua saúde e segurança, e contamos ainda mais com nossa tecnologia para nos ajudar a revisar conteúdo. Desde então, trouxemos muitos revisores de volta online de casa, e um número menor no escritório, nos locais seguros. Continuaremos usando tecnologia para priorizar a revisão do conteúdo que tem mais potencial de causar o maior dano. O relatório de hoje mostra o impacto do COVID-19 em nossa moderação de conteúdo e demonstra que, embora nossa tecnologia para identificar e remover conteúdo violador esteja melhorando, continuarão existindo áreas em que é preciso contar com as pessoas para revisar conteúdo e treinar nossa tecnologia.

Por exemplo, dependemos muito de pessoas para analisar conteúdo de suicídio e automutilação, assim como exploração infantil, e ajudar a melhorar a tecnologia que encontra e remove proativamente conteúdo idêntico ou quase idêntico que viola essas políticas. Com menos revisores de conteúdo, removemos um número menor de conteúdos relacionados a automutilação e suicídio no Facebook e no Instagram, e relacionados a nudez infantil e exploração sexual de crianças no Instagram. Apesar dessas reduções, priorizamos e tomamos medidas sobre conteúdos mais graves dentro dessas categorias. Nosso foco continua ser o de  encontrar e remover esse tipo de conteúdo, enquanto aumentamos o número de revisores da maneira mais rápida e segura possível.

O número de apelações também é menor neste relatório, porque nem sempre pudemos oferecer esse recurso aos usuários. Informamos às pessoas sobre isso e, se sentissem que cometemos um erro, ainda demos a elas a opção de nos dizer que discordavam de nossa decisão. Revisamos muitas dessas instâncias e restauramos o conteúdo quando era apropriado. Finalmente, como priorizamos a remoção de conteúdo nocivo em vez de medir nossos esforços durante esse período, não foi possível calcular a prevalência de violência e conteúdo explícito e nudez adulta e atividades sexuais. Nossa previsão é que poderemos compartilhar essas métricas no terceiro trimestre, em nosso próximo relatório.

Apesar do impacto do COVID-19, as melhorias em nossa tecnologia nos permitiram agir sobre mais conteúdo em algumas áreas e aumentar nossa taxa de detecção proativa em outras. Nossa taxa de detecção proativa de discurso de ódio no Facebook aumentou 6 pontos, de 89% para 95%. Por sua vez, a quantidade de conteúdo em que aplicamos medidas aumentou de 9,6 milhões no primeiro trimestre para 22,5 milhões no segundo trimestre. Isso porque expandimos parte de nossa tecnologia de automação em espanhol, árabe e indonésio, e fizemos melhorias em nossa tecnologia de detecção em inglês no primeiro trimestre. No segundo trimestre, as melhorias em nossos recursos de automação nos ajudaram a agir sobre mais conteúdo em inglês, espanhol e birmanês. No Instagram, nossa taxa de detecção proativa de discurso de ódio aumentou 39 pontos, de 45% para 84%, e a quantidade de conteúdo sobre o qual agimos aumentou de 808.900 no primeiro trimestre de 2020 para 3,3 milhões no segundo trimestre. Esses aumentos foram impulsionados pela expansão de nossas tecnologias de detecção proativa em inglês e espanhol.

Outra área em que vimos avanços devido à nossa tecnologia foi o conteúdo de terrorismo. No Facebook, a quantidade de conteúdos sobre os quais aplicamos medidas aumentou de 6,3 milhões no primeiro trimestre para 8,7 milhões no segundo trimestre. E graças às melhorias em nossa tecnologia e ao retorno de alguns revisores de conteúdo, vimos aumentos na quantidade de conteúdo removido em relação ao ódio organizado no Instagram e bullying e assédio no Facebook e Instagram.

Fizemos progresso no combate ao ódio em nossos aplicativos, mas sabemos que temos mais a fazer para garantir que todos se sintam confortáveis usando nossos serviços. É por isso que criamos novas equipes e grupos de trabalho incluindo o Time de Equidade do Instagram e o Conselho de Produto Inclusivo do Facebook – para nos ajudar a construir produtos que sejam deliberadamente justos e inclusivos, e a razão de estarmos lançando um Conselho Consultivo de Diversidade que irá trazer sugestões baseadas na experiência de vida em uma variedade de tópicos e questões. 

Estamos ainda atualizando nossas políticas para considerar mais especificamente certos tipos de discurso de ódio, como conteúdo retratando blackface ou estereótipos sobre judeus controlando o mundo, conteúdos nocivos que são usados ​​para atacar, intimidar ou excluir grupos específicos. Também continuamos a priorizar a remoção de conteúdo que viole nossa política contra grupos de ódio. Desde outubro de 2019, conduzimos 14 desmembramentos estratégicos de rede para remover 23 diferentes organizações banidas, das quais mais da metade apoiavam a supremacia branca. 

Queremos que as pessoas tenham confiança de que os números que relatamos sobre conteúdo nocivo são precisos, por isso faremos uma auditoria independente, começando em 2021, para validar os números que publicamos em nosso Relatório de Aplicação dos Padrões da Comunidade.

À medida que a pandemia do COVID-19 evolui, continuaremos adaptando nosso processo de revisão de conteúdo, trabalhando para melhorar a nossa tecnologia e adicionar mais revisores trabalhando remotamente.