Relatório de Aplicação dos Padrões da Comunidade, Novembro 2020

Por Guy Rosen, vice-presidente de Integridade

Hoje estamos publicando nosso Relatório de Aplicação dos Padrões da Comunidade referente ao terceiro trimestre de 2020. Este relatório fornece métricas sobre como aplicamos nossas políticas de julho a setembro e inclui métricas sobre 12 políticas no Facebook e 10 políticas no Instagram.

O que há de novo: prevalência de discurso de ódio

Pela primeira vez, estamos incluindo dados sobre a prevalência do discurso de ódio no Facebook em todo o mundo. No terceiro trimestre de 2020, a prevalência de discurso de ódio foi de 0,10% – 0,11% ou 10 a 11 visualizações de discurso de ódio para cada 10.000 visualizações de conteúdo. Devido aos nossos investimentos em Inteligência Artificial (IA), temos sido capazes de remover mais conteúdo de incitação ao ódio e encontrar esse tipo de conteúdo de forma mais proativa antes mesmo que os usuários reportassem . 

Nossas métricas de aplicação neste trimestre, incluindo a quantidade de conteúdo de incitação ao ódio que encontramos proativamente e a quantidade de conteúdo sobre o qual tomamos medidas, indicam que estamos progredindo na remoção de conteúdo nocivo. A prevalência, por outro lado, estima a porcentagem de vezes que as pessoas veem conteúdo violador em nossa plataforma. Leia mais sobre nosso trabalho com discurso de ódio.

Destaques do trabalho de revisão de conteúdo

Embora a pandemia da COVID-19 continue a prejudicar nossa força de trabalho de revisão de conteúdo, estamos vendo algumas métricas de aplicação retornarem aos níveis pré-pandemia. Nossas taxas de detecção proativa de conteúdo violador aumentaram desde o segundo trimestre na maioria das políticas, devido a melhorias na IA e à expansão de nossas tecnologias de detecção para mais idiomas. Mesmo com uma capacidade de revisão reduzida, ainda priorizamos o conteúdo mais sensível para as pessoas revisarem, o que inclui áreas como suicídio, automutilação e nudez infantil.

No Facebook, no terceiro trimestre, agimos em:

  • 22,1 milhões de peças de conteúdo de discurso de ódio, cerca de 95% dos quais identificados de forma proativa;
  • 19,2 milhões de peças de conteúdo violento e gráfico (contra 15 milhões no segundo trimestre);
  • 12,4 milhões de peças conteúdo de nudez infantil e conteúdo de exploração sexual (de 9,5 milhões no segundo trimestre);
  • 3,5 milhões de conteúdos de bullying e assédio (acima dos 2,4 milhões no segundo trimestre).

No Instagram no terceiro trimestre, agimos em:

  • 6,5 milhões de peças de conteúdo de discurso de ódio (contra 3,2 milhões no segundo trimestre), cerca de 95% dos quais foram identificados de forma proativa (contra cerca de 85% no segundo trimestre);
  • 4,1 milhões de peças de conteúdo violento e gráfico (contra 3,1 milhões no segundo trimestre);
  • 1,0 milhão de peças de nudez infantil e conteúdo de exploração sexual (de 481.000 no segundo trimestre);
  • 2,6 milhões de conteúdos de intimidação e assédio (ante 2,3 milhões no segundo trimestre);
  • 1,3 milhão de conteúdos de suicídios e automutilação (contra 277.400 no segundo trimestre).

O aumento em nossa taxa de detecção proativa de discurso de ódio no Instagram foi impulsionado em parte pelo aprimoramento de nossa tecnologia de detecção proativa para os idiomas inglês, árabe e espanhol e pela expansão da tecnologia de automação. Esperamos flutuações nesses números à medida que continuamos a nos adaptar aos desafios da força de trabalho relacionados à COVID.

Compartilhando Políticas Adicionais 

Hoje estamos atualizando o site dos nossos Padrões da Comunidade para incluir políticas adicionais que são complexas e nem sempre podem ser aplicadas em escala. Essas políticas geralmente precisam de equipes especializadas para coletar mais informações sobre um determinado problema e conseguir tomar decisões adequadas. Por exemplo, exigimos informações adicionais, normalmente de um membro da família, antes de remover a conta de uma pessoa falecida. Também podemos usar informações adicionais de parceiros confiáveis ​​com experiência local ou fontes de notícias públicas para nos ajudar a tomar decisões de aplicação dessas políticas complexas.

Várias dessas políticas ja foram anunciadas. Por exemplo, nossa política que proíbe a postagem de informações incorretas e rumores não verificáveis ​​que contribuem para o risco de violência iminente no mundo real ou dano físico, e nossa política de adicionar um rótulo de aviso a conteúdo sensível, como imagens postadas por uma agência de notícias que retratam nudez infantil no contexto de fome, genocídio, crimes de guerra ou crimes contra a humanidade. Embora essas políticas não sejam novas, estamos compartilhando mais detalhes hoje para sermos ainda mais transparentes sobre nossas práticas de aplicação. Seguindo em frente, assim como fazemos com nossas políticas em escala, continuaremos a atualizar publicamente os Padrões da Comunidade mensalmente, à medida que novas políticas que exigem contexto adicional forem desenvolvidas.

Continuaremos aprimorando nossa tecnologia e nossos esforços de aplicação para remover conteúdo nocivo de nossa plataforma e manter as pessoas seguras enquanto usam nossos aplicativos.

O Relatório de Aplicação dos Padrões da Comunidade é publicado em conjunto com o nosso Relatório de Transparência semestral, no qual compartilhamos o número de solicitações de dados de usuários que recebemos de governos, bem como o volume de restrições de conteúdo com base em leis locais, o número de interrupções globais da internet e remoções baseadas em violação de propriedade intelectual.



Usamos cookies para ajudar a personalizar conteúdo, mensurar anúncios e fornecer uma experiência mais segura. Clicando ou navegando no site, você concorda em permitir a coleta de informações dentro e fora do Facebook por meio de cookies. Saiba mais, inclusive sobre os controles disponíveis: Política de Cookies