Nossas ações para impedir o discurso de ódio

O Facebook está comprometido em garantir que todos que usam nossas plataformas possam ficar seguros e informados. Como parte de nosso esforço contínuo, estamos fazendo alterações em nossas políticas, investindo na transparência de sistemas e compartilhando o trabalho que está sendo realizado para atender as nove recomendações propostas pelos organizadores do movimento Stop Hate For Profit.


Últimas notícias

Publicado em 1 de julho de 2020 no Valor Econômico:

O Facebook não se beneficia do ódio

Nick Clegg, vice-presidente de Assuntos Globais e Comunicações do Facebook, escreveu um artigo sobre o progresso que fizemos com moderação de conteúdo nocivo e na remoção de discurso de ódio tanto antes quanto depois de alguém denunciar esse tipo de conteúdo.

“Um recente relatório da Comissão Europeia apontou que o Facebook revisou 95,7% das denúncias de conteúdo com discurso de ódio em menos de 24 horas, mais rápido que YouTube e Twitter. No mês passado, divulgamos que encontramos perto de 90% dos conteúdos com discurso de ódio que removemos antes mesmo que alguém tivesse denunciado esses posts – ante 24% dois anos atrás. Removemos 9,6 milhões de posts no primeiro trimestre de 2020, contra 5,7 milhões no trimestre anterior. E 99% do conteúdo que removemos sobre o Estado Islâmico e a Al Qaeda acontece antes que qualquer um denuncie isso a nós.”

Leia o artigo completo


Atualizado em 30 de julho de 2020:

Combatendo o ódio: Analisando o passado e olhando para o futuro

Apesar de julho estar chegando ao fim, o trabalho para manter nossas plataformas seguras nunca termina.

Não queremos ódio em nossas plataformas. Por isso, apresentamos aqui os investimentos que temos feito, e sabemos que precisamos fazer mais para resolver alguns pontos. O ódio é um problema de toda a sociedade e continuaremos a trabalhar com especialistas e grupos externos, incluindo líderes de direitos civis, para fazer mudanças.

Compartilhamos a seguir uma visão geral de nossos esforços e como estamos avançando.

Nosso investimento ao longo dos anos

As pessoas que usam o Facebook não querem ver ódio em nossos serviços, assim como nossos anunciantes, nós também não toleramos isso. Ao longo dos anos, investimos bilhões de dólares para combater o ódio e manter nossa comunidade segura:

  • Usando as tecnologias mais recentes – como Inteligência Artificial avançada -, detectamos proativamente quase 90% do conteúdo de discurso de ódio que removemos do Facebook antes que alguém o denuncie;
  • Nós removemos três milhões de conteúdos de discurso de ódio a cada mês, ou mais de 4.000 por hora;
  • Nos últimos anos, triplicamos – para mais de 35.000 – o número de pessoas que trabalham com integridade e segurança;
  • Estabelecemos um padrão para a transparência em nossa indústria publicando regularmente relatórios de aplicação de padrões da comunidade (CSER) para todos acompanharem nosso progresso.

Inovando e fazendo melhorias

Para combater efetivamente o discurso de ódio – e outros conteúdos prejudiciais, como supressão de informações e desinformação dos eleitores -, revisamos regularmente nossas políticas e buscamos sugestões de especialistas e comunidades afetadas.

Expandimos nossas políticas de supressão de eleitores nos EUA para proibir ameaças de que o voto resultará em conseqüências da aplicação da lei e tentativas de coordenação com outras pessoas para interferir no direito de votar, que sabidamente intimidam e desmobilizam os eleitores. Eliminamos informações erradas que podem causar danos ao mundo real – e para outros tipos de informações erradas, trabalhamos com mais de 70 verificadores de fatos em todo o mundo para rotular conteúdo falso e reduzimos significativamente sua distribuição no Facebook.

Quando se trata de anúncios, vamos além da proibição de discursos de ódio, mas também proibimos anúncios divisivos, inflamatórios ou que geram medo.

O Facebook não se beneficia do ódio, e não temos outro incentivo senão remover esse tipo de conteúdo quando o encontramos.

Ação Coletiva

Sabemos que juntos podemos progredir ainda mais no nosso objetivo comum de impedir o ódio. Por isso, apoiamos a comunidade publicitária por meio da Aliança Global para Mídia Responsável (GARM) e continuamos a nos envolver com os líderes de direitos civis para refletir sobre nossas políticas e práticas.

A GARM está tomando medidas práticas ​​para lidar com conteúdo nocivo nas mídias e nas mídias sociais e já nos comprometemos com várias propostas concretas resultado deste trabalho:

  • Alinhar definições compartilhadas de discurso de ódio com toda a indústria;
  • Começar a medir a prevalência do discurso de ódio em nossos relatórios regulares de transparência (CSER), com uma metodologia que pode ser seguida por outros;
  • Realizar duas auditorias externas – uma do CSER e outra de nossas políticas de monetização e controles de segurança de marca pelo Media Ratings Council (MRC);
  • Analisar novas maneiras de expandir nossos atuais controles de segurança de marca.

Estamos mudando para melhor, graças ao envolvimento contínuo com a comunidade de direitos civis. Publicamos nosso terceiro relatório de auditoria de direitos civis em julho, encerrando uma revisão independente de dois anos de nossas políticas e práticas. Nenhuma outra empresa de mídia social concluiu uma auditoria desse tipo. Já fizemos alterações com base nas recomendações dos auditores e estamos avaliando as recomendações pendentes para determinar como e onde podemos fazer mais.

Devemos ser responsabilizados por nosso trabalho sobre isso e convidamos para que continuem avaliando com atenção nossos esforços para que possamos obter o melhor e mais rápido progresso possível.


Atualizado em 1 de julho de 2020:

Abordando as recomendações do Stop Hate For Profit

Os organizadores do boicote Stop Hate For Profit definiram nove recomendações gerais que se enquadram em três categorias: 1. fornecer mais apoio às pessoas que são alvos de racismo, antissemitismo e ódio; 2. aumentar a transparência e o controle sobre discurso de ódio ou desinformação; e 3. melhorar a segurança de Grupos privados no Facebook.

Abaixo, abordamos as recomendações, descrevendo o trabalho em andamento e compartilhando áreas em que estamos explorando mudanças adicionais.

Oferecendo mais apoio às pessoas que são alvos de racismo, antissemitismo e ódio

Os organizadores do boicote fizeram três pedidos nessa categoria:

  • Criar uma estrutura de moderação de conteúdo separada, composta por especialistas que tenham sido alvo de discurso de ódio devido a características específicas de identidade.

Hoje, as denúncias de conteúdos de discurso de ódio no Facebook já são direcionadas automaticamente para um conjunto de revisores com treinamento específico em nossas políticas de ódio com base em identidade em 50 mercados, cobrindo 30 idiomas. Além disso, consultamos especialistas em discurso de ódio relacionado à identidade durante o desenvolvimento e na definição das políticas que esses revisores de conteúdo precisam aplicar.

  1. Conectar pessoas que passaram por situações de ódio e assédio no Facebook a recursos de suporte. Nossa abordagem, desenvolvida em consulta com especialistas, é acompanhar pessoas que denunciam discurso de ódio e falar sobre as ações que tomamos. Também oferecemos controles na plataforma que permitem às pessoas moderar comentários em suas postagens, bloquear outros usuários e controlar a visibilidade de suas postagens criando uma lista restrita. Estamos explorando maneiras de conectar pessoas com recursos adicionais.
  2. Fornecer mais informações sobre incitação ao ódio em relatórios. Temos o compromisso de continuar a melhorar a transparência sobre a aplicação dos Padrões da Comunidade. Pretendemos incluir a prevalência do discurso de ódio nos futuros Relatórios de Aplicação dos Padrões da Comunidade.
  3. Aumentar a transparência e o controle sobre discurso de ódio ou desinformação. O próximo conjunto de recomendações concentra-se em aumentar a transparência e os controles em torno de discurso de ódio ou desinformação, incluindo impedir que anúncios publicitários sejam exibidos perto de conteúdo rotulado como ódio ou desinformação, informando aos anunciantes com que frequência seus anúncios apareceram ao lado desse conteúdo, fornecendo reembolsos a esses anunciantes e ainda um relatório de transparência auditado.

Abaixo estão alguns de nossos esforços contínuos, bem como áreas que estamos explorando:

  • Checagem independente de fatos: Ajuda a identificar informações falsas, coloca marcações de aviso e reduz a distribuição de conteúdo ou desaprova anúncios relacionados se o post for classificado como falso ou parcialmente falso em nossa plataforma.
  • Centro de segurança da marcas: Anunciantes podem revisar quem são os publishers, criadores de vídeos e Instant Articles nos quais seus anúncios foram incorporados. Embora existam desafios técnicos substanciais para estender as ofertas no Brand Safety Hub de maneira mais ampla, estamos explorando o que é possível.
  • Reembolsos para anunciantes: Emitidos quando os anúncios são exibidos em vídeos ou em Instant Articles que violam nossas políticas.
  • Relatórios de Aplicação dos Padrões da Comunidade: Fornecer informações abrangentes sobre nossos esforços para manter nossa comunidade segura. Continuaremos investindo nesse trabalho e nos comprometemos a investir os recursos necessários para melhorar a aplicação de nossos Padrões da Comunidade.
  • Certificação de grupos independentes: Grupos como o Digital Trading Standards Group analisaram nossos processos de publicidade em relação aos Princípios de Boas Práticas da JICWEBS.
  • Auditando nossas ferramentas e práticas de segurança de marcas: Continuaremos trabalhando com órgãos do setor de publicidade, como a Global Alliance for Responsible Media (GARM) e o Media Ratings Council, nessas auditorias.

Melhorar a segurança de Grupos privados no Facebook

Atualmente, nossa equipe de 35 mil profissionais de segurança e proteção revisa ativamente conteúdos potencialmente violadores, incluindo o conteúdo de Grupos privados. Além disso:

  • Nossas ferramentas de detecção pró-ativa baseadas em inteligência artificial também são usadas para identificar conteúdo de ódio em Grupos que não são denunciados pelas pessoas.
  • Se os moderadores de um Grupo postarem ou permitirem a publicação de conteúdo violador, o Grupo incorre em penalidades que podem resultar na remoção do Grupo inteiro do Facebook.
  • Estamos analisando fornecer aos moderadores de Grupos ferramentas ainda melhores para moderar o conteúdo e gerenciar membros.
  • Estamos explorando maneiras de tornar os moderadores de Grupos mais responsáveis ​​pelo conteúdo que eles moderam, como fornecer mais educação sobre nossos Padrões da Comunidade e aumentar os requisitos para moderar possíveis pessoas mal intencionadas.

Isso é um trabalho que nunca termina. Reconhecemos nossa responsabilidade no combate ao discurso de ódio.


Publicado em 29 de junho de 2020 – Atualizado em 17 de julho de 2020:

Na semana passada, anunciamos algumas mudanças importantes para nos prepararmos para as eleições de 2020 nos Estados Unidos e lutar contra a injustiça racial – resultado direto do feedback da comunidade de direitos civis levantado por meio de nossa auditoria de direitos civis.

Hoje estamos compartilhando atualizações e as próximas etapas sobre como seguimos trabalhando para tornar nossos sistemas mais transparentes.

Monetização de conteúdo, ferramentas e práticas de segurança de marca

Planejamos avaliar nossas políticas de monetização de parceiros e conteúdo e os controles de segurança de marca que disponibilizamos aos anunciantes. Será feita uma auditoria, conduzida pelo Media Rating Council (MRC), que incluirá os seguintes pontos (mas não se limitará a eles):

  • Uma avaliação do desenvolvimento e aplicação de nossas políticas de monetização de parceiros;
  • Uma avaliação do desenvolvimento e aplicação de nossas políticas de monetização de conteúdo e como essas políticas se adequam às diretivas de segurança de marcas da associação americana de agências de publicidade A4’s e da Global Alliance for Responsible Media (GARM), e estejam em conformidade com os padrões de segurança de marca da Media Rating Council (MRC);
  • Uma avaliação de nossa capacidade de aplicar controles de segurança a anúncios exibidos em um determinado conteúdo, como in-stream, Instant Articles ou Audience Network;
  • Uma análise da precisão de nossos relatórios disponíveis nessas áreas.

Compartilharemos uma atualização sobre o escopo e o cronograma desta auditoria, assim que esse trabalho for finalizado com o MRC.

Aplicação dos nossos Padrões da Comunidade

Em maio, anunciamos que o Relatório de Aplicação de Padrões da Comunidade será divulgado trimestralmente. O próximo relatório será divulgado em agosto.

Esse relatório detalhado mostra como estamos removendo conteúdos que violam nossos Padrões da Comunidade, e ele inclui mais detalhes do que qualquer outro serviço e plataforma relevante da internet. Como parte de nosso compromisso contínuo com a transparência, pretendemos incluir a prevalência do discurso de ódio em nossos relatórios de novembro, se não houver complicações adicionais decorrentes da pandemia de COVID-19.

Como Mark Zuckerberg disse em fevereiro, também estamos planejando abrir nossos sistemas de moderação de conteúdo para uma auditoria externa para validar os números que publicamos em nosso Relatório de Aplicação de Padrões da Comunidade. Estamos entrando em contato com as principais partes interessadas, incluindo reguladores governamentais, sociedade civil e o setor de publicidade, à medida que planejamos essa tarefa. Essa auditoria de terceiros será concluída por uma empresa respeitável e incluirá a incidência de conteúdos que violam as regras da plataforma. O pedido de proposta será emitido em agosto de 2020 e a auditoria deverá ser realizada em 2021.

Colaborando com a indústria

A segurança das marcas é um desafio que afeta toda a comunidade de anunciantes, e é por isso que colaboramos com parceiros do setor que também estão trabalhando para tornar as plataformas online mais seguras para empresas e pessoas.

“O discurso de ódio não tem lugar em nossa plataforma e, apesar de termos investido em tecnologias e equipes ao longo dos anos para combater conteúdo de ódio, temos mais trabalho por fazer”, diz Carolyn Everson, vice-presidente global de Soluções de Marketing do Facebook. “Somos gratos pelo feedback sincero de nossos parceiros de publicidade e da Global Alliance for Responsible Media e estamos comprometidos em tomar ações rápidas em quatro áreas principais identificadas pela GARM”.

Nosso trabalho com parceiros inclui:

  • Participação na Federação Mundial de Anunciantes da GARM para alinhamento aos padrões e definições de segurança de marcas, educação em escala, ferramentas e sistemas comuns e supervisão independente para a indústria;
  • Realização de sessões com órgãos da indústria para fornecer mais informações sobre como nossas equipes trabalham para revisar o conteúdo e aplicar nossos Padrões da Comunidade;
  • Certificação de grupos independentes, como o Digital Trading Standards Group, que examina especificamente nossos processos de publicidade em relação aos Princípios de Boas Práticas da JICWEBS e é um requisito para alcançar o Gold Standard do Interactive Advertising Bureau. Continuaremos a trabalhar com órgãos do setor de publicidade, como a GARM e o MRC, para auditar nossas ferramentas e práticas de segurança de marcas.

Reconhecemos nossa responsabilidade de facilitar um ambiente seguro para todos que usam nossas plataformas.

Para fazer isso, precisamos ser transparentes com nossos parceiros sobre o que estamos fazendo para manter a plataforma segura, removendo conteúdo violador. Temos um trabalho em andamento para tratar dos principais temas, mas reconhecemos que há muito mais trabalho a ser feito.



Usamos cookies para ajudar a personalizar conteúdo, mensurar anúncios e fornecer uma experiência mais segura. Clicando ou navegando no site, você concorda em permitir a coleta de informações dentro e fora do Facebook por meio de cookies. Saiba mais, inclusive sobre os controles disponíveis: Política de Cookies