Nossas ações para impedir o discurso de ódio

O Facebook está comprometido em garantir que todos que usam nossas plataformas possam ficar seguros e informados. Como parte de nosso esforço contínuo, estamos fazendo alterações em nossas políticas, investindo na transparência de sistemas e compartilhando o trabalho que está sendo realizado para atender as nove recomendações propostas pelos organizadores do movimento Stop Hate For Profit.


Últimas notícias

Publicado em 1 de julho de 2020 no Valor Econômico:

O Facebook não se beneficia do ódio

Nick Clegg, vice-presidente de Assuntos Globais e Comunicações do Facebook, escreveu um artigo sobre o progresso que fizemos com moderação de conteúdo nocivo e na remoção de discurso de ódio tanto antes quanto depois de alguém denunciar esse tipo de conteúdo.

“Um recente relatório da Comissão Europeia apontou que o Facebook revisou 95,7% das denúncias de conteúdo com discurso de ódio em menos de 24 horas, mais rápido que YouTube e Twitter. No mês passado, divulgamos que encontramos perto de 90% dos conteúdos com discurso de ódio que removemos antes mesmo que alguém tivesse denunciado esses posts – ante 24% dois anos atrás. Removemos 9,6 milhões de posts no primeiro trimestre de 2020, contra 5,7 milhões no trimestre anterior. E 99% do conteúdo que removemos sobre o Estado Islâmico e a Al Qaeda acontece antes que qualquer um denuncie isso a nós.”

Leia o artigo completo


Atualizado em 1 de julho de 2020:

Abordando as recomendações do Stop Hate For Profit

Os organizadores do boicote Stop Hate For Profit definiram nove recomendações gerais que se enquadram em três categorias: 1. fornecer mais apoio às pessoas que são alvos de racismo, antissemitismo e ódio; 2. aumentar a transparência e o controle sobre discurso de ódio ou desinformação; e 3. melhorar a segurança de Grupos privados no Facebook.

Abaixo, abordamos as recomendações, descrevendo o trabalho em andamento e compartilhando áreas em que estamos explorando mudanças adicionais.

Oferecendo mais apoio às pessoas que são alvos de racismo, antissemitismo e ódio

Os organizadores do boicote fizeram três pedidos nessa categoria:

  • Criar uma estrutura de moderação de conteúdo separada, composta por especialistas que tenham sido alvo de discurso de ódio devido a características específicas de identidade.

Hoje, as denúncias de conteúdos de discurso de ódio no Facebook já são direcionadas automaticamente para um conjunto de revisores com treinamento específico em nossas políticas de ódio com base em identidade em 50 mercados, cobrindo 30 idiomas. Além disso, consultamos especialistas em discurso de ódio relacionado à identidade durante o desenvolvimento e na definição das políticas que esses revisores de conteúdo precisam aplicar.

  1. Conectar pessoas que passaram por situações de ódio e assédio no Facebook a recursos de suporte. Nossa abordagem, desenvolvida em consulta com especialistas, é acompanhar pessoas que denunciam discurso de ódio e falar sobre as ações que tomamos. Também oferecemos controles na plataforma que permitem às pessoas moderar comentários em suas postagens, bloquear outros usuários e controlar a visibilidade de suas postagens criando uma lista restrita. Estamos explorando maneiras de conectar pessoas com recursos adicionais.
  2. Fornecer mais informações sobre incitação ao ódio em relatórios. Temos o compromisso de continuar a melhorar a transparência sobre a aplicação dos Padrões da Comunidade. Pretendemos incluir a prevalência do discurso de ódio nos futuros Relatórios de Aplicação dos Padrões da Comunidade.
  3. Aumentar a transparência e o controle sobre discurso de ódio ou desinformação. O próximo conjunto de recomendações concentra-se em aumentar a transparência e os controles em torno de discurso de ódio ou desinformação, incluindo impedir que anúncios publicitários sejam exibidos perto de conteúdo rotulado como ódio ou desinformação, informando aos anunciantes com que frequência seus anúncios apareceram ao lado desse conteúdo, fornecendo reembolsos a esses anunciantes e ainda um relatório de transparência auditado.

Abaixo estão alguns de nossos esforços contínuos, bem como áreas que estamos explorando:

  • Checagem independente de fatos: Ajuda a identificar informações falsas, coloca marcações de aviso e reduz a distribuição de conteúdo ou desaprova anúncios relacionados se o post for classificado como falso ou parcialmente falso em nossa plataforma.
  • Centro de segurança da marcas: Anunciantes podem revisar quem são os publishers, criadores de vídeos e Instant Articles nos quais seus anúncios foram incorporados. Embora existam desafios técnicos substanciais para estender as ofertas no Brand Safety Hub de maneira mais ampla, estamos explorando o que é possível.
  • Reembolsos para anunciantes: Emitidos quando os anúncios são exibidos em vídeos ou em Instant Articles que violam nossas políticas.
  • Relatórios de Aplicação dos Padrões da Comunidade: Fornecer informações abrangentes sobre nossos esforços para manter nossa comunidade segura. Continuaremos investindo nesse trabalho e nos comprometemos a investir os recursos necessários para melhorar a aplicação de nossos Padrões da Comunidade.
  • Certificação de grupos independentes: Grupos como o Digital Trading Standards Group analisaram nossos processos de publicidade em relação aos Princípios de Boas Práticas da JICWEBS.
  • Auditando nossas ferramentas e práticas de segurança de marcas: Continuaremos trabalhando com órgãos do setor de publicidade, como a Global Alliance for Responsible Media (GARM) e o Media Ratings Council, nessas auditorias.

Melhorar a segurança de Grupos privados no Facebook

Atualmente, nossa equipe de 35 mil profissionais de segurança e proteção revisa ativamente conteúdos potencialmente violadores, incluindo o conteúdo de Grupos privados. Além disso:

  • Nossas ferramentas de detecção pró-ativa baseadas em inteligência artificial também são usadas para identificar conteúdo de ódio em Grupos que não são denunciados pelas pessoas.
  • Se os moderadores de um Grupo postarem ou permitirem a publicação de conteúdo violador, o Grupo incorre em penalidades que podem resultar na remoção do Grupo inteiro do Facebook.
  • Estamos analisando fornecer aos moderadores de Grupos ferramentas ainda melhores para moderar o conteúdo e gerenciar membros.
  • Estamos explorando maneiras de tornar os moderadores de Grupos mais responsáveis ​​pelo conteúdo que eles moderam, como fornecer mais educação sobre nossos Padrões da Comunidade e aumentar os requisitos para moderar possíveis pessoas mal intencionadas.

Isso é um trabalho que nunca termina. Reconhecemos nossa responsabilidade no combate ao discurso de ódio.


Publicado em 29 de junho de 2020:

Na semana passada, anunciamos algumas mudanças importantes para nos prepararmos para as eleições de 2020 nos Estados Unidos e lutar contra a injustiça racial – resultado direto do feedback da comunidade de direitos civis levantado por meio de nossa auditoria de direitos civis.

Hoje estamos compartilhando atualizações e as próximas etapas sobre como seguimos trabalhando para tornar nossos sistemas mais transparentes.

Monetização de conteúdo, ferramentas e práticas de segurança de marca

Planejamos avaliar nossas políticas de monetização de parceiros e conteúdo e os controles de segurança de marca que disponibilizamos aos anunciantes. Será feita uma auditoria, conduzida pelo Media Rating Council (MRC), que incluirá os seguintes pontos (mas não se limitará a eles):

  • Uma avaliação do desenvolvimento e aplicação de nossas políticas de monetização de parceiros;
  • Uma avaliação do desenvolvimento e aplicação de nossas políticas de monetização de conteúdo e como essas políticas se adequam às diretivas de segurança de marcas da associação americana de agências de publicidade A4’s e da Global Alliance for Responsible Media (GARM), e estejam em conformidade com os padrões de segurança de marca da Media Rating Council (MRC);
  • Uma avaliação de nossa capacidade de aplicar controles de segurança a anúncios exibidos em um determinado conteúdo, como in-stream, Instant Articles ou Audience Network;
  • Uma análise da precisão de nossos relatórios disponíveis nessas áreas.

Compartilharemos uma atualização sobre o escopo e o cronograma desta auditoria, assim que esse trabalho for finalizado com o MRC.

Aplicação dos nossos Padrões da Comunidade

Em maio, anunciamos que o Relatório de Aplicação de Padrões da Comunidade será divulgado trimestralmente. O próximo relatório será divulgado em agosto.

Esse relatório detalhado mostra como estamos removendo conteúdos que violam nossos Padrões da Comunidade, e ele inclui mais detalhes do que qualquer outro serviço e plataforma relevante da internet. Como parte de nosso compromisso contínuo com a transparência, pretendemos incluir a prevalência do discurso de ódio em nossos relatórios ao longo do próximo ano, se não houver complicações adicionais decorrentes da pandemia de COVID-19.

Como Mark Zuckerberg disse em fevereiro, também estamos planejando abrir nossos sistemas de moderação de conteúdo para uma auditoria externa. Estamos entrando em contato com as principais partes interessadas, incluindo reguladores governamentais, sociedade civil e o setor de publicidade, à medida que planejamos essa tarefa. Essa auditoria de terceiros será concluída por uma empresa respeitável e incluirá a incidência de conteúdos que violam as regras da plataforma. Estamos no início deste processo e compartilharemos mais detalhes quando eles estiverem disponíveis.

Colaborando com a indústria

A segurança das marcas é um desafio que afeta toda a comunidade de anunciantes, e é por isso que colaboramos com parceiros do setor que também estão trabalhando para tornar as plataformas online mais seguras para empresas e pessoas. Nosso trabalho com parceiros inclui:

  • Participação na Federação Mundial de Anunciantes da GARM para alinhamento aos padrões e definições de segurança de marcas, educação em escala, ferramentas e sistemas comuns e supervisão independente para a indústria;
  • Realização de sessões com órgãos da indústria para fornecer mais informações sobre como nossas equipes trabalham para revisar o conteúdo e aplicar nossos Padrões da Comunidade;
  • Certificação de grupos independentes, como o Digital Trading Standards Group, que examina especificamente nossos processos de publicidade em relação aos Princípios de Boas Práticas da JICWEBS e é um requisito para alcançar o Gold Standard do Interactive Advertising Bureau. Continuaremos a trabalhar com órgãos do setor de publicidade, como a GARM e o MRC, para auditar nossas ferramentas e práticas de segurança de marcas.

Reconhecemos nossa responsabilidade de facilitar um ambiente seguro para todos que usam nossas plataformas.

Para fazer isso, precisamos ser transparentes com nossos parceiros sobre o que estamos fazendo para manter a plataforma segura, removendo conteúdo violador. Temos um trabalho em andamento para tratar dos principais temas, mas reconhecemos que há muito mais trabalho a ser feito.



Usamos cookies para ajudar a personalizar conteúdo, mensurar anúncios e fornecer uma experiência mais segura. Clicando ou navegando no site, você concorda em permitir a coleta de informações dentro e fora do Facebook por meio de cookies. Saiba mais, inclusive sobre os controles disponíveis: Política de Cookies