Meta

Nosso trabalho proativo para proteger a integridade das eleições municipais no Brasil em 2024

Destaques

  • A Meta age para detectar e remover conteúdos nocivos, ao contrário do que tem se convencionado no debate público.
  • Entre agosto e outubro, removemos mais de 520 mil conteúdos nas nossas plataformas por bullying e assédio; mais de 550 mil conteúdos por discurso de ódio; e mais de 1,9 milhão de conteúdos por violência e incitação.
  • Mais de 99% dos conteúdos com violência e incitação foram identificados pela própria Meta e removidos antes de qualquer denúncia.
  • Números indicam que Meta atua de forma diligente e sem necessidade de ordem judicial para remover conteúdos nocivos, exceto em casos ambíguos.

Estamos publicando hoje um relatório sobre as medidas adotadas pela Meta para proteger a integridade do processo eleitoral nas nossas plataformas, em conformidade com as resoluções do Tribunal Superior Eleitoral (TSE) para as eleições municipais no Brasil em 2024. 

Como os números abaixo sobre moderação de conteúdo atestam, não há inércia da Meta para detectar e agir sobre conteúdos nocivos, ao contrário do que tem se ouvido no debate público. Além disso, nosso modelo de negócios não prospera em um ambiente online tóxico: os anunciantes não querem ver suas marcas vinculadas a conteúdos nocivos.

Queremos ser claros: não toleramos violência e outros comportamentos nocivos em nossos serviços. E não agimos sobre esses tipos de conteúdos somente quando recebemos ordens judiciais, pelo contrário.

O trabalho para garantir a integridade das nossas plataformas é permanente. No período eleitoral entre agosto e outubro deste ano, removemos mais de 2,9 milhões de conteúdos no Facebook, Instagram e Threads no Brasil por violação de nossas políticas de bullying e assédio, discurso de ódio e violência e incitação. 

Foram removidos 520 mil conteúdos por bullying e assédio; mais de 550 mil conteúdos por discurso de ódio; e mais de 1,9 milhão de conteúdos por violência e incitação. Mais de 95% dos conteúdos com bullying foram identificados pela própria Meta e removidos antes de qualquer denúncia. Nos outros tipos de conteúdos violadores mencionados, esse percentual ficou acima de 99%.

Fica evidente, a partir dos dados no relatório sobre as medidas adotadas pela Meta para proteger a integridade da eleição brasileira, que a empresa atua de forma diligente e sem precisar ser acionada pelo Judiciário para remover conteúdos, salvo em casos ambíguos. Os casos judiciais representam uma fração mínima comparada à moderação de conteúdo feita pela própria empresa.

O debate sobre atualização das regras da internet é importante, inclusive quanto ao artigo 19 do Marco Civil da Internet. A regra estabelece um sistema de responsabilização dos provedores de aplicação sobre conteúdos postados por terceiros privilegiando a liberdade de expressão, ao mesmo tempo permitindo que as plataformas moderem os conteúdos postados nelas. 

Nesse contexto, é relevante considerar o trabalho efetivo que plataformas como as da Meta fazem para combater conteúdos nocivos. Temos mais de 40 mil colaboradores na Meta dedicados a assegurar um ambiente saudável em nossos serviços, e investimos cerca de US$20 bilhões para isso desde 2016.

Para ver o relatório completo sobre o trabalho da Meta para proteger a integridade das eleições municipais do Brasil em 2024, incluindo métricas sobre remoção de contas, bloqueio de anúncios e rotulagem de informações falsas, clique no arquivo disponível na seção de downloads. 


:

Usamos cookies para ajudar a personalizar conteúdo, mensurar anúncios e fornecer uma experiência mais segura. Clicando ou navegando no site, você concorda em permitir a coleta de informações dentro e fora do Facebook por meio de cookies. Saiba mais, inclusive sobre os controles disponíveis: Política de Cookies