Meta

O Facebook não se beneficia do ódio

*Este texto foi publicado primeiramente no Brasil pelo jornal Valor Econômico.

Por Nick Clegg, vice-presidente de Assuntos Globais e Comunicação do Facebook

Quando a sociedade está dividida e as tensões aumentam, essas divisões aparecem nas redes sociais. Plataformas como o Facebook funcionam como um espelho da sociedade – com mais de 3 bilhões de pessoas usando pelo menos um dos aplicativos do Facebook todos os meses, tudo de bom, ruim e até desagradável vai encontrar expressão na nossa plataforma. Isso coloca uma grande responsabilidade no Facebook e em outras empresas de redes sociais, para decidir o limite sobre qual conteúdo é aceitável.

O Facebook tem recebido muitas críticas nas últimas semanas após a decisão de permitir que posts controversos do presidente dos Estados Unidos, Donald Trump, continuassem na plataforma, e receios da parte de muitas pessoas, incluindo empresas que são anunciantes em nossa plataforma, sobre nossa abordagem no combate ao discurso de ódio. Quero ser claro: o Facebook não lucra com o ódio. Bilhões de pessoas usam o Facebook e o Instagram porque elas têm uma boa experiência – elas não querem ver conteúdo odioso, nossos anunciantes tampouco querem ver isso e nem nós. Não há qualquer incentivo para nós a não ser remover esse tipo de conteúdo.

Mais de 100 bilhões de mensagens são enviadas por nossos serviços todos os dias. Somos todos nós conversando, compartilhando nossas vidas, opiniões, esperanças e experiências. Nessas bilhões de interações, uma fração muito pequena é de discurso de ódio. Quando encontramos posts odiosos no Facebook e Instagram, temos tolerância zero e removemos esses conteúdos. Quando o conteúdo fica perto de ser classificado como discurso de ódio – e também não viola outras políticas que têm como foco prevenir danos no mundo offline ou supressão de votos – prevalece a liberdade de expressão porque, no fim do dia, a melhor maneira de combater discurso ofensivo e divisivo é com mais argumentos e conversas. Dar luz ao tema é melhor do que escondê-lo. 

Infelizmente, tolerância zero não significa incidência zero. Com tanto conteúdo sendo postado diariamente, erradicar o ódio é como procurar uma agulha em um palheiro. Investimos bilhões de dólares todos os anos em pessoas e tecnologia para manter nossa plataforma segura. Triplicamos para mais de 35 mil pessoas nossas equipes trabalhando em segurança e integridade. Somos pioneiros em uso de tecnologia de inteligência artificial para remover conteúdo com discurso de ódio em escala.

E estamos tendo progresso. Um recente relatório da Comissão Europeia apontou que o Facebook revisou 95,7% das denúncias de conteúdo com discurso de ódio em menos de 24 horas, mais rápido que YouTube e Twitter. No mês passado, divulgamos que encontramos perto de 90% dos conteúdos com discurso de ódio que removemos antes mesmo que alguém tivesse denunciado esses posts – ante 24% dois anos atrás. Agimos contra 9,6 milhões de posts no primeiro trimestre de 2020, contra 5,7 milhões no trimestre anterior. E 99% do conteúdo que removemos sobre o Estado Islâmico e a Al Qaeda acontece antes que qualquer um denuncie isso a nós.

Estamos melhorando, mas não estamos satisfeitos. Por isso, anunciamos recentemente novas políticas e produtos para garantir que todos possam permanecer seguros, informados e, principalmente, usar sua voz onde mais importa – nas eleições. Isso inclui a maior campanha de informações para eleitores da história dos EUA, com o objetivo de registrar quatro milhões de eleitores, e atualizações de políticas destinadas a reprimir a supressão de eleitores e combater o discurso de ódio. Muitas dessas mudanças são resultado direto do feedback da comunidade de direitos civis – continuaremos trabalhando com eles e com outros especialistas à medida que ajustamos nossas políticas para lidar com novos riscos à medida que eles surgem.

Obviamente, é necessário e compreensível se concentrar no discurso de ódio e outros tipos de conteúdo prejudicial nas redes sociais, mas vale lembrar que a grande maioria das bilhões de conversas online é positiva.

Veja o que aconteceu quando a pandemia de coronavírus começou. Bilhões de pessoas usaram o Facebook para permanecer conectadas quando estavam fisicamente separadas. Avós e netos, irmãos e irmãs, amigos e vizinhos. Mais do que isso, as pessoas se reuniram para ajudar umas às outras. Milhares e milhares de grupos locais se formaram – milhões de pessoas se uniram – para se organizar e ajudar os mais vulneráveis ​​em suas comunidades. Outros, para comemorar e apoiar nossos profissionais de saúde. E quando as empresas tiveram que fechar suas portas ao público, para muitos o Facebook era a tábua de salvação. Mais de 160 milhões de empresas usam as ferramentas gratuitas do Facebook para alcançar os clientes, e muitas as utilizaram para ajudar a manter seus negócios vivos quando suas portas estavam fechadas ao público – salvando empregos e vidas.

É importante ressaltar que o Facebook ajudou as pessoas a obter informações precisas e confiáveis sobre saúde. Direcionamos mais de dois bilhões de pessoas no Facebook e Instagram a informações de autoridades de saúde pública, com mais de 350 milhões de pessoas clicando nos links para saber mais.

E vale lembrar que, quando as coisas mais sombrias estão acontecendo em nossa sociedade, as redes sociais oferecem às pessoas um meio de fazer a luz brilhar. Mostrar ao mundo o que está acontecendo; organizar-se contra o ódio e se unir; e para milhões de pessoas em todo o mundo que demonstram solidariedade. Vimos isso em todo o mundo em inúmeras ocasiões – e estamos vendo isso agora com o movimento Black Lives Matter.

Talvez nunca consigamos erradicar que o discurso de ódio apareça no Facebook, mas estamos melhorando o tempo todo para impedir esse tipo de conteúdo.