Meta

Facebook publica números de remoção de conteúdo

Por Guy Rosen, vice-presidente de Gerenciamento de Produto

Muitas vezes nos perguntam como decidimos o que é permitido no Facebook – e quanto conteúdo ruim existe. Há anos temos nossos Padrões da Comunidade que explicam o que é permitido na plataforma. Há três semanas, publicamos pela primeira vez as diretrizes internas que usamos para analisar se um post infringe nossas políticas. Hoje, divulgamos números em um Relatório de Transparência dos Padrões da Comunidade para que você possa avaliar nosso trabalho para fazer valer nossas políticas de conteúdo.

Nosso vice-presidente de Análise de Dados, Alex Schultz, explica com mais detalhes como exatamente medimos o que está acontecendo no Facebook, tanto neste post de Questões Complexas como no nosso Guia para entender o Relatório de Transparência dos Padrões da Comunidade. Mas é importante ressaltar que esse é um trabalho em andamento e que provavelmente mudaremos nossa metodologia à medida que aprendermos mais sobre o que é importante e o que funciona.

O relatório abrange os nossos esforços de revisão de conteúdo em seis áreas: violência gráfica; nudez e atividade sexual de adultos; propaganda terrorista; discurso de ódio; spam; e contas falsas. Os números mostram:

A maioria das ações que tomamos para remover conteúdo de baixa qualidade é em torno de contas falsas e da grande quantidade de spam gerada por elas. Por exemplo:

Em relação a outros tipos de conteúdo que violam nossos Padrões da Comunidade:

Como Mark disse na F8, ainda temos muito trabalho pela frente na prevenção de abusos. Tecnologias como a inteligência artificial, que embora seja promissora, ainda está longe de ser efetiva para a maioria dos conteúdos de baixa qualidade, ja que uma análise do contexto também é muito importante. Por exemplo, a inteligência artificial não é boa o suficiente para determinar se alguém está proclamando ódio ou se está descrevendo uma situação ocorrida consigo mesma para gerar conscientização sobre o assunto. Como expliquei na semana passada, a tecnologia precisa de um enorme treinamento de dados para reconhecer padrões de comportamento, que muitas vezes não temos em idiomas usados de maneira menos ampla, ou para casos que não são frequentemente denunciados. Além disso, em muitas áreas – seja spam, pornografia ou contas falsas – enfrentamos adversários sofisticados que mudam continuamente de tática para contornar nossos controles, o que significa que devemos desenvolver e adaptar nossos esforços continuamente também. É por isso que estamos investindo tanto em mais pessoas como em tecnologia para tornar o Facebook mais seguro para todos.

É também por isso que estamos publicando essas informações. Acreditamos que o aumento da transparência tende a levar a uma maior prestação de contas e responsabilidade ao longo do tempo, e publicar essas informações nos levará a melhorar mais rapidamente. Estes são os mesmos dados que usamos para medir nosso progresso internamente – e agora você pode ver isso para acompanhar nosso progresso. Estamos ansiosos pelo seu feedback.