Atualizado em 3 de março de 2023:
Hoje, estamos respondendo às 32 recomendações que o Comitê de Supervisão fez, ano passado, como parte de sua Opinião Consultiva sobre Política sobre nosso sistema de verificação cruzada (cross-check). De suas recomendações, estamos implementando totalmente 11, parcialmente 15, ainda avaliando a viabilidade de uma e não tomando nenhuma outra medida sobre cinco.
Isso resultará em mudanças substanciais na forma como operamos este sistema, em resposta ao feedback que recebemos do comitê e de outras partes interessadas com as quais engajamos ao longo dos anos. Em particular, faremos o cross-check mais transparente, por meio de relatórios regulares, e vamos ajustar nossos critérios de inclusão na lista para melhor considerar os interesses de direitos humanos e equidade. Também vamos alterar os sistemas operacionais de cross-check para ajudar a reduzir o acúmulo de pedidos de revisão e diminuir o tempo necessário para revisão dos casos.
Juntamente com o trabalho que anunciamos no final do ano passado, descrito abaixo, estas ações irão melhorar este sistema para torná-lo mais eficaz, responsável e equitativo. Nossas respostas completas às recomendações do Comitê de Supervisão estão disponíveis aqui.
Manter a responsabilidade da Meta por nossas políticas e processos relacionados a conteúdo, bem como por nossas decisões, é exatamente o motivo pelo qual o Comitê de Supervisão foi estabelecido. Agradecemos ao comitê pelo cuidado e atenção que dedicou a este caso.
Para saber mais sobre o sistema de cross-check, visite nossa Central de Transparência.
Atualizado em 6 de dezembro de 2022:
Hoje, o Comitê de Supervisão publicou uma Opinião Consultiva sobre Política sobre nosso sistema de cross-check, em seguimento ao nosso pedido no ano passado.
Construímos o sistema cross-check para evitar uma possível aplicação excessiva (quando agimos sobre conteúdo ou contas que não violam nossas políticas) e para verificar novamente os casos em que pode haver um risco maior de erro ou quando o impacto potencial de um erro é especialmente grave. Por exemplo, quando jornalistas estão reportando a partir de zonas de conflito.
Temos equipes e recursos dedicados a melhorar o sistema cross-check. Aqui está parte do trabalho que realizamos no ano passado:
- Criação de um sistema padronizado: Desenvolvemos princípios e critérios de governança para garantir que o cross-check funcione de maneira mais consistente.
- Expansão da elegibilidade para revisões cross-check: O conteúdo de todos os 3 bilhões de nossos usuários agora é elegível para revisões cross-check com base em um novo “ranker de verificação cruzada”. Além da qualificação existente de usuário e entidade, esse novo tipo de revisão usa algoritmos para avaliar o próprio conteúdo que pode ter um alto risco de ação “falso positiva” tomada contra ele (o que significaria potencial aplicação excessiva de nossa parte).
- Desenvolvimento de mais controles: Formalizamos um conjunto de critérios objetivos para adicionar usuários e entidades para cross-check, reduzimos ainda mais o número de funcionários que podem adicioná-los e desenvolvemos um processo para remover usuários de maneira que essa lista não cresça ao longo do tempo sem os devidos controles.
- Estabelecemos revisões anuais: Para garantir responsabilidade, também estabelecemos revisões anuais para ter certeza de que verificamos periodicamente nossas listas de usuários e entidades que receberam revisões secundárias, bem como os requisitos para incluí-los em primeiro lugar.
Para atender ao número de recomendações, concordamos com o Comitê em revisá-las e responder em 90 dias. Para saber mais sobre o sistema cross-check, visite nossa Central de Transparência.
Publicado originalmente em 28 de setembro de 2021:
O Facebook solicitará ao Comitê de Supervisão — na forma de uma Opinião Consultiva sobre Política— recomendações sobre como podemos continuar a melhorar nosso sistema que prevê uma camada adicional de revisão de conteúdo, o ‘cross-check‘. Especificamente, pediremos ao Comitê orientação sobre os critérios que usamos para determinar o que é priorizado para uma revisão secundária por meio do cross-check, e também sobre como gerenciamos o programa.
O Facebook analisa bilhões de conteúdos todos os dias, tem 40.000 pessoas trabalhando em áreas ligadas à segurança, e construiu algumas das tecnologias mais sofisticadas para ajudar na aplicação de suas políticas de conteúdo. Apesar disso, sabemos que cometeremos erros. O sistema de cross-check foi criado para evitar possíveis erros de aplicação excessiva e para verificar novamente os casos em que, por exemplo, seja necessário mais contexto sobre a situação antes da tomada da decisão ou há maiores riscos de erros. Aqui podem ser incluídos ativistas que procuram aumentar a conscientização sobre casos de violência, jornalistas reportando em zonas de conflito ou outro conteúdo de Páginas e Perfis de alta visibilidade, nos quais a aplicação correta das nossas políticas é especialmente importante, devido ao número de pessoas que podem ver este material.
Sabemos que o sistema não é perfeito. Temos novas equipes e recursos em funcionamento e continuamos fazendo melhorias. Porém, vemos que é necessário que façamos mais. As recomendações do Comitê de Supervisão terão um papel relevante nesse trabalho contínuo.
Nós já implementamos uma das recomendações do Comitê relacionadas ao cross-check de um caso anterior, descrevendo o sistema em nossa Central de Transparência. E recentemente, o Comitê demonstrou interesse em conhecer melhor o nosso sistema de cross-check. Esse encaminhamento vai além do material que já fornecemos. De forma proativa, estamos solicitando a opinião do Comitê, por meio de um processo formal e transparente.
Responsabilizar o Facebook por nossas políticas e distribuição de conteúdo é exatamente o motivo pelo qual o Comitê de Supervisão foi criado. Nas próximas semanas e meses, continuaremos a informar ao Comitê sobre nosso sistema de cross-check e a conversar com seus membros para responder às perguntas. Agradecemos suas recomendações e a supervisão independente que nos fornecem. Assim como prevê o estatuto, responderemos publicamente às suas recomendações dentro de 30 dias.