Meta

Caso sobre publicação de uma entidade médica estadual brasileira sobre lockdowns para conter o COVID-19

Atualização em 17 de setembro de 2021:

No dia 17 de setembro de 2021, o Facebook respondeu sobre as recomendações do Comitê de Supervisão. Estamos implementando uma das recomendações e não tomando qualquer ação sobre as outras duas, já que as mesmas descrevem um trabalho que o Facebook já faz.

Recomendação 1 (trabalho que o Facebook já faz)

O Facebook deve conduzir uma análise de proporcionalidade para identificar medidas menos intrusivas do que remover conteúdo. Quando necessária, tal medida pode ser usada quando o conteúdo relacionado a COVID-19 distorça a orientação de autoridades internacionais de saúde e quando identificado um potencial risco de danos físicos, mas não iminente. Dentre as medidas recomendadas: a) rotular conteúdo para alertar usuários da natureza controversa do conteúdo do post e oferecer links para conteúdos da Organização Mundial de Saúde e outras autoridades nacionais, b) introduzir uma camada de fricção aos posts para prevenir interações e compartilhamentos, e c)reduzir a visibilidade deste conteúdo no Feed de Notícias de outros usuários. Todas essas medidas devem ser claramente comunicadas para todos os usuários e passíveis de apelação. 

Facebook deve conduzir uma análise de proporcionalidade para identificar uma série de medidas menos intrusivas do que remover conteúdo, incluindo rótulos, camadas de fricção para evitar interações ou compartilhamento e redução de relevância. Todas essas medidas devem ser claramente comunicadas a todos os usuários e passíveis de apelação. 

Nosso compromisso

Nossas consultas com especialistas globais deixaram claro que, no contexto de uma emergência de saúde, alguns tipos de desinformação podem levar a danos físicos imediatos. Por isso, removemos conteúdo das nossas plataformas que podem levar aos danos. 

Isto posto, nós continuaremos a usar medidas menos intrusivas que a remoção quando o risco de dano é identificado, mas não imediato, para conteúdos que contenham desinformação relacionada a COVID-19 e a pandemia. Continuaremos trabalhando com verificadores de fatos para endereçar possíveis desinformações, bem como reduzindo a distribuição de conteúdos falsos. 

Considerações

Em nossa resposta às recomendações 2020-006-FB-FBR-7, explicamos que removemos certos tipos de conteúdos das nossas plataformas depois que nossas consultas com especialistas globais revelaram que desinformação sobre emergências de saúde, como a pandemia do COVID-19, podem levar a danos físicos iminentes. 

Por exemplo, sabemos pelo nosso trabalho com a Organização Mundial da Saúde e outras autoridades que, se as pessoas pensam que há uma cura para a COVID-19, elas são menos propensas a seguir práticas seguras de saúde, como distanciamento social e o uso de máscaras. Taxas exponenciais de replicação viral significa que o comportamento de uma pessoa pode resultar na transmissão para milhares de outras pessoas em uma questão de dias. 

Proporcionalidade é parte da nossa estratégia para combater a desinformação de saúde. Quando conteúdo que dissemina desinformação sobre COVID-19 não é considerada como  dano físico iminente, nossas respostas são menos intrusivas do que a remoção. Mas quando o conteúdo aponta um  dano iminente, nós o removemos das nossas plataformas. 

Nossa estratégia para combater a desinformação relacionada a COVID-19 envolve uma série de medidas proporcionais. Primeiro, aplicamos rótulos nos conteúdos que acreditamos ser relacionado a COVID-19 ou vacinas, não importa o teor, assim como em subtópicos específicos, como vacina e segurança. Nestes rótulos, apresentamos links para recursos externos de autoridades de saúde, como a Organização Mundial da Saúde. 

Adicionalmente, trabalhamos com a nossa rede de verificadores de fatos independente para rapidamente endereçar o conteúdo que possa conter desinformação. Nós tomamos as seguintes medidas quando um checador classifica uma peça de conteúdo como falsa:

  1. Aplicamos um rótulo de aviso ao conteúdo, que inclui um link para o artigo do checador de fatos desmistificando a desinformação.
  2. Reduzimos a distribuição do conteúdo para que menos pessoas o vejam.
  3. Notificamos qualquer pessoa que possa ter compartilhado o conteúdo ou qualquer pessoa que esteja tentando compartilhá-lo, de que a informação contida é falsa.
  4. Usamos automação e revisão humana para escalar o impacto da análise dos verificadores de fatos, identificando peças de conteúdo iguais ou quase iguais ao conteúdo analisado, aplicando rótulos e reduzindo a sua distribuição. 

Na nossa Central de Transparência, damos mais explicações sobre como lidamos com desinformação para que os usuários entendam nossa estratégia. 

Na maioria dos casos, usuários podem indicar para nós quando eles discordam de uma decisão de conteúdo no Facebook, incluindo quando removemos conteúdo por violações das nossas políticas para COVID-19. Adicionalmente, quando um conteúdo criado por um usuário recebe a análise de um checador, esse usuário pode apelar diretamente para o checador. Estamos explorando formas de melhorar o processo de apelação para conteúdos removidos e checados. 

Próximos passos

Não teremos mais atualizações sobre essa recomendação. 

Recomendação 2 (trabalho que o Facebook já faz)

Considerando o contexto da pandemia de COVID-19, o Facebook deveria fazer os arranjos técnicos para priorizar a checagem de potencial desinformação de saúde compartilhada por autoridades públicas no momento em que o conteúdo chega à atenção da empresa, levando em conta o contexto local. 

Nosso compromisso:

Peças de conteúdo que incluem potencial desinformação de COVID-19 já são priorizados na ferramenta que nossos verificadores de fatos independentes usam para decidir qual conteúdo analisar. Para preservar a sua independência, no entanto, não os direcionamos para revisar peças específicas de conteúdo. 

Considerações:

Somos parceiros de mais de 80 verificadores independentes, que trabalham em mais de 60 idiomas e mais de 100 países. verificadores revisam uma peça de conteúdo e classificam a sua precisão e esse processo acontece independentemente do Facebook. Como descrito na nossa Central de Ajuda, os verificadores priorizam alegações possivelmente falsas, especialmente aquelas que estão em alta para a pessoa comum, incluindo desinformação sobre COVID-19. No entanto, nós não exigimos que os verificadores classifiquem peças específicas de conteúdo, já que isso minaria a sua independência. 

Verificadores usam uma ferramenta customizada para identificar o conteúdo a ser revisado. O conteúdo nesta fila pode ser ranqueado de acordo com fatores como alcance e tema, incluindo se esse conteúdo é relacionado a saúde. A ferramenta também permite que os verificadores filtrem conteúdos de acordo com o tema, a plataforma (Facebook ou Instagram) ou formato (imagem ou vídeo). Adicionalmente, durante eventos relevantes ou notícias de última hora, nós usamos palavras-chave para agrupar o conteúdo em um só lugar, facilitando que seja encontrado pelo checador. Usamos este recurso para agrupar conteúdo sobre COVID-19. 

Por meio destes recursos e da prioridade estratégica que colocamos em prática para COVID-19, qualquer conteúdo elegível para checagem e que contém potencial desinformação sobre COVID-19, tenha sido ele compartilhado por uma autoridade pública de saúde ou outros, já são priorizados. 

Somando-se a esses processos, nós também fizemos muitos investimentos para dar apoio adicional aos verificadores de fatos e para conectá-los aos recursos que precisam para melhor endereçar desinformação. Por exemplo: 

Proximos passos:

Não teremos mais atualizações sobre essa recomendação.

Recomendação 3 (estamos implementando por completo)

O Facebook deveria dar mais transparência nos que diz respeito à seção Notícias Falsas nos Padrões da Comunidade sobre quando um conteúdo é elegível para ser checado, incluindo se instituições públicas estão sujeitas a este processo. 

Nosso compromisso

Vamos atualizar a seção Notícias Falsas com mais informações sobre como funciona nosso programa de checagem de fatos.  

Considerações: Em nossa Central de Transparência, nós damos mais informações sobre como nosso programa de checagem de fatos funciona, incluindo uma descrição do que é priorizado e o que não é elegível para ser checado. Mais detalhes estão disponíveis na Central de Ajuda para Publishers. Como resultado desta recomendação, vamos atualizar a seção de Notícias Falsas dos Padrões da Comunidade com links para ambos recursos. 

Como explicamos na Central de Ajuda para publishers: 

“Opinião e discurso de políticos não são elegíveis a serem checados…Ao analisar como isso se aplica, pedimos que nossos verificadores olhem os políticos em todos os níveis. Definimos como “político” um candidato a um cargo, mandatários atuais e, por extensão, muitas das pessoas que indicam para compor seu gabinete, juntamente com partidos políticos e seus líderes. Em alguns casos, nós pedimos que os verificadores usem seu conhecimento e o discernimento deles para determinar se um indivíduo é um político, como no caso de um representante eleito que trabalha meio período.”

Se uma instituição pública está associada a um político ou não, depende do contexto local. Por isso, deferimos aos verificadores de fatos independentes que façam essa determinação. 

Próximos passos

Vamos atualizar a seção Notícias Falsas dos Padrões da Comunidade com essas mudanças até o final do mês. 

 

Atualização em 19 de agosto de 2021: Recebemos hoje a decisão do Comitê de Supervisão sobre este caso. O Comitê decidiu manter a decisão do Facebook e, portanto, não temos nenhuma ação adicional a tomar relacionada ao caso ou ao conteúdo. Depois de analisar as recomendações feitas pelo Comitê em sua deliberação, atualizaremos este post.

Publicado originalmente em 02 de junho de 2021:

Hoje o Comitê de Supervisão selecionou um caso indicado pelo Facebook sobre uma publicação na Página do Facebook de uma entidade médica estadual no Brasil, com uma imagem de um comunicado por escrito sobre a redução da disseminação do COVID-19. O comunicado alega que os lockdowns são ineficazes, que são contra os direitos fundamentais da Constituição, e tira de contexto uma declaração de um médico da Organização Mundial da Saúde (OMS) para argumentar que os lockdowns são condenados pela entidade.

O Facebook manteve este conteúdo, em linha com nossa política de desinformação e danos em relação ao COVID-19, conforme estabelecido em nossa Central de Ajuda e nos Padrões da Comunidade. O Facebook remove a desinformação quando as autoridades de saúde pública concluem que a informação é falsa e pode contribuir para violência iminente ou dano físico. Embora a OMS e outros especialistas em saúde tenham aconselhado o Facebook a remover alegações que advogam contra práticas de saúde específicas, como o distanciamento social, eles não aconselharam o Facebook a remover alegações que advogam contra lockdowns.

O Facebook indicou esse caso por tê-lo considerado significativo e complexo, pois o conteúdo não viola as políticas do Facebook, mas ainda assim pode ser interpretado por algumas pessoas como defesa para tomar apenas certas medidas de segurança durante a pandemia.

Vamos implementar a decisão do Comitê após sua deliberação e, em seguida, atualizaremos esta publicação. Acesse o site do Comitê para mais informações sobre a decisão quando for divulgada.