Meta

Questões complexas: Por que vocês deixam alguns conteúdos no ar, mas removem outros?

Por Monika Bickert, vice-presidente global de Políticas Públicas do Facebook

Queremos que o Facebook seja um lugar seguro onde as pessoas podem discutir livremente diferentes pontos de vista. É por isso que precisamos de regras claras e de uma aplicação consistente delas. Essas regras são chamadas de Padrões da Comunidade, e nesta semana, pela primeira vez, publicamos as diretrizes internas usadas pelos nossos revisores na análise do conteúdo que está na plataforma.

Uma das coisas mais importantes que precisamos levar em conta é o contexto. Por exemplo, permitiríamos que alguém publicasse um insulto racial auto-referencial como forma de empoderamento, mas se esse mesmo insulto fosse proferido por uma outra pessoa, com intenção de ofensa, removeríamos o conteúdo. Além disso, para permitir um debate aberto sobre questões atuais, fazemos exceções às nossas políticas contra o bullying quando figuras públicas estão envolvidas. Isso permite que você critique políticos, celebridades, executivos e outras figuras públicas de uma forma que não permitimos no caso de indivíduos privados.

Às vezes, usar exemplos é a maneira mais fácil de explicar por que tomamos determinadas decisões, e vou mostrar alguns com base em publicações reais. Para não publicar fotos ou conteúdos que violam nossas regras, só utilizarei aqueles que são permitidos, enquanto irei descrever os que violam nossos padrões.

Discurso de ódio

Nossos Padrões da Comunidade fazem uma distinção importante entre atacar pessoas e atacar crenças ou instituições específicas.

Acreditamos que as pessoas têm que poder compartilhar seus pontos de vista e discutir ideias controversas no Facebook. É por isso que nossas políticas permitem que as pessoas critiquem e até condenem instituições religiosas ou partidos políticos. Mas colocamos um limite quando o foco muda para indivíduos ou grupos de pessoas. Não permitimos ataques diretos com base no que chamamos de características protegidas: raça, etnia, nacionalidade, afiliação religiosa, orientação sexual, sexo, gênero, identidade de gênero e deficiência ou doença grave.

Neste exemplo, a imagem e o comentário sugerem que o casamento entre pessoas do mesmo sexo seja um pecado. Porque a publicação tem como alvo a instituição do casamento entre pessoas do mesmo sexo, não uma pessoa específica ou grupo de pessoas, nós permitimos isso. Se o mesmo conteúdo “pecado é pecado” fosse publicado com a foto de um casal do mesmo sexo, ele seria removido.

Não há dúvidas de que a orientação sexual, as crenças políticas ou a religião estão muitas vezes centradas na identidade de alguém – e um ataque ao grupo em geral pode parecer extremamente pessoal. Então, embora nem sempre concordemos com as opiniões expressas, banir o debate em torno de questões de identidade e ideologia sufocaria a liberdade de expressão e a troca potencialmente produtiva de ideias.

Nudez

A nudez pode ser uma forma poderosa de protesto, por isso não viola nossa política publicar seios nus em uma imagem que representa claramente um ato de protesto, como no exemplo aqui.

Também permitimos seios nus em outros contextos, incluindo imagens de amamentação ou parto, e por motivos de saúde, como a conscientização do câncer de mama.

Mas também sabemos que as imagens de nudez são às vezes compartilhadas sem o consentimento da pessoa retratada, mesmo que a pessoa inicialmente consentisse em tirar a foto. Nós levamos isso muito a sério. Como a idade e o consentimento são muito difíceis de determinar, limitamos os tipos de imagens de nudez que permitimos.

Bens Regulados

As drogas são tratadas de maneira diferente em cada país e região. Definir políticas diferentes com base nas leis de todas as jurisdições em que operamos é simplesmente inviável. Em vez disso, tentamos adotar uma abordagem de senso comum que acreditamos estar mais alinhada com o que as pessoas consideram aceitável.

Não permitimos que as pessoas compartilhem fotos ou vídeos que descrevam o uso de drogas que não sejam de uso medicinal – ou que discutam seu próprio uso ou incentivem outros a usar. E não permitimos a venda, o comércio ou a solicitação de qualquer tipo de droga, seja não medicinal, farmacêutica ou maconha.

Isso dito, sabemos que compartilhar a batalha pessoal com o vício pode ser uma forma poderosa de ajudar a própria recuperação e a de outras pessoas. Assim, permitimos a discussão e representação de drogas não medicinais no contexto de testemunhos de recuperação, como nesse exemplo.

Exploração Sexual

Geralmente, não permitimos descrições ou representações de assédios sexuais não consensuais no Facebook.

O movimento #MeToo – e as histórias angustiantes de agressão e assédio que foram corajosamente compartilhadas por pessoas em todo o mundo – nos levou a avaliar a necessidade de algumas exceções. Esse exemplo é baseado em um post real em que uma sobrevivente relatou ter sido sexualmente assediada como menor de idade. Sua história foi amplamente compartilhada.

Dado o contexto – e a intenção de conscientizar e esclarecer sobre uma questão importante – decidimos abrir uma exceção e permitir esse post como conteúdo informativo. Também permitimos que outras pessoas compartilhassem o post, em apoio à sobrevivente, ou para condenar seu agressor. Se a postagem foi compartilhada sem contexto ou com uma legenda neutra, nós a removemos. Naturalmente, se a mesma história fosse contada pelo assediador, seria removida.

Indivíduos e Organizações Perigosas

Proibimos grupos terroristas e organizações de ódio no Facebook, e retiramos qualquer conteúdo que os exalte, ou a qualquer uma de suas ações ou membros. Como queremos incentivar o contradiscurso e o fluxo de informações, permitimos publicações que condenem explicitamente as organizações ou relatem sua atividade – como é o caso neste exemplo que mostra a bandeira do ISIS.

Se um post não tiver uma condenação clara ou um valor noticioso, nós o removeremos. Isso significa que, se uma pessoa ou Página se opuser às ações de um grupo terrorista ou de ódio, mas compartilhar uma foto desse grupo sem contexto, nossos revisores a removerão. Fazemos isso porque é difícil para nós saber a intenção da pessoa e porque essas postagens podem ser facilmente compartilhadas por outras pessoas para exaltar esse grupo.

Além de nossa equipe de revisores de conteúdo, usamos inteligência artificial e machine learning para detectar e remover conteúdo terrorista. E nos associamos a outras empresas de tecnologia para garantir que o conteúdo encontrado e removido do Facebook não surja em outro lugar na internet.