Meta

Ajudando a proteger as eleições dos EUA de 2020

Por Guy Rosen, Vice-Presidente de Integridade; Katie Harbath, diretora global de Políticas Públicas para Eleições; Nathaniel Gleicher, diretor de Cibersegurança; e Rob Leathern, diretor de Gerenciamento de Produto

Nós temos a responsabilidade de conter os abusos e a interferência eleitoral em nossa plataforma. É por isso que temos feito investimentos significativos desde 2016 em pessoal e tecnologia para identificar melhor novas ameaças, fechar vulnerabilidades e diminuir a disseminação de desinformação viral e contas falsas. 

Hoje, faltando quase um ano para as eleições dos Estados Unidos de 2020, estamos anunciando diversas medidas novas para proteger o processo democrático e atualizando as iniciativas que já existiam:

Combatendo a interferência estrangeira

Aumentando a transparência

Reduzindo a desinformação

 

Combatendo a Interferência Estrangeira

Combatendo o Comportamento Inautêntico

Nos últimos três anos, trabalhamos para identificar ameaças novas e emergentes e remover comportamentos inautênticos coordenados de todas as nossas plataformas. Somente no ano passado, derrubamos mais de 50 redes em todo o mundo, muitas delas antes de eleições em grandes democracias. Como parte de nosso esforço para combater as campanhas de influência estrangeira, hoje removemos quatro redes separadas de contas, Páginas e Grupos no Facebook e Instagram por comportamento inautêntico coordenado. Três delas com origem no Irã e uma na Rússia. Eles tinham como alvo diferentes regiões no mundo: Estados Unidos, norte da África e América Latina. Identificamos essas campanhas de manipulação através de investigações internas sobre comportamentos inautênticos suspeitos ligados ao Irã, e através do contínuo trabalho proativo antes das eleições nos EUA.

Removemos essas redes com base no comportamento delas, não no conteúdo que postaram. Em cada caso, as pessoas por trás dessa atividade se coordenaram e usaram contas falsas para se disfarçar, e essa foi a base de nossa ação. Compartilhamos informações sobre nossas descobertas com autoridades e parceiros da indústria. Mais detalhes podem ser encontrados aqui.

Conforme nós melhoramos nossa habilidade para interromper essas operações, também construímos um entendimento mais profundo sobre os diferentes tipos de ameaças e a melhor forma de contê-las. Investigamos e atuamos contra qualquer tipo de comportamento inautêntico. No entanto, a forma mais apropriada para lidar com alguém impulsionando a popularidade de suas publicações no seu próprio país pode não ser a melhor maneira de combater interferência estrangeira. É por isso que estamos atualizando a nossa política de comportamento não autêntico para esclarecer como atuamos contra o todo o espectro de práticas enganosas que vemos em nossas plataformas, seja doméstica ou estrangeira, do estado ou fora dele. 

Protegendo as contas de candidatos, representantes eleitos e suas equipes

Hoje estamos lançando o Facebook Protect para ampliar a segurança de representantes eleitos, candidatos, suas equipes e outros que possam ser alvos particularmente vulneráveis para hackers e adversários estrangeiros. Como temos visto em eleições passadas, eles podem ser alvos de atividade maliciosa. No entanto, como as campanhas são feitas em um curto período de tempo, nós nem sempre sabemos quem são estas pessoas ligadas a campanha, o que torna ajudar a protegê-los mais difícil.

A partir de hoje, administradores de Páginas podem incluir as contas do Facebook e do Instagram de suas organizações no Facebook Protect e convidar membros de suas organizações para também participar do programa. Os participantes terão que ativar a autenticação de dois fatores, e suas contas serão monitoradas para ações de hackeamento, como tentativas de login de locais não usuais ou de dispositivos não verificados. E, se descobrirmos um ataque contra uma conta, poderemos revisar e proteger outras contas relacionadas a essa mesma organização que estiverem inscritas no programa. Leia mais sobre o Facebook Protect e se inscreva aqui.

Aumentando a transparência

Tornando Páginas mais transparentes

Queremos garantir que as pessoas usem o Facebook de forma autêntica, e que elas entendam quem está falando com elas. Ao longo do ano passado, demos passos para garantir que as Páginas sejam autênticas e mais transparentes – mostrando para as pessoas o país de localização primária de uma Página e se a Página foi unida a outras Páginas. Isso dá às pessoas mais contexto sobre a Página e facilita a compreensão de quem está por trás dela. 

Cada vez mais, temos visto que as pessoas não divulgam a organização por trás de suas Páginas como uma maneira de fazer com que os outros pensem que a Página é independente. Para resolver isso, estamos incluindo mais informações sobre quem está por trás de uma Página incluindo uma aba de “Organizações que gerenciam esta Página” que mostrará o “Proprietário Confirmado da Página”, incluindo o nome legal da organização e a cidade verificada, número de telefone ou website.

A princípio, essa aba aparecerá apenas em Páginas com grande audiência nos EUA que tenham o selo de verificação de empresas do Facebook. Além disso, as Páginas que passaram pelo novo processo de autorização para exibir anúncios sobre questões sociais, eleições ou política nos EUA terão essa aba. E, a partir de janeiro, esses anunciantes serão obrigados a exibir o Proprietário Confirmado da Página.

Se identificarmos que uma Página está escondendo sua propriedade ou organização controladora, podemos exigir que ela conclua o processo de verificação e forneça mais informações para que a Página permaneça ativa. 

Indicando mídia controlada pelo Estado

Queremos ajudar as pessoas a entender melhor as fontes de conteúdo noticioso que estão vendo no Facebook para que elas possam tomar decisões informadas sobre o que estão lendo. No próximo mês, vamos começar a indicar veículos de mídia que sejam totalmente ou parcialmente controlados por seus governos como mídia controlada pelo Estado. Esta indicação estará tanto em suas Páginas como em nossa Biblioteca de Anúncios. 

Vamos exigir padrões mais altos de transparência dessas Páginas porque elas combinam a influência de formar opinião de uma organização de mídia com o apoio estratégico do Estado.

Desenvolvemos nossa própria definição e padrões para organizações de mídia controladas pelo Estado com a contribuição de mais de 40 especialistas ao redor do mundo especializados em mídia, governança, direitos humanos e desenvolvimento. Foram consultados representantes das principais instituições acadêmicas, organizações sem fins lucrativos e  organizações internacionais nesta área, incluindo Repórteres sem Fronteira, Centro Internacional para Assistência a Mídia, Centro Europeu para Jornalismo, Projeto em Propaganda Computacional do Instituto de Internet de Oxford, Centro de Mídia, Dados e Sociedade da Universidade da Europa Central, UNESCO e outros. 

É importante observar que nossa política faz uma distinção intencional entre mídia controlada pelo Estado e mídia pública, que definimos como qualquer entidade financiada publicamente, com uma missão de serviço público e que possa demonstrar seu controle editorial independente. No momento, estamos concentrando nossos esforços para indicar apenas a mídia controlada pelo Estado.

Atualizaremos a lista de mídia controlada por Estado continuamente a partir de novembro. E, no início de 2020, planejamos expandir nossa indicação para publicações específicas e aplicá-las no Instagram também. Para qualquer organização que acreditar que aplicamos a indicação por engano, haverá um processo de apelação.

Entendendo melhor anúncios políticos

Além de tornar as Páginas mais transparentes, estamos atualizando a Biblioteca de Anúncios, o Relatório da Biblioteca de Anúncios e a interface de programação (API) da Biblioteca de Anúncios para ajudar jornalistas, legisladores, pesquisadores e outras pessoas a saberem mais sobre os anúncios que veem. Isso inclui:

Além dessas atualizações na API da Biblioteca de Anúncios, no fim deste mês começaremos a testar uma nova ferramenta de compartilhamento de dados com pesquisadores que vai permitir que eles façam rapidamente o download de toda a Biblioteca de Anúncios, puxar telas de dados diárias e acompanhar mudanças no dia-a-dia.

Visite nossa Central de Ajuda para saber mais sobre as mudanças nas Páginas e na Biblioteca de Anúncios

Reduzindo a desinformação

Prevenindo a disseminação de desinformação viral 

No Facebook e no Instagram, trabalhamos para reduzir a disseminação de notícias claramente falsas. Por exemplo, reduzimos a distribuição desses conteúdos para que menos pessoas os vejam – no Instagram, removemos o conteúdo da ferramenta Explorar e das hashtags; no Facebook, reduzimos a distribuição no Feed de Notícias. No Instagram, também deixamos o conteúdo de contas que publicam desinformação repetidamente mais difícil de encontrar, filtrando o conteúdo dessas contas da ferramenta Explorar e das páginas de hashtag, por exemplo. No Facebook, se Páginas, domínios ou Grupos compartilham desinformação repetidamente, seguiremos reduzindo a distribuição e vamos incluir restrições na habilidade de a Página de fazer anúncios e monetizar. 

Ao longo do próximo mês, conteúdo no Facebook e no Instagram que tenha sido marcado como falso ou parcialmente falso por uma agência de checagem de fatos independente parceira passará a ser rotulado de forma mais proeminente para que as pessoas possam decidir por elas mesmas o que querem ler, acreditar e compartilhar. Esse rótulo abaixo vai ser mostrado por cima de fotos e vídeos marcados como falsos ou parcialmente falsos, incluindo conteúdo no Stories no Instagram, e terá um link para o artigo da agência de checagem de fatos sobre aquele conteúdo. 

Muito parecido ao que fazemos no Facebook quando as pessoas tentam compartilhar uma desinformação já marcada como falsa, também estamos introduzindo um novo pop-up que aparecerá quando as pessoas tentarem compartilhar publicações no Instagram que incluam conteúdo que tenha sido desmentido por uma agência de checagem de fatos. 

Além de indicações mais claras de conteúdo marcado como falso ou parcialmente falso, estamos trabalhando para atuar mais rapidamente para evitar que uma desinformação viralize, especialmente se consideramos que relatórios de qualidade e checagem de fatos levam tempo. Em muitos países, incluindo os EUA, se tivermos sinais de que um conteúdo é falso, vamos reduzir temporariamente sua distribuição enquanto a verificação por uma agência de checagem de fatos parceira é feita.

Combatendo a supressão de votos e interferência

Tentativas de interferir nas eleições ou supressão de votos enfraquecem nossos valores fundamentais como companhia, e atuamos proativamente para remover esse tipo de conteúdo nocivo. Antes das eleições legislativas de 2018 nos EUA, ampliamos as políticas de supressão de votos e intimidação para proibir:

Nós removemos esse tipo de conteúdo independentemente da sua origem, e antes das eleições legislativas de 2018, nosso Centro de Operações Eleitorais removeu mais de 45.000 conteúdos que violavam essas políticas – mais de 90% dos quais foram detectados pelos nossos sistemas antes de que alguém denunciasse o conteúdo. 

Também reconhecemos que existem certos tipos de conteúdo, como discursos de ódio, que também podem levar supressão de votos. É por isso que nossas políticas de discurso de ódio proíbem esforços para excluir pessoas da participação política com base, por exemplo, em raça, etnia ou religião (ex. dizer para as pessoas não votarem em um candidato por causa da sua raça, ou indicar que pessoas de determinada religião deveriam ser proibidas de ter mandato).  

Antes da eleição dos EUA de 2020, estamos implementando políticas adicionais e ampliando nossas capacidades técnicas no Facebook e no Instagram para proteger a integridade da eleição. Seguindo o compromisso que assumimos em junho, implementamos nossa política para proibir anúncios pagos que sugiram que votar é inútil ou sem sentido, ou que aconselhem as pessoas a não votar. 

Além disso, nossos sistemas agora estão mais efetivos em detectar proativamente e remover esse conteúdo nocivo. Nós usamos a aprendizagem de máquina para nos ajudar a identificar rapidamente informações potencialmente incorretas sobre votação e removê-las.

Estamos também ampliando continuamente e desenvolvendo parcerias para fornecer opinião especializada em tendências sobre supressão de votos e interferência, assim como detecção precoce de conteúdo violador. Isso inclui trabalhar diretamente com secretários de Estado e autoridades eleitorais para lidar com supressão de votos localizada que possa estar ocorrendo em um único Estado ou região. EsSe trabalho terá o apoio do nosso Centro de Operações Eleitorais tanto nas eleições primárias quanto nas gerais dos EUA. 

Ajudando as pessoas a entender melhor as informações que elas veem online

Parte de nosso trabalho para impedir a disseminação de desinformação é ajudar as pessoas a identificá-las. É por isso que fazemos parceria com organizações e especialistas da área de alfabetização midiática. 

Hoje anunciamos um investimento inicial de US$2 milhões para apoiar projetos que empoderem as pessoas a determinar o que ler e compartilhar – no Facebook e em outros lugares.

Esses projetos vão desde programas de treinamento que ajudam a assegurar que as maiores contas do Instagram tenham os recursos que elas precisam para reduzir a disseminação de desinformação, até a expansão de um programa piloto que reúne idosos e estudantes do ensino médio para aprender sobre segurança online e alfabetização midiática, a eventos públicos em locais como livrarias, centros comunitários e bibliotecas em cidades de todo os EUA. Também apoiamos uma série de eventos de treinamento focados no pensamento crítico entre os eleitores iniciantes.

Adicionalmente, estamos hospedando uma nova série de lições sobre alfabetização de mídia em nossa Biblioteca de Alfabetização Digital. Esses materiais foram desenvolvidos pela equipe Youth and Media da Berkman Klein Center for Internet & Society da Universidade de Harvard, que disponibilizou o conteúdo gratuitamente para todo o mundo através da licença de Creative Commons. As aulas, criadas para educadores do ensino fundamental e médio, são projetadas para serem interativas e cobrem tópicos que vão desde avaliar a qualidade das informações com as quais eles se engajam até habilidades técnicas, como a busca reversa de imagens.

Vamos continuar a desenvolver nossos esforços para alfabetização midiática nos EUA.