Meta

Mais expressão e menos erros

Por Joel Kaplan, Vice-presidente, Global Affairs

Destaques

  • Começando pelos Estados Unidos, estamos encerrando nosso programa de verificação de fatos via parceiros e migrando para um modelo baseado em Notas da Comunidade 
  • Permitiremos que as pessoas se expressem mais, eliminando restrições sobre alguns assuntos que são parte de discussões em voga na sociedade e focando a moderação de conteúdo em postagens ilegais e violações de alta severidade
  • Adotaremos uma abordagem mais personalizada para conteúdo político, para que as pessoas que assim quiserem possam ver mais conteúdo desse tipo em seus feeds

As plataformas da Meta são construídas para serem lugares em que as pessoas podem se expressar livremente. Isso pode ser um pouco caótico. Em plataformas nas quais bilhões de pessoas podem ter voz, tudo o que é bom, ruim e feio está exposto. Mas isso é a livre expressão. 

Em 2019, em seu discurso na Universidade de Georgetown, Mark Zuckerberg argumentou que a liberdade de expressão tem sido a força motriz por trás do progresso da sociedade norte-americana e ao redor do mundo, ao passo que inibir a fala, independentemente de razões bem-intencionadas para fazê-lo, é algo que frequentemente reforça as instituições e as estruturas de poder existentes em vez de empoderar as pessoas. Ele disse: “Há quem acredite que dar mais voz às pessoas está provocando cisões em vez de nos unir. Mais pessoas em todo o espectro acreditam que atingir os resultados políticos que acham que importam é mais importante do que cada pessoa ter uma voz. Eu acho que isso é perigoso.”

Nos últimos anos, desenvolvemos sistemas cada vez mais complexos para gerenciar conteúdo em nossas plataformas, em parte como resposta à pressão pública e política para moderar conteúdo. Essa abordagem foi longe demais. Embora muitos desses esforços tenham sido bem-intencionados, eles se ampliaram ao longo do tempo até o ponto em que estamos cometendo muitos erros, frustrando nossos usuários e, com frequência, impedindo a livre expressão que pretendemos viabilizar. Muito conteúdo inofensivo é censurado, muitas pessoas se veem trancadas injustamente na “cadeia do Facebook” e, com frequência, somos lentos em respondê-las.

Queremos consertar isso e voltar àquele compromisso fundamental com a livre expressão. Hoje, estamos fazendo algumas mudanças para permanecermos fiéis a esse ideal.

Encerramento do programa de verificação de fatos e migração para Notas da Comunidade

Quando lançamos nosso programa independente de verificação de fatos em 2016, fomos claros sobre não querermos ser os árbitros da verdade. Adotamos o que consideramos ser a melhor e mais razoável escolha na época, que era deixar essa tarefa para organizações independentes de verificação de fatos. A intenção do programa era fornecer às pessoas mais contexto e informações sobre as coisas que elas veem online, em especial rumores e especulações que viralizam, para que elas possam julgar por si mesmas o que veem e leem.

No entanto, não foi assim que o processo se desenrolou, especialmente nos Estados Unidos. Especialistas, assim como todos, têm suas próprias perspectivas, e isso se manifestou nas escolhas que alguns fizeram sobre o que verificar e como. Ao longo do tempo, acabamos por ter muito conteúdo sendo verificado que as pessoas entendiam como discurso político legítimo e debate. Nosso sistema então adicionou consequências reais na forma de rótulos intrusivos e distribuição reduzida. Um programa destinado a dar mais informação para as pessoas se tornou, com frequência, uma ferramenta de censura. 

Agora estamos mudando essa abordagem. Vamos encerrar o atual programa de verificação de fatos com terceiros nos EUA e começar a migrar para um programa de Notas da Comunidade. Já vimos essa abordagem funcionar no X – onde eles empoderam a comunidade para decidir quando postagens são potencialmente enganosas e precisam de mais contexto, e pessoas de uma ampla gama de perspectivas estabelecem que tipo de contexto é útil para outros usuários verem. Acreditamos que essa pode ser uma maneira mais efetiva e diversa de alcançar nossa intenção original de fornecer às pessoas informações sobre o que estão vendo – e uma que é menos propensa a vieses.

  • Uma vez que o programa estiver em execução, a Meta não escreverá Notas da Comunidade ou decidirá quais delas serão exibidas. Elas serão escritas e avaliadas por usuários colaboradores. 
  • Assim como fazem no X, as Notas da Comunidade exigirão consenso entre pessoas com uma ampla gama de perspectivas para ajudar a prevenir avaliações tendenciosas.
  • Pretendemos ser transparentes sobre como diferentes pontos de vista fundamentam as Notas exibidas em nossos aplicativos e estamos trabalhando para encontrar a melhor maneira de compartilhar essa informação.
  • Pessoas interessadas nos Estados Unidos podem se inscrever hoje para ter a oportunidade de estarem entre os primeiros colaboradores para esse programa à medida que ele se tornar disponível.

Planejamos implementar as Notas da Comunidade primeiro nos EUA, ao longo dos próximos meses, e continuaremos a aprimorá-las ao longo do ano. Enquanto fazemos a transição, vamos parar de reduzir a distribuição deste de conteúdo verificado e, em vez de exibir advertências em tela cheia nas quais você precisa clicar antes de poder ver a postagem, vamos usar um rótulo muito menos intrusivo indicando que há informações adicionais sobre o post para quem desejar vê-las.

Mais espaço para o debate

Ao longo do tempo, desenvolvemos sistemas complexos para gerenciar conteúdo em nossas plataformas, cuja aplicação tem se tornado cada vez mais complicada. Como resultado, temos exagerado na aplicação de nossas regras, limitando debate político legítimo e excluindo conteúdo trivial, e submetendo muitas pessoas a ações frustrantes de aplicação de políticas.

Em dezembro de 2024, por exemplo, removemos milhões de posts todos os dias. Embora essas medidas representem menos de 1% do conteúdo produzido diariamente, acreditamos que de uma a duas em cada 10 dessas ações podem ter sido equivocadas (ou seja, o conteúdo removido pode não ter violado nossas políticas). Esse dado não leva em conta as ações que tomamos para lidar com ataques em larga escala. Planejamos expandir nosso relatório de transparência para compartilhar regularmente números sobre nossos erros, para que as pessoas possam acompanhar nosso progresso. Como parte disso, também incluiremos mais detalhes sobre os equívocos que cometemos ao aplicar nossas políticas de spam.

Queremos reverter a extensão dos esforços que tornaram nossas regras muito restritivas e propensas à aplicação excessiva dessas regras. Estamos eliminando uma série de restrições em tópicos como imigração, identidade de gênero e gênero que são frequentemente objeto de discurso político e debate. Não é certo que coisas possam ser ditas na TV ou no plenário do Congresso, mas não em nossas plataformas. Essas mudanças de política podem levar algumas semanas para serem implementadas integralmente.

Também vamos mudar como aplicamos nossas políticas para reduzir os tipos de erros que respondem pela maioria da censura em nossas plataformas. Até agora, temos usado sistemas automatizados para detectar violações a políticas, mas isso resultou em muito conteúdo erroneamente removido e em muito conteúdo sendo censurado que não deveria ter sido. Portanto, vamos concentrar o uso desses sistemas para lidar com conteúdo ilegal e violações de alta severidade, como terrorismo, exploração sexual infantil, drogas, fraudes e scams. Para violações de política menos graves, vamos nos basear nas denúncias das pessoas antes de tomar qualquer ação. Também reduzimos a visibilidade de muito conteúdo que nossos sistemas preveem que pode violar nossas regras Estamos no processo de eliminar muitas dessas restrições e requerer um grau de confiança maior de que o conteúdo é de fato uma violação, além de ajustar nossos sistemas para garantir um nível maior de certeza antes que um conteúdo seja removido. Como parte dessas mudanças, nosso time de Trust and Safety que escreve nossas políticas de conteúdo e revisa os conteúdos sairá da Califórnia para o Texas e outras localidades nos EUA. 

Geralmente as pessoas têm a chance de recorrer das nossas decisões quando são tomadas medidas corretivas sobre suas contas e conteúdos, solicitando que revisemos nossas ações. No entanto, esse processo pode ser frustrantemente lento e nem sempre chega ao resultado devido. Aumentamos o número de pessoas dedicadas a esse trabalho e ampliamos o número de casos para os quais exigimos que vários revisores cheguem a um consenso antes de uma remoção de conteúdo. Estamos trabalhando em maneiras de tornar a recuperação de contas mais direta e testando tecnologia de reconhecimento facial, além de começarmos a usar modelos de linguagem de larga escala de Inteligência Artificial (LLMs) para uma segunda opinião sobre alguns conteúdos antes de tomarmos medidas.

Uma abordagem personalizada para conteúdo político

Desde 2021, temos feito mudanças para reduzir a quantidade de conteúdo cívico que as pessoas veem em nossas plataformas – posts sobre eleições, política ou questões sociais. Essas mudanças ocorreram com base no feedback dos nossos usuários, que nos disseram que queriam ver menos esse tipo de conteúdo. Mas essa medida foi um tanto brusca. Vamos começar a reintroduzir conteúdos dessa natureza no Facebook, Instagram e Threads com uma abordagem mais personalizada, para que as pessoas que querem ver mais conteúdo político em seus feeds tenham essa possibilidade.

Estamos constantemente testando como entregamos experiências personalizadas e recentemente realizamos testes em torno do conteúdo cívico. Como resultado, vamos começar a tratar o conteúdo cívico das pessoas e Páginas que você segue no Facebook da mesma forma que qualquer outro conteúdo em seu feed, e passaremos a ranquear e mostrar esse conteúdo com base em sinais explícitos (por exemplo, curtir um conteúdo) e sinais implícitos (como visualizar posts) que nos ajudam a prever o que é significativo para as pessoas. Também vamos recomendar mais conteúdo político com base nesses sinais personalizados, e estamos ampliando as opções que as pessoas têm para controlar o quanto desse conteúdo elas veem.

Essas mudanças são uma tentativa de retornar ao compromisso com a livre expressão que Mark Zuckerberg estabeleceu em seu discurso na Universidade de Georgetown. Isso significa ser vigilante sobre o impacto que nossas políticas e sistemas estão tendo na capacidade de as pessoas fazerem sua voz ser ouvida e ter a humildade de mudar nossa abordagem quando sabemos que estamos fazendo a coisa errada.


:

Usamos cookies para ajudar a personalizar conteúdo, mensurar anúncios e fornecer uma experiência mais segura. Clicando ou navegando no site, você concorda em permitir a coleta de informações dentro e fora do Facebook por meio de cookies. Saiba mais, inclusive sobre os controles disponíveis: Política de Cookies