Meta

Relatórios de Integridade e Transparência, Terceiro Trimestre de 2022

Destaques

  • A prevalência de conteúdo relacionado a bullying e assédio permaneceu baixa, em 0,08% no Facebook e entre 0,04-0,05% no Instagram. 
  • Recebemos a certificação do Media Ratings Council pelo nosso controle de segurança de marca, em termos de conteúdo, um marco em nosso compromisso em relação à segurança da marca e aos esforços em sustentabilidade.
  • Removemos três operações de influência, nos EUA, China e Rússia, destacadas em nosso mais recente Relatório Trimestral de Ameaças.

Hoje, estamos publicando nossos relatórios trimestrais, referentes ao terceiro trimestre de 2022 e nossos Relatórios de Transparência semestrais, referentes ao segundo semestre de 2022. Eles incluem:

Todos estes relatórios estão disponíveis na Central de Transparência. Aqui estão os principais destaques de cada um deles:

Destaques do Relatório de Aplicação dos Padrões da Comunidade 

Embora nossos esforços de integridade estejam sempre evoluindo, nosso objetivo é garantir que tomemos medidas em relação a conteúdos que violam nossas políticas, ao passo que somos mais precisos e detectamos nuances para que não estejamos removendo coisas de forma incorreta, como brincadeiras entre amigos.

Nossas ações contra conteúdos relacionados ao ódio diminuíram de 13,5 milhões para 10,6 milhões, no terceiro trimestre de 2022 no Facebook, porque melhoramos a precisão da nossa tecnologia de Inteligência Artificial (IA). Fizemos isso aproveitando dados anteriores de apelações de usuários para identificar publicações que poderiam ter sido removidas por engano, sem o contexto cultural apropriado. Por exemplo, agora podemos reconhecer melhor os termos de humor utilizados entre amigos, ou detectar melhor palavras que podem ser consideradas ofensivas ou inadequadas em um contexto, mas não em outro. À medida que melhoramos essa precisão, nossa taxa de detecção proativa de discurso de ódio também diminuiu de 95,6% para 90,2%, no terceiro trimestre de 2022.

Similarmente, nossas ações contra conteúdos que incitam a violência diminuíram de 19,3 milhões para 14,4 milhões, no terceiro trimestre de 2022, depois que nossa tecnologia de IA foi capaz de reconhecer melhor a linguagem e os emojis usados em brincadeiras entre amigos. Conforme melhoramos nossa precisão nesta frente, nossa taxa proativa para atuar sobre esses conteúdos diminuiu de 98,2% para 94,3%, no terceiro trimestre de 2022.

Para conteúdo relacionado a bullying e assédio, nossa taxa proativa diminuiu no terceiro trimestre de 2022, de 76,7% para 67,8% no Facebook, e de 87,4% para 84,3% no Instagram. Esta queda foi devida a uma maior precisão em nossas tecnologias (e um bug em nosso sistema que agora está resolvido).

Embora nossa taxa proativa tenha caído em algumas áreas, a prevalência de conteúdo nocivo no Facebook e no Instagram permaneceu relativamente consistente entre o segundo e o terceiro trimestres. Prevemos um movimento contínuo nestas áreas, à medida que nossa IA continue evoluindo.

No Facebook, no terceiro trimestre, tomamos medidas em:

No Instagram, no terceiro trimestre, tomamos medidas em:

Relatório de Ameaças

Como parte de nossos relatórios periódicos, estamos compartilhando nosso terceiro Relatório de Ameaças, para fornecer uma visão qualitativa sobre as ameaças adversas que enfrentamos globalmente. No último trimestre, investigamos e removemos três distintas operações encobertas de influência nos Estados Unidos, China e Rússia, por violarem nossa política contra comportamento inautêntico coordenado. Duas dessas redes (China e Rússia) foram originalmente reportadas em 27 de setembro de 2022. Leia o relatório completo.

Destaques do Relatório de Conteúdo Amplamente Visualizado

Percepções do RCAV continuam a informar como evoluímos nossos produtos e políticas. Isto inclui o desenvolvimento de novas políticas, quando necessário, para endereçar conteúdos nocivos ou de baixa qualidade, e mudança no ranking que reduziu as visualizações de conteúdos problemáticos e impediu que chegasse a um público amplo. O conteúdo principal deste trimestre não contém nenhum conteúdo que violasse as políticas, e estamos cautelosamente otimistas quanto ao progresso que alcançamos enquanto trabalhamos para melhorar a qualidade do conteúdo dentro do Facebook. Continuamos a trabalhar rigorosamente para compreender o ecossistema de conteúdo e avaliar a eficácia de nossas políticas e medidas de integridade – eliminando lacunas à medida que as encontramos. Leia mais sobre o relatório aqui

Trabalhando com especialistas externos

Nossos relatórios de transparência permitem que o público nos avalie e nos ajude a melhorar a forma como abordamos nosso trabalho. Também estamos comprometidos em realizar e divulgar avaliações independentes de terceiros sobre nossos processos, políticas e métricas. 

No início deste ano, divulgamos uma avaliação da EY sobre nosso Relatório de Aplicação de Padrões da Comunidade, que concluiu que o cálculo das métricas do relatório era declarado adequadamente, e que nossos controles internos estão projetados corretamente e operando de forma eficaz. Também estamos comprometidos com uma supervisão independente e apoiamos o Media Rating Council (MRC) como auditor de nossas soluções monetizadas em publicidade. No início deste mês, anunciamos que recebemos o certificado da MRC pelo controle de segurança de marca, em termos de conteúdo, no Facebook. 

Neste trimestre, atualizamos e ampliamos a seção da Central de Transparência sobre como nos envolvemos com stakeholders, incluindo novos exemplos de como o feedback deles tem contribuído para o desenvolvimento de nossas políticas de conteúdo.

Uma atualização sobre governança

O Comitê de Supervisão continua a ser uma valiosa fonte externa de perspectiva e de responsabilidade para a Meta. As recomendações do Comitê nos ajudam com nossa abordagem de moderação de conteúdo, conduzindo melhorias ponderadas em nossas políticas, operações e produtos. Respondemos publicamente a todas as recomendações e nos comprometemos a implementar ou explorar a viabilidade de implementar 75% das recomendações já feitas até o momento.

Também anunciamos recentemente a realização de um fórum comunitário em dezembro, que reunirá cerca de 6 mil pessoas de 32 países para discutir comportamento no metaverso. Os fóruns comunitários reúnem diversos grupos de pessoas para discutir questões complexas, analisar escolhas difíceis e compartilhar seus pontos de vista sobre um conjunto de recomendações. Iniciativas como esta fazem parte de como estamos explorando novas formas de governança, não apenas para ajudar a descentralizar a tomada de decisão, mas também para incluir perspectivas diversas no processo.