Logo após o lançamento do nosso Relatório de Ameaças do quarto trimestre, estamos publicando os demais relatórios referentes a esse período, incluindo o Relatório de Aplicação dos Padrões da Comunidade, a atualização trimestral do Comitê de Supervisão e o Relatório de Conteúdo Amplamente Visualizado. Todos os relatórios estão disponíveis em nossa Central de Transparência.
Alguns dos destaques do relatório incluem:
Relatório de Aplicação dos Padrões da Comunidade
No quarto trimestre, continuamos a progredir na remoção de conteúdos que violam os nossos Padrões da Comunidade, com a prevalência permanecendo relativamente consistente na maior parte das áreas. Somado a isso, tivemos:
- Um aumento em conteúdos acionados por nudez adulta e atividades sexuais, devido às atualizações na nossa tecnologia de detecção proativa que melhorou a precisão em vídeos ao vivo.
- Um aumento em ações e apelações em conteúdos relacionados à Organizações e Indivíduos Perigosos e Conteúdos Violentos e Explícitos devido à guerra Israel-Hamas.
- Um aumento no conteúdo acionado, tanto no Facebook quanto no Instagram, por violações à nossa política de Bens e Serviços Regulamentados, em grande parte relacionadas a fogos de artifício e armas de fogo.
- Uma diminuição em contestações de conteúdo relacionado a Bullying e Assédio, devido às melhorias de precisão da nossa tecnologia de detecção proativa.
Você pode ler o relatório completo aqui.
Relatório de Ameaças
No nosso Relatório de Ameaças do quarto trimestre, compartilhamos a terceira atualização anual referente ao nosso trabalho contra a indústria de monitoramento terceirizada, incluindo o nosso pedido à ação contra o spyware com recomendações e políticas específicas para uma resposta mais ampla de toda a sociedade. Nosso relatório também inclui novas remoções de redes de Comportamento Inautêntico Coordenado (CIB), feitas no quarto trimestre, na China, Mianmar e Ucrânia, bem como os nossos principais insights sobre as tendências adversas que identificamos nos últimos dois anos, desde que a Rússia iniciou uma guerra em grande escala contra a Ucrânia. Esta investigação sobre ameaças nos ajuda a informar as nossas defesas enquanto trabalhamos para proteger o debate público em todo o mundo, inclusive antes das muitas eleições previstas para este ano. Você pode ler o relatório completo aqui.
Atualização do Comitê de Supervisão
O Comitê de Supervisão continua nos ajudando a promover mudanças importantes nas nossas políticas, operações e produtos para que atuemos com responsabilidade. No quarto trimestre de 2023, submetemos 15 recomendações de conteúdo ao Comitê e executamos 16 das indicações, incluindo as nossas operações, políticas e produtos, contribuindo para melhorias amplas e significativas em toda a empresa e na nossa comunidade global. Respondemos publicamente a todas as recomendações do Comitê de Supervisão e nos comprometemos a implementar ou explorar a viabilidade de 77% do total de recomendações feitas até o momento.
O quarto trimestre de 2023 marcou as primeiras decisões rápidas, previstas no estatuto em “circunstâncias excepcionais, inclusive quando o conteúdo pode resultar em consequências urgentes no mundo real”. Na sequência dos ataques terroristas de 7 de Outubro realizados pelo Hamas em Israel e da resposta de Israel em Gaza, o Comitê selecionou as análises do Hospital Al-Shifa e dos Reféns Sequestrados de Israel. Ao anular rapidamente as nossas decisões originais, o Comitê nos deu um feedback que continua a moldar a nossa resposta ao conflito em curso. Essas decisões também demonstraram o potencial das deliberações de casos “expressos”, permitindo ao Comitê fornecer uma orientação crítica durante situações de alto risco e de rápida evolução.
Em fevereiro de 2024, o Comitê de Supervisão anunciou que passou a incluir em seu escopo pedidos de conteúdo do Threads, além de Facebook e Instagram. Assim como no Facebook e no Instagram, as pessoas poderão encaminhar as decisões de conteúdo nos Threads para o Comitê, sejam elas deixadas abertas ou removidas. O estatuto do Comitê de Supervisão está definido para que o seu escopo evolua ao longo do tempo e, desde o seu lançamento, em 2020, o seu escopo foi aumentado para incluir recursos de denúncias além de decisões integradas, sumárias e expressas.
À medida que tanto a Meta quanto o Comitê continuam a pressionar por mais resultados e de forma mais eficiente, cada instituição tomou separadamente a decisão de mudar a frequência de relatórios trimestrais para atualizações semestrais sobre o nosso trabalho com o Comitê de Supervisão. Você pode ler mais sobre a importância do Comitê aqui.
Relatório de conteúdo amplamente visualizado (WVCR)
No quarto trimestre de 2023, identificamos que a maioria das visualizações (62,7%) vieram de amigos, Grupos ou Páginas seguidas pelo usuário. Você pode ler o relatório completo aqui.
Conselhos de cibersegurança do NCMEC
Como parte do nosso trabalho contínuo para proporcionar aos jovens experiências online seguras e positivas, conforme relatado pela primeira vez no segundo trimestre e no terceiro trimestre, estamos proporcionando mais transparência aos nossos esforços para encontrar e denunciar a exploração infantil ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC).
No quarto trimestre de 2023, reportamos relatamos o seguinte número de denúncias ao NCMEC do Facebook e Instagram:
- O Facebook e o Instagram enviaram mais de 6 milhões de denúncias ao NCMEC relacionadas à exploração sexual infantil.
- Dessas denúncias, mais de 100 mil envolveram interações inapropriadas com crianças. As denúncias relacionadas a interações inadequadas com crianças podem incluir um adulto solicitando um material de abuso sexual infantil (CSAM) diretamente de um menor ou tentando encontrar e causar danos a uma criança pessoalmente.
- Mais de 5,9 milhões de denúncias relacionadas a fotos e vídeos compartilhados ou que contenham material de abuso sexual infantil.
Outras atualizações de integridade
- Preparação para as eleições na União Europeia: Na segunda-feira, 26 de fevereiro, publicamos um texto descrevendo as medidas que estamos tomando para nos prepararmos para as eleições para o Parlamento da União Europeia, incluindo a nossa abordagem para combater a desinformação, operações de influência e o abuso das tecnologias de IA generativa. Mais informações podem ser encontradas aqui.
- Rotulagem de imagens geradas por IA no Facebook, Instagram e Threads: Estamos trabalhando com parceiros da indústria para alinhar padrões técnicos comuns que sinalizem quando um conteúdo foi criado utilizando inteligência artificial. Ser capaz de detectar esses sinais nos permitirá rotular imagens geradas por IA que os usuários postam no Facebook, Instagram e Threads. Estamos desenvolvendo esse recurso agora e, nos próximos meses, começaremos a aplicar esses rótulos em todos os idiomas disponíveis em cada aplicativo. Seguiremos esta abordagem durante este ano em que ocorrerão uma série de eleições importantes em todo o mundo. Durante este período, esperamos aprender muito mais sobre como as pessoas estão criando e compartilhando conteúdo de inteligência artificial, que tipo de transparência as pessoas consideram mais valiosa e como essas tecnologias evoluem. O que aprendermos informará as melhores práticas do setor e a nossa própria abordagem para o tema no futuro. Mais informações podem ser encontradas aqui.
- Nossos esforços contínuos para manter Grupos de Ódio Organizados fora de nossas plataformas: A maior parte da nossa ação contra o terrorismo e o ódio organizado vem da remoção rotineira desse tipo de conteúdo. No entanto, há momentos em que, ao enfrentarmos um grupo especialmente determinado ou adverso, a aplicação de conteúdo por si só não é suficiente. E, nesse momento, aproveitamos de uma tática importante – conhecida como “interrupção estratégica de rede” (SND), que nos ajuda a derrubar uma rede inteira de uma só vez. Como parte desse trabalho contínuo, recentemente conduzimos interferências estratégicas na rede de duas organizações de ódio dos EUA, sendo elas o Partido da Justiça Nacional e o KKK. Os SNDs são uma ferramenta importante no nosso trabalho para manter as nossas plataformas e comunidades seguras, além de combater grupos mal-intencionados que tentam utilizar das nossas plataformas para causar danos e violência offline.