Atualmente, é raro que ameaças online tenham como alvo uma única plataforma – em vez disso, elas acompanham as pessoas pela Internet. Fazemos o possível para manter nossos aplicativos seguros para as pessoas, além de aumentar a conscientização das nossas iniciativas de defesa coletiva na Internet. As atualizações atuais de segurança e integridade oferecem uma visão detalhada da nossa estratégia de defesa e de como a incorporamos em nossos produtos, como em nosso novo aplicativo Threads e sistemas generativos de inteligência artificial.
Na década em que começamos a publicar relatórios de transparência, as empresas de tecnologia e os pesquisadores aprenderam muito sobre como os espaços públicos online podem ser utilizados de forma abusiva por pessoas mal-intencionadas. Uma lição importante para nós foi perceber que a transparência em toda a nossa indústria trouxe efeitos positivos à nossa capacidade coletiva de responder a novas ameaças – desde a pressão contínua sobre grupos mal-intencionados, passando por remoções e exposição pública a sanções governamentais, bem como produtos com defesas mais fortes. As atualizações de hoje são um bom exemplo de como isso funciona na prática.
Derrubando duas das maiores operações de influência secreta já conhecidas
China: Recentemente, removemos milhares de contas e páginas que faziam parte da maior operação de influência secreta multiplataforma conhecida no mundo. Ela tinha como alvo mais de 50 aplicativos, incluindo Facebook, Instagram, X (antigo Twitter), YouTube, TikTok, Reddit, Pinterest, Medium, Blogspot, LiveJournal, VKontakte, Vimeo e dezenas de outras plataformas e fóruns menores. Pela primeira vez, conseguimos vincular essa atividade para confirmar que fazia parte de uma operação conhecida na comunidade de segurança como Camouflage e vinculá-la a indivíduos associados às autoridades chinesas. Para mais informações, acesse o nosso Relatório de Ameaças do segundo trimestre deste ano.
Rússia: Também bloqueamos milhares de domínios de sites maliciosos, bem como tentativas de executar contas e páginas falsas em nossas plataformas conectadas à operação russa conhecida como Doppelganger, que interrompemos pela primeira vez há um ano. Esta operação baseou-se na imitação dos sites dos principais meios de comunicação e entidades governamentais para publicar artigos falsos, destinados a enfraquecer o apoio à Ucrânia. Agora, expandimos essa operação para além de visar apenas a França, a Alemanha e a Ucrânia, mas para incluir, também, os EUA e Israel. Esta é a maior e mais agressiva operação de origem russa que desmembramos desde 2017. Além de novas pesquisas sobre ameaças, também estamos publicando nossas recomendações de políticas e de aplicação para lidar com o abuso do sistema global de registro de nomes de domínio.
Examinando o impacto da interrupção das redes de ódio
Começamos a usar o que chamamos de “Interrupções Estratégicas de Rede” em 2017 para enfrentar operações de influência secretas da Rússia. Por ter se provado como um instrumento eficaz entre nossas ferramentas, o expandimos para outras áreas, incluindo redes de ódio, espionagem cibernética e denúncias em massa. Mas, como sabemos que grupos mal-intencionados continuam a evoluir as suas táticas na Internet, também continuamos a nos perguntar: essas estratégias ainda funcionam e como podemos melhorá-las?
Nossa equipe de pesquisadores publicou recentemente um estudo sobre os efeitos de seis interrupções de rede de organizações de ódio banidas no Facebook. Essa investigação concluiu que as remoções destas entidades através de interrupções de rede podem ajudar a tornar o ecossistema menos receptivo para organizações designadas como perigosas. Embora as pessoas mais próximas do público principal destes grupos de ódio apresentem sinais de reação no curto prazo, as evidências sugerem que elas reduzem o seu envolvimento com a rede e com conteúdos de ódio ao longo do tempo. O estudo também sugere que as nossas estratégias podem reduzir a capacidade das organizações de ódio de operarem online com sucesso.
Construindo o Threads e Ferramentas Gerativas de IA
Embora a remoção destas redes tenha impacto, são apenas uma das ferramentas da nossa defesa mais ampla contra grupos maliciosos que visam atacar pessoas em toda a Internet. As nossas investigações e medidas de fiscalização fortalecem o que chamamos de “ciclo virtuoso de defesa” – melhorando os nossos sistemas dimensionados e a forma como construímos novos produtos.
Threads: Desde o início, nossos sistemas e políticas de aplicação de integridade desenvolvidos para o Instagram e outros aplicativos foram integrados à forma como construímos o Threads. Podemos pensar nisso como Threads sendo construído sobre uma infraestrutura global estabelecida, alimentando vários aplicativos ao mesmo tempo. Isso significa que nossos esforços de segurança, como lidar com operações de influência secreta, se aplicam ao Threads da mesma forma que se aplicam ao Facebook e ao Instagram. Na verdade, 24 horas após o lançamento do Threads, detectamos e bloqueamos tentativas de contas vinculadas a uma operação de influência que desativamos no passado de se estabelecer na plataforma.
Também implementamos recursos adicionais de transparência ao Threads, incluindo rótulos de veículos de imprensa controlados pelo Estado e a exibição de informações adicionais sobre contas para que as pessoas possam saber, por exemplo, se os perfis mudaram de nome. Sabemos que os comportamentos maliciosos continuarão evoluindo à medida que o Threads amadurece, e nós também, para nos mantermos à frente dessas ameaças.
Inteligência artificial generativa: A abertura e a colaboração da sociedade são ainda mais críticas quando tratamos de tecnologias em rápida evolução, como é o caso da inteligência artificial generativa. Além da extensa “equipe vermelha” interna, em que nossos times assumem o papel de adversários para encontrar falhas, recentemente trouxemos nosso modelo de inteligência artificial generativa para a DEFCON — a maior conferência de hackers do mundo. Nos unimos aos nossos colegas do Google, NVIDIA, OpenAI e outros para testar os nossos diferentes modelos como parte do primeiro Generative Red Team Challenge público.
Mais de 2.200 pesquisadores, incluindo centenas de estudantes e organizações tradicionalmente deixadas de fora das fases iniciais de mudanças tecnológicas como essa, se juntaram para procurar bugs e vulnerabilidades nesses sistemas. De acordo com os organizadores deste desafio, eles participaram de mais de 17.000 conversas com sistemas generativos de inteligência artificial para investigar comportamentos não intencionais – desde cálculos matemáticos incorretos até informações erradas e práticas inadequadas de segurança do usuário. Este desafio aberto ao público da equipe vermelha foi apoiado pelo Escritório de Política Científica e Tecnológica da Casa Branca (White House Office of Science and Technology Policy), pela National Science Foundation e pelo Congressional AI Caucus. Nossa esperança é que o foco inicial no estabelecimento de melhores práticas para este espaço emergente de inteligência artificial generativa resulte em sistemas mais seguros no longo prazo.
Acreditamos que a abertura é a chave para enfrentar alguns dos maiores desafios que enfrentamos coletivamente na internet. Relatórios de transparência, pesquisas acadêmicas e outras medidas para inovar abertamente e testar nossos sistemas ajudam nossa indústria a aprender uns com os outros, melhorar nossos respectivos sistemas e manter as pessoas seguras na Internet.
Você pode encontrar nossos relatórios trimestrais de integridade na Central de Transparência da Meta.