Prevenir a exploração infantil é um dos desafios mais importantes que a nossa indústria enfrenta atualmente. Os predadores online são criminosos determinados, que usam vários aplicativos e sites para alcançar os jovens. Eles também testam as defesas de cada plataforma e aprendem a se adaptar rapidamente. É por isso que seguimos trabalhando arduamente para nos adiantarmos. Além de desenvolver tecnologia para encontrar e remover essas pessoas, contratamos especialistas dedicados à segurança infantil online e compartilhamos informações com os nossos pares da indústria e com as autoridades policiais.
Levamos muito a sério as recentes alegações sobre a eficácia do nosso trabalho e criamos uma força-tarefa para rever as políticas existentes, examinar a tecnologia e os sistemas de fiscalização que temos em vigor. Vamos ainda fazer mudanças que fortaleçam as nossas proteções para os jovens, nos permitam banir os predadores e derrubem as redes que eles usam para se conectarem uns com os outros. A nossa força-tarefa tomou medidas imediatas para reforçar as nossas proteções e as nossas equipes de segurança continuam a trabalhar em medidas adicionais. Hoje, estamos compartilhando uma visão geral dos esforços da equipe até o momento.
Uma Visão Geral da Força-Tarefa de Segurança Infantil da Meta
A Força-Tarefa de Segurança Infantil da Meta se concentrou em três áreas: Recomendações e Descobertas, Restringir Predadores Potenciais e Remover Suas Redes e, finalmente, Fortalecer a Nossa Fiscalização.
Recomendações e descobertas
Recomendamos conteúdos em lugares como Reels e na aba “Explorar”, do Instagram, para ajudar as pessoas a descobrirem novos temas em nossos aplicativos, e as pessoas usam recursos como Pesquisa e Hashtags para encontrar assuntos que possam interessá-las. Dado que estamos fazendo sugestões às pessoas nessas áreas, temos proteções em vigor para ajudar a garantir que não sugerimos algo que possa ser perturbador ou que possa violar as nossas regras. Temos sistemas sofisticados que encontram, removem ou evitam sugerir proativamente conteúdos, grupos e páginas, entre outros conteúdos, que violem as nossas regras ou que possam ser inadequados para serem recomendados às pessoas. Nossa Força-Tarefa de Segurança Infantil melhorou esses sistemas combinando-os e expandindo suas capacidades. Esse trabalho está em andamento e esperamos que entre em vigor integralmente nas próximas semanas.
O que nós fizemos:
- Expandimos a lista existente de palavras, frases e emojis relacionados à segurança infantil para que nossos sistemas pudessem localizá-los. Temos muitas fontes para localizar esses termos, incluindo organizações sem fins lucrativos e especialistas em segurança online e as nossas equipes especializadas em segurança infantil que investigam redes predatórias para compreender a linguagem que utilizam, e a nossa própria tecnologia que encontra erros ortográficos ou variações ortográficas dessas palavras.
- Também começamos a usar novas técnicas para encontrar novos termos. Por exemplo, estamos utilizando tecnologia de machine learning para encontrar relações entre palavras que já sabemos que podem ser prejudiciais ou que violem as nossas regras e outros termos utilizados ao mesmo tempo. Podem ser palavras pesquisadas na mesma sessão que os termos violadores ou outras hashtags usadas em uma legenda que contenha uma hashtag violadora.
- Combinamos nossos sistemas para que, à medida que novos termos sejam adicionados à nossa lista central, eles sejam acionados simultaneamente no Facebook e no Instagram. Por exemplo, podemos enviar contas do Instagram, grupos do Facebook, páginas e perfis para revisores de conteúdo, restringir a produção desses termos de resultados na pesquisa do Facebook e do Instagram, além de bloquear hashtags que incluam esses termos no Facebook e no Instagram.
Restringindo potenciais predadores e removendo suas redes
Desenvolvemos uma tecnologia que identifica adultos potencialmente suspeitos e analisamos mais de 60 sinais diferentes para encontrar essas pessoas. Por exemplo, caso um adolescente bloqueie ou denuncie um adulto, ou caso alguém pesquise repetidamente termos que possam sugerir um comportamento suspeito. Já utilizamos essa tecnologia para impedir que adultos potencialmente suspeitos encontrem, sigam ou interajam com adolescentes e estamos expandindo-a para evitar que esses adultos encontrem, sigam ou interajam uns com os outros.
O que fizemos:
- No Instagram, adultos potencialmente suspeitos serão impedidos de seguir uns aos outros, não serão recomendados uns aos outros em locais como Explorar e Reels e não verão comentários uns dos outros em postagens públicas, entre outras iniciativas.
- No Facebook, estamos usando essa tecnologia para encontrar e abordar melhor determinados Grupos, Páginas e Perfis. Por exemplo, Grupos do Facebook com uma certa porcentagem de membros que apresentam comportamento potencialmente suspeito não serão sugeridos a outras pessoas em locais como “Grupos Dos Quais Você Deve Participar”. Além disso, os Grupos que tenham muitos dos mesmos membros de outros Grupos que tenham sido removidos por violar nossas políticas de segurança infantil não serão exibidos na Pesquisa. Como resultado desse trabalho, desde o dia 1º de julho de 2023, removemos mais de 190 mil Grupos da seção de Pesquisa.
- Também contratamos especialistas com experiência na aplicação da lei e em segurança infantil online para encontrar redes predatórias e removê-las. Esses especialistas monitoram a evolução dos comportamentos exibidos por essas redes – como uma novas linguagens codificadas – não só para removê-los, mas também para informar a tecnologia que utilizamos para encontrá-los de forma proativa. Entre 2020 e 2023, as nossas equipas interromperam 32 redes abusivas e removeram mais de 160.000 contas associadas a elas.
Fortalecendo a aplicação das nossas regras
A força-tarefa também fez uma série de atualizações para fortalecer os nossos sistemas de denúncia e moderação, e encontrou novas maneiras de erradicar e banir contas potencialmente predatórias. Só em agosto de 2023, desativamos mais de 500.000 contas por violar as nossas políticas de exploração sexual infantil.
- Anunciamos a nossa participação na Coalizão Lanterna, um novo programa da Tech Coalition que permite às empresas tecnológicas compartilhar uma variedade de sinais sobre contas e comportamentos que violem as suas políticas de segurança infantil. Os participantes da Coalizão podem usar essas informações para conduzir investigações em suas próprias plataformas e tomar providências.
- Auditamos nossos sistemas e corrigimos problemas técnicos que localizamos, incluindo uma questão que encerrou inesperadamente algumas denúncias de usuários.
- Melhoramos os sistemas que utilizamos para priorizar denúncias para revisores de conteúdo. Por exemplo, estamos usando uma tecnologia criada especificamente para encontrar imagens de exploração infantil para priorizar denúncias que possam contê-las.
- Apresentamos formas adicionais de encontrar e remover proativamente contas que possam violar as nossas políticas de segurança infantil. Por exemplo, estamos enviando contas do Instagram que apresentam comportamento potencialmente suspeito aos nossos revisores de conteúdo e desabilitamos automaticamente essas contas se elas exibirem uma série dos mais de 60 sinais que monitoramos. Mais de 20.000 contas foram identificadas e removidas automaticamente em agosto de 2023 como resultado deste método.
- Fornecemos novas orientações e ferramentas para ajudar os revisores de conteúdo a compreender os comportamentos e termos mais recentes utilizados pelos predadores, em vários idiomas diferentes. Por exemplo, os revisores de conteúdo verão, a partir de agora, informações sobre termos codificados usados nas postagens que estão revisando para entender o subtexto desses termos e como eles são usados por predadores. Isso ajudará os revisores de conteúdo a reconhecer mais claramente esse comportamento e a agir.
- Fizemos melhorias para encontrar e remover, de forma facilitada, contas do Instagram e perfis do Facebook que possam estar vinculados àqueles que violam nossas políticas de segurança infantil – e para evitar que eles criem novas contas a partir de seus dispositivos. Desde o início de agosto, bloqueamos automaticamente mais de 250.000 dispositivos no Instagram por violações das nossas políticas de segurança infantil, e as melhorias no bloqueio de dispositivos levaram a mais de 10.000 medidas adicionais no Instagram e no Facebook por dia.
- Melhoramos a nossa detecção proativa de grupos do Facebook potencialmente suspeitos e atualizamos nossos protocolos e ferramentas de revisão para que nossos revisores possam remover mais grupos violadores. Desde o dia 1º de julho de 2023, revisamos e removemos 16 mil grupos por violações às nossas políticas de segurança infantil.
- Depois de lançar um novo esforço automatizado de fiscalização em setembro, vimos cinco vezes mais exclusões automatizadas de Lives no Instagram que continham nudez adulta e atividade sexual.
- Acionamos mais de 4 milhões de Reels por mês, no Facebook e no Instagram em todo o mundo, por violar nossas políticas.