Meta

Prevenindo o suicídio e conteúdos de automutilação divulgados na internet

Destaques:

  • Trabalhamos com a Mental Health Coalition para estabelecer o Thrive, um programa novo que permite que empresas de tecnologia compartilhem sinais sobre violação de conteúdo relacionado a suicídio ou automutilação e impeçam que eles sejam divulgados em diferentes plataformas. 
  • Estamos fornecendo a infraestrutura técnica por trás do Thrive, que permite que os sinais sejam compartilhados com segurança. 
  • Estamos orgulhosos de ser um membro fundador do Thrive ao lado da Snap e do TikTok, e encorajamos que outros parceiros na indústria se juntem a esse trabalho tão importante.

O suicídio e a automutilação são questões complexas com consequências devastadoras. Na Meta, trabalhamos com especialistas há anos – incluindo o nosso time consultivo sobre suicídio e automutilação e membros da equipe de segurança da Meta – para desenvolver uma abordagem diferenciada com relação a essas questões que sejam compartilhadas em nossos aplicativos. 

No entanto, como muitos outros tipos de conteúdo prejudicial, materiais sobre suicídio e automutilação não são exclusivo de nenhuma plataforma. Para que seja realmente eficaz, as empresas de tecnologia precisam trabalhar juntas. É por isso que trabalhamos com a Mental Health Coalition para criar o Thrive, o primeiro programa de compartilhamento de sinais relacionado a violação de conteúdo envolvendo suicídio e automutilação.

Com o Thrive, as empresas de tecnologia participantes poderão compartilhar sinais relacionados a violação de conteúdo relacionado a suicídio ou automutilação para que outras empresas possam investigar e tomar medidas se o mesmo conteúdo – ou semelhante – estiver sendo compartilhado em suas plataformas. A Meta está fornecendo a infraestrutura técnica que suporta o Thrive, sendo a mesma tecnologia que fornecemos à Coalizão Lanterna, da Tech Coalition, que permite que os sinais sejam compartilhados de forma segura.

As empresas participantes começarão a compartilhar hashes — códigos numéricos que correspondem a um conteúdo violador — de imagens e vídeos que mostrem suicídio e automutilação de forma gráfica, e de conteúdos que retratem ou encoragem desafios virais relacionados a suicídio ou automutilação. Estamos dando prioridade a esse tipo de conteúdo por conta da sua propensão de rápida divulgação em diferentes plataformas. Esses sinais iniciais representarão apenas conteúdos e não incluirão informações identificáveis ​​sobre nenhuma conta ou indivíduo.

O Thrive se baseia no trabalho já feito pela Meta para remover conteúdos prejudiciais que mostrem imagens gráficas ou que incentivem o suicídio ou a automutilação, ao mesmo tempo em que dá espaço para as pessoas falarem sobre suas próprias experiências. Também oferecemos suporte para as pessoas que compartilharem e buscarem por conteúdos relacionados a suicídio ou automutilação, conectando-os a organizações locais ao redor do mundo.

Entre abril e junho deste ano, tomamos medidas em mais de 12 milhões de peças de conteúdo relacionadas a suicídio e automutilação no Facebook e no Instagram. Embora autorizemos que as pessoas discutam suas experiências com suicídio e automutilação — desde que não sejam gráficas ou incentivadoras — este ano tomamos passos importantes para tornar esse conteúdo mais difícil de ser encontrado na aba de Pesquisa e para ocultá-lo completamente dos jovens, mesmo que eles sejam compartilhados por alguém que eles sigam.

O Thrive ajudará a manter as pessoas seguras não apenas nos aplicativos da Meta, mas em todos os aplicativos e serviços que elas utilizam. Temos orgulho de trabalhar com a Mental Health Coalition e com os nossos parceiros da indústria – Snap e TikTok – neste trabalho tão importante.