<?xml version="1.0"?>
<oembed><version>1.0</version><provider_name>Sobre a Meta</provider_name><provider_url>https://about.fb.com/br</provider_url><author_name>Meta</author_name><author_url>https://about.fb.com/br</author_url><title>Nosso trabalho para combater predadores online | Sobre a Meta</title><type>rich</type><width>600</width><height>338</height><html>&lt;blockquote class="wp-embedded-content" data-secret="9bx6Hxq9oX"&gt;&lt;a href="https://about.fb.com/br/news/2023/12/nosso-trabalho-para-combater-predadores-online/"&gt;Nosso trabalho para combater predadores online&lt;/a&gt;&lt;/blockquote&gt;&lt;iframe sandbox="allow-scripts" security="restricted" src="https://about.fb.com/br/news/2023/12/nosso-trabalho-para-combater-predadores-online/embed/#?secret=9bx6Hxq9oX" width="600" height="338" title="&#x201C;Nosso trabalho para combater predadores online&#x201D; &#x2014; Sobre a Meta" data-secret="9bx6Hxq9oX" frameborder="0" marginwidth="0" marginheight="0" scrolling="no" class="wp-embedded-content"&gt;&lt;/iframe&gt;&lt;script type="text/javascript"&gt;
/* &lt;![CDATA[ */
/*! This file is auto-generated */
!function(d,l){"use strict";l.querySelector&amp;&amp;d.addEventListener&amp;&amp;"undefined"!=typeof URL&amp;&amp;(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&amp;&amp;!/[^a-zA-Z0-9]/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret="'+t.secret+'"]'),o=l.querySelectorAll('blockquote[data-secret="'+t.secret+'"]'),c=new RegExp("^https?:$","i"),i=0;i&lt;o.length;i++)o[i].style.display="none";for(i=0;i&lt;a.length;i++)s=a[i],e.source===s.contentWindow&amp;&amp;(s.removeAttribute("style"),"height"===t.message?(1e3&lt;(r=parseInt(t.value,10))?r=1e3:~~r&lt;200&amp;&amp;(r=200),s.height=r):"link"===t.message&amp;&amp;(r=new URL(s.getAttribute("src")),n=new URL(t.value),c.test(n.protocol))&amp;&amp;n.host===r.host&amp;&amp;l.activeElement===s&amp;&amp;(d.top.location.href=t.value))}},d.addEventListener("message",d.wp.receiveEmbedMessage,!1),l.addEventListener("DOMContentLoaded",function(){for(var e,t,s=l.querySelectorAll("iframe.wp-embedded-content"),r=0;r&lt;s.length;r++)(t=(e=s[r]).getAttribute("data-secret"))||(t=Math.random().toString(36).substring(2,12),e.src+="#?secret="+t,e.setAttribute("data-secret",t)),e.contentWindow.postMessage({message:"ready",secret:t},"*")},!1)))}(window,document);
//# sourceURL=https://about.fb.com/br/wp-includes/js/wp-embed.min.js
/* ]]&gt; */
&lt;/script&gt;
</html><description>Prevenir a explora&#xE7;&#xE3;o infantil &#xE9; um dos desafios mais importantes que a nossa ind&#xFA;stria enfrenta atualmente. Os predadores online s&#xE3;o criminosos determinados, que usam v&#xE1;rios aplicativos e sites para alcan&#xE7;ar&#xA0; os jovens. Eles tamb&#xE9;m testam as defesas de cada plataforma e aprendem a se adaptar rapidamente. &#xC9; por isso que seguimos&#xA0; trabalhando arduamente para nos adiantarmos. Al&#xE9;m de desenvolver tecnologia para encontrar e remover essas pessoas, contratamos especialistas dedicados &#xE0; seguran&#xE7;a infantil online e compartilhamos informa&#xE7;&#xF5;es com os nossos pares da ind&#xFA;stria e com as autoridades policiais. Levamos muito a s&#xE9;rio as recentes alega&#xE7;&#xF5;es sobre a efic&#xE1;cia do nosso trabalho e criamos uma for&#xE7;a-tarefa para rever as pol&#xED;ticas existentes, examinar a tecnologia e os sistemas de fiscaliza&#xE7;&#xE3;o que temos em vigor. Vamos ainda fazer mudan&#xE7;as que fortale&#xE7;am as nossas prote&#xE7;&#xF5;es para os jovens, nos permitam banir os predadores e derrubem as redes que eles usam para se conectarem uns com os outros. A nossa for&#xE7;a-tarefa tomou medidas imediatas para refor&#xE7;ar as nossas prote&#xE7;&#xF5;es e as nossas equipes de seguran&#xE7;a continuam a trabalhar em medidas adicionais. Hoje, estamos compartilhando uma vis&#xE3;o geral dos esfor&#xE7;os da equipe at&#xE9; o momento. Uma Vis&#xE3;o Geral da For&#xE7;a-Tarefa de Seguran&#xE7;a Infantil da Meta A For&#xE7;a-Tarefa de Seguran&#xE7;a Infantil da Meta se concentrou em tr&#xEA;s &#xE1;reas: Recomenda&#xE7;&#xF5;es e Descobertas, Restringir Predadores Potenciais e Remover Suas Redes e, finalmente, Fortalecer a Nossa Fiscaliza&#xE7;&#xE3;o. Recomenda&#xE7;&#xF5;es e descobertas Recomendamos conte&#xFA;dos em lugares como Reels e na aba &#x201C;Explorar&#x201D;, do Instagram, para ajudar as pessoas a descobrirem&#xA0; novos temas em nossos aplicativos, e as pessoas usam recursos como Pesquisa e Hashtags para encontrar assuntos que possam interess&#xE1;-las. Dado que estamos fazendo sugest&#xF5;es &#xE0;s pessoas nessas &#xE1;reas, temos prote&#xE7;&#xF5;es em vigor para ajudar a garantir que n&#xE3;o sugerimos algo que possa ser perturbador ou que possa violar as nossas regras. Temos sistemas sofisticados que encontram, removem ou evitam sugerir proativamente conte&#xFA;dos, grupos e p&#xE1;ginas, entre outros conte&#xFA;dos, que violem as nossas regras ou que possam ser inadequados para serem recomendados &#xE0;s pessoas. Nossa For&#xE7;a-Tarefa de Seguran&#xE7;a Infantil melhorou esses sistemas combinando-os e expandindo suas capacidades. Esse trabalho est&#xE1; em andamento e esperamos que entre em vigor integralmente nas pr&#xF3;ximas semanas. O que n&#xF3;s fizemos:&#xA0; Expandimos a lista existente de palavras, frases e emojis relacionados &#xE0; seguran&#xE7;a infantil para que nossos sistemas pudessem localiz&#xE1;-los. Temos muitas fontes para localizar esses termos, incluindo organiza&#xE7;&#xF5;es sem fins lucrativos e especialistas em seguran&#xE7;a online e as nossas equipes especializadas em seguran&#xE7;a infantil que investigam redes predat&#xF3;rias para compreender a linguagem que utilizam, e a nossa pr&#xF3;pria tecnologia que encontra erros ortogr&#xE1;ficos ou varia&#xE7;&#xF5;es ortogr&#xE1;ficas dessas palavras. Tamb&#xE9;m come&#xE7;amos a usar novas t&#xE9;cnicas para encontrar novos termos. Por exemplo, estamos utilizando tecnologia de machine learning&#xA0; para encontrar rela&#xE7;&#xF5;es entre palavras que j&#xE1; sabemos que podem ser prejudiciais ou que violem as nossas regras e outros termos utilizados ao mesmo tempo. Podem ser palavras pesquisadas &#x200B;&#x200B;na mesma sess&#xE3;o que os termos violadores ou outras hashtags usadas em uma legenda que contenha uma hashtag violadora. Combinamos nossos sistemas para que, &#xE0; medida que novos termos sejam adicionados &#xE0; nossa lista central, eles sejam acionados simultaneamente no Facebook e no Instagram. Por exemplo, podemos enviar contas do Instagram, grupos do Facebook, p&#xE1;ginas e perfis para revisores de conte&#xFA;do, restringir a produ&#xE7;&#xE3;o desses termos de resultados na pesquisa do Facebook e do Instagram, al&#xE9;m de bloquear hashtags que incluam esses termos no Facebook e no Instagram. Restringindo potenciais predadores e removendo suas redes Desenvolvemos uma tecnologia que identifica adultos potencialmente suspeitos e analisamos mais de 60 sinais diferentes para encontrar essas pessoas. Por exemplo, caso um adolescente bloqueie ou denuncie um adulto, ou caso algu&#xE9;m pesquise repetidamente termos que possam sugerir um comportamento suspeito.&#xA0; J&#xE1; utilizamos essa tecnologia para impedir que adultos potencialmente suspeitos encontrem, sigam ou interajam com adolescentes e estamos expandindo-a para evitar que esses adultos encontrem, sigam ou interajam uns com os outros. O que fizemos:&#xA0; No Instagram, adultos potencialmente suspeitos ser&#xE3;o impedidos de seguir uns aos outros, n&#xE3;o ser&#xE3;o recomendados uns aos outros em locais como Explorar e Reels e n&#xE3;o ver&#xE3;o coment&#xE1;rios uns dos outros em postagens p&#xFA;blicas, entre outras iniciativas. No Facebook, estamos usando essa tecnologia para encontrar e abordar melhor determinados Grupos, P&#xE1;ginas e Perfis. Por exemplo, Grupos do Facebook com uma certa porcentagem de membros que apresentam comportamento potencialmente suspeito n&#xE3;o ser&#xE3;o sugeridos a outras pessoas em locais como &#x201C;Grupos Dos Quais Voc&#xEA; Deve Participar&#x201D;. Al&#xE9;m disso, os Grupos que tenham muitos dos mesmos membros de outros Grupos que tenham sido removidos por violar nossas pol&#xED;ticas de seguran&#xE7;a infantil n&#xE3;o ser&#xE3;o exibidos na Pesquisa. Como resultado desse trabalho, desde o dia 1&#xBA; de julho de 2023, removemos mais de 190 mil Grupos da se&#xE7;&#xE3;o de Pesquisa. Tamb&#xE9;m contratamos especialistas com experi&#xEA;ncia na aplica&#xE7;&#xE3;o da lei e em seguran&#xE7;a infantil online para encontrar redes predat&#xF3;rias e remov&#xEA;-las. Esses especialistas monitoram a evolu&#xE7;&#xE3;o dos comportamentos exibidos por essas redes &#x2013; como uma novas linguagens codificadas &#x2013; n&#xE3;o s&#xF3; para remov&#xEA;-los, mas tamb&#xE9;m para informar a tecnologia que utilizamos para encontr&#xE1;-los de forma proativa. Entre 2020 e 2023, as nossas equipas interromperam 32 redes abusivas e removeram mais de 160.000 contas associadas a elas.&#xA0; Fortalecendo a aplica&#xE7;&#xE3;o das nossas regras A for&#xE7;a-tarefa tamb&#xE9;m fez uma s&#xE9;rie de atualiza&#xE7;&#xF5;es para fortalecer os nossos sistemas de den&#xFA;ncia e modera&#xE7;&#xE3;o, e encontrou novas maneiras de erradicar e banir contas potencialmente predat&#xF3;rias. S&#xF3; em agosto de 2023, desativamos mais de 500.000 contas por violar as nossas pol&#xED;ticas de explora&#xE7;&#xE3;o sexual infantil. Anunciamos a nossa participa&#xE7;&#xE3;o na Coaliz&#xE3;o Lanterna, um novo programa da Tech Coalition que permite &#xE0;s empresas tecnol&#xF3;gicas compartilhar uma variedade de sinais sobre contas e comportamentos que violem as suas pol&#xED;ticas de seguran&#xE7;a infantil. Os participantes da Coaliz&#xE3;o podem usar essas informa&#xE7;&#xF5;es para conduzir investiga&#xE7;&#xF5;es em suas pr&#xF3;prias plataformas e tomar provid&#xEA;ncias. Auditamos nossos sistemas e corrigimos problemas t&#xE9;cnicos que localizamos, incluindo uma quest&#xE3;o que encerrou inesperadamente algumas den&#xFA;ncias de usu&#xE1;rios. Melhoramos os sistemas que utilizamos para priorizar den&#xFA;ncias para revisores de conte&#xFA;do. Por exemplo, estamos usando uma tecnologia criada especificamente para encontrar imagens de explora&#xE7;&#xE3;o infantil para priorizar den&#xFA;ncias que possam cont&#xEA;-las. Apresentamos formas adicionais de encontrar e remover proativamente contas que possam violar as nossas pol&#xED;ticas de seguran&#xE7;a infantil. Por exemplo, estamos enviando contas do Instagram que apresentam comportamento potencialmente suspeito aos nossos revisores de conte&#xFA;do e desabilitamos automaticamente essas contas se elas exibirem uma s&#xE9;rie dos mais de 60 sinais que monitoramos. Mais de 20.000 contas foram identificadas e removidas automaticamente em agosto de 2023 como resultado deste m&#xE9;todo. Fornecemos novas orienta&#xE7;&#xF5;es e ferramentas para ajudar os revisores de conte&#xFA;do a compreender os comportamentos e termos mais recentes utilizados &#x200B;&#x200B;pelos predadores, em v&#xE1;rios idiomas diferentes. Por exemplo, os revisores de conte&#xFA;do ver&#xE3;o, a partir de agora, informa&#xE7;&#xF5;es sobre termos codificados usados &#x200B;&#x200B;nas postagens que est&#xE3;o revisando para entender o subtexto desses termos e como eles s&#xE3;o usados &#x200B;&#x200B;por predadores. Isso ajudar&#xE1; os revisores de conte&#xFA;do a reconhecer mais claramente esse comportamento e a agir. Fizemos melhorias para encontrar e remover, de forma facilitada, contas do Instagram e perfis do Facebook que possam estar vinculados &#xE0;queles que violam nossas pol&#xED;ticas de seguran&#xE7;a infantil &#x2013; e para evitar que eles criem novas contas a partir de seus dispositivos. Desde o in&#xED;cio de agosto, bloqueamos automaticamente mais de 250.000 dispositivos no Instagram por viola&#xE7;&#xF5;es das nossas pol&#xED;ticas de seguran&#xE7;a infantil, e as melhorias no bloqueio de dispositivos levaram a mais de 10.000 medidas adicionais no Instagram e no Facebook por dia. Melhoramos a nossa detec&#xE7;&#xE3;o proativa de grupos do Facebook potencialmente suspeitos e atualizamos nossos protocolos e ferramentas de revis&#xE3;o para que nossos revisores possam remover mais grupos violadores. Desde o dia 1&#xBA; de julho de 2023, revisamos e removemos 16 mil grupos por viola&#xE7;&#xF5;es &#xE0;s nossas pol&#xED;ticas de seguran&#xE7;a infantil. Depois de lan&#xE7;ar um novo esfor&#xE7;o automatizado de fiscaliza&#xE7;&#xE3;o em setembro, vimos cinco vezes mais exclus&#xF5;es automatizadas de Lives no Instagram que continham nudez adulta e atividade sexual. Acionamos mais de 4 milh&#xF5;es de Reels por m&#xEA;s, no Facebook e no Instagram em todo o mundo, por violar nossas pol&#xED;ticas.</description><thumbnail_url>https://about.fb.com/br/wp-content/uploads/sites/11/2021/10/meta-social-16x9-1.jpg?resize=1024,576</thumbnail_url><thumbnail_width>1024</thumbnail_width><thumbnail_height>576</thumbnail_height></oembed>
