{"version":"1.0","provider_name":"Sobre a Meta","provider_url":"https:\/\/about.fb.com\/br","author_name":"Meta","author_url":"https:\/\/about.fb.com\/br","title":"Nosso trabalho para combater predadores online | Sobre a Meta","type":"rich","width":600,"height":338,"html":"<blockquote class=\"wp-embedded-content\" data-secret=\"z7IBv4CyLa\"><a href=\"https:\/\/about.fb.com\/br\/news\/2023\/12\/nosso-trabalho-para-combater-predadores-online\/\">Nosso trabalho para combater predadores online<\/a><\/blockquote><iframe sandbox=\"allow-scripts\" security=\"restricted\" src=\"https:\/\/about.fb.com\/br\/news\/2023\/12\/nosso-trabalho-para-combater-predadores-online\/embed\/#?secret=z7IBv4CyLa\" width=\"600\" height=\"338\" title=\"&#8220;Nosso trabalho para combater predadores online&#8221; &#8212; Sobre a Meta\" data-secret=\"z7IBv4CyLa\" frameborder=\"0\" marginwidth=\"0\" marginheight=\"0\" scrolling=\"no\" class=\"wp-embedded-content\"><\/iframe><script type=\"text\/javascript\">\n\/* <![CDATA[ *\/\n\/*! This file is auto-generated *\/\n!function(d,l){\"use strict\";l.querySelector&&d.addEventListener&&\"undefined\"!=typeof URL&&(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&&!\/[^a-zA-Z0-9]\/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret=\"'+t.secret+'\"]'),o=l.querySelectorAll('blockquote[data-secret=\"'+t.secret+'\"]'),c=new RegExp(\"^https?:$\",\"i\"),i=0;i<o.length;i++)o[i].style.display=\"none\";for(i=0;i<a.length;i++)s=a[i],e.source===s.contentWindow&&(s.removeAttribute(\"style\"),\"height\"===t.message?(1e3<(r=parseInt(t.value,10))?r=1e3:~~r<200&&(r=200),s.height=r):\"link\"===t.message&&(r=new URL(s.getAttribute(\"src\")),n=new URL(t.value),c.test(n.protocol))&&n.host===r.host&&l.activeElement===s&&(d.top.location.href=t.value))}},d.addEventListener(\"message\",d.wp.receiveEmbedMessage,!1),l.addEventListener(\"DOMContentLoaded\",function(){for(var e,t,s=l.querySelectorAll(\"iframe.wp-embedded-content\"),r=0;r<s.length;r++)(t=(e=s[r]).getAttribute(\"data-secret\"))||(t=Math.random().toString(36).substring(2,12),e.src+=\"#?secret=\"+t,e.setAttribute(\"data-secret\",t)),e.contentWindow.postMessage({message:\"ready\",secret:t},\"*\")},!1)))}(window,document);\n\/\/# sourceURL=https:\/\/about.fb.com\/br\/wp-includes\/js\/wp-embed.min.js\n\/* ]]> *\/\n<\/script>\n","description":"Prevenir a explora\u00e7\u00e3o infantil \u00e9 um dos desafios mais importantes que a nossa ind\u00fastria enfrenta atualmente. Os predadores online s\u00e3o criminosos determinados, que usam v\u00e1rios aplicativos e sites para alcan\u00e7ar\u00a0 os jovens. Eles tamb\u00e9m testam as defesas de cada plataforma e aprendem a se adaptar rapidamente. \u00c9 por isso que seguimos\u00a0 trabalhando arduamente para nos adiantarmos. Al\u00e9m de desenvolver tecnologia para encontrar e remover essas pessoas, contratamos especialistas dedicados \u00e0 seguran\u00e7a infantil online e compartilhamos informa\u00e7\u00f5es com os nossos pares da ind\u00fastria e com as autoridades policiais. Levamos muito a s\u00e9rio as recentes alega\u00e7\u00f5es sobre a efic\u00e1cia do nosso trabalho e criamos uma for\u00e7a-tarefa para rever as pol\u00edticas existentes, examinar a tecnologia e os sistemas de fiscaliza\u00e7\u00e3o que temos em vigor. Vamos ainda fazer mudan\u00e7as que fortale\u00e7am as nossas prote\u00e7\u00f5es para os jovens, nos permitam banir os predadores e derrubem as redes que eles usam para se conectarem uns com os outros. A nossa for\u00e7a-tarefa tomou medidas imediatas para refor\u00e7ar as nossas prote\u00e7\u00f5es e as nossas equipes de seguran\u00e7a continuam a trabalhar em medidas adicionais. Hoje, estamos compartilhando uma vis\u00e3o geral dos esfor\u00e7os da equipe at\u00e9 o momento. Uma Vis\u00e3o Geral da For\u00e7a-Tarefa de Seguran\u00e7a Infantil da Meta A For\u00e7a-Tarefa de Seguran\u00e7a Infantil da Meta se concentrou em tr\u00eas \u00e1reas: Recomenda\u00e7\u00f5es e Descobertas, Restringir Predadores Potenciais e Remover Suas Redes e, finalmente, Fortalecer a Nossa Fiscaliza\u00e7\u00e3o. Recomenda\u00e7\u00f5es e descobertas Recomendamos conte\u00fados em lugares como Reels e na aba \u201cExplorar\u201d, do Instagram, para ajudar as pessoas a descobrirem\u00a0 novos temas em nossos aplicativos, e as pessoas usam recursos como Pesquisa e Hashtags para encontrar assuntos que possam interess\u00e1-las. Dado que estamos fazendo sugest\u00f5es \u00e0s pessoas nessas \u00e1reas, temos prote\u00e7\u00f5es em vigor para ajudar a garantir que n\u00e3o sugerimos algo que possa ser perturbador ou que possa violar as nossas regras. Temos sistemas sofisticados que encontram, removem ou evitam sugerir proativamente conte\u00fados, grupos e p\u00e1ginas, entre outros conte\u00fados, que violem as nossas regras ou que possam ser inadequados para serem recomendados \u00e0s pessoas. Nossa For\u00e7a-Tarefa de Seguran\u00e7a Infantil melhorou esses sistemas combinando-os e expandindo suas capacidades. Esse trabalho est\u00e1 em andamento e esperamos que entre em vigor integralmente nas pr\u00f3ximas semanas. O que n\u00f3s fizemos:\u00a0 Expandimos a lista existente de palavras, frases e emojis relacionados \u00e0 seguran\u00e7a infantil para que nossos sistemas pudessem localiz\u00e1-los. Temos muitas fontes para localizar esses termos, incluindo organiza\u00e7\u00f5es sem fins lucrativos e especialistas em seguran\u00e7a online e as nossas equipes especializadas em seguran\u00e7a infantil que investigam redes predat\u00f3rias para compreender a linguagem que utilizam, e a nossa pr\u00f3pria tecnologia que encontra erros ortogr\u00e1ficos ou varia\u00e7\u00f5es ortogr\u00e1ficas dessas palavras. Tamb\u00e9m come\u00e7amos a usar novas t\u00e9cnicas para encontrar novos termos. Por exemplo, estamos utilizando tecnologia de machine learning\u00a0 para encontrar rela\u00e7\u00f5es entre palavras que j\u00e1 sabemos que podem ser prejudiciais ou que violem as nossas regras e outros termos utilizados ao mesmo tempo. Podem ser palavras pesquisadas \u200b\u200bna mesma sess\u00e3o que os termos violadores ou outras hashtags usadas em uma legenda que contenha uma hashtag violadora. Combinamos nossos sistemas para que, \u00e0 medida que novos termos sejam adicionados \u00e0 nossa lista central, eles sejam acionados simultaneamente no Facebook e no Instagram. Por exemplo, podemos enviar contas do Instagram, grupos do Facebook, p\u00e1ginas e perfis para revisores de conte\u00fado, restringir a produ\u00e7\u00e3o desses termos de resultados na pesquisa do Facebook e do Instagram, al\u00e9m de bloquear hashtags que incluam esses termos no Facebook e no Instagram. Restringindo potenciais predadores e removendo suas redes Desenvolvemos uma tecnologia que identifica adultos potencialmente suspeitos e analisamos mais de 60 sinais diferentes para encontrar essas pessoas. Por exemplo, caso um adolescente bloqueie ou denuncie um adulto, ou caso algu\u00e9m pesquise repetidamente termos que possam sugerir um comportamento suspeito.\u00a0 J\u00e1 utilizamos essa tecnologia para impedir que adultos potencialmente suspeitos encontrem, sigam ou interajam com adolescentes e estamos expandindo-a para evitar que esses adultos encontrem, sigam ou interajam uns com os outros. O que fizemos:\u00a0 No Instagram, adultos potencialmente suspeitos ser\u00e3o impedidos de seguir uns aos outros, n\u00e3o ser\u00e3o recomendados uns aos outros em locais como Explorar e Reels e n\u00e3o ver\u00e3o coment\u00e1rios uns dos outros em postagens p\u00fablicas, entre outras iniciativas. No Facebook, estamos usando essa tecnologia para encontrar e abordar melhor determinados Grupos, P\u00e1ginas e Perfis. Por exemplo, Grupos do Facebook com uma certa porcentagem de membros que apresentam comportamento potencialmente suspeito n\u00e3o ser\u00e3o sugeridos a outras pessoas em locais como \u201cGrupos Dos Quais Voc\u00ea Deve Participar\u201d. Al\u00e9m disso, os Grupos que tenham muitos dos mesmos membros de outros Grupos que tenham sido removidos por violar nossas pol\u00edticas de seguran\u00e7a infantil n\u00e3o ser\u00e3o exibidos na Pesquisa. Como resultado desse trabalho, desde o dia 1\u00ba de julho de 2023, removemos mais de 190 mil Grupos da se\u00e7\u00e3o de Pesquisa. Tamb\u00e9m contratamos especialistas com experi\u00eancia na aplica\u00e7\u00e3o da lei e em seguran\u00e7a infantil online para encontrar redes predat\u00f3rias e remov\u00ea-las. Esses especialistas monitoram a evolu\u00e7\u00e3o dos comportamentos exibidos por essas redes \u2013 como uma novas linguagens codificadas \u2013 n\u00e3o s\u00f3 para remov\u00ea-los, mas tamb\u00e9m para informar a tecnologia que utilizamos para encontr\u00e1-los de forma proativa. Entre 2020 e 2023, as nossas equipas interromperam 32 redes abusivas e removeram mais de 160.000 contas associadas a elas.\u00a0 Fortalecendo a aplica\u00e7\u00e3o das nossas regras A for\u00e7a-tarefa tamb\u00e9m fez uma s\u00e9rie de atualiza\u00e7\u00f5es para fortalecer os nossos sistemas de den\u00fancia e modera\u00e7\u00e3o, e encontrou novas maneiras de erradicar e banir contas potencialmente predat\u00f3rias. S\u00f3 em agosto de 2023, desativamos mais de 500.000 contas por violar as nossas pol\u00edticas de explora\u00e7\u00e3o sexual infantil. Anunciamos a nossa participa\u00e7\u00e3o na Coaliz\u00e3o Lanterna, um novo programa da Tech Coalition que permite \u00e0s empresas tecnol\u00f3gicas compartilhar uma variedade de sinais sobre contas e comportamentos que violem as suas pol\u00edticas de seguran\u00e7a infantil. Os participantes da Coaliz\u00e3o podem usar essas informa\u00e7\u00f5es para conduzir investiga\u00e7\u00f5es em suas pr\u00f3prias plataformas e tomar provid\u00eancias. Auditamos nossos sistemas e corrigimos problemas t\u00e9cnicos que localizamos, incluindo uma quest\u00e3o que encerrou inesperadamente algumas den\u00fancias de usu\u00e1rios. Melhoramos os sistemas que utilizamos para priorizar den\u00fancias para revisores de conte\u00fado. Por exemplo, estamos usando uma tecnologia criada especificamente para encontrar imagens de explora\u00e7\u00e3o infantil para priorizar den\u00fancias que possam cont\u00ea-las. Apresentamos formas adicionais de encontrar e remover proativamente contas que possam violar as nossas pol\u00edticas de seguran\u00e7a infantil. Por exemplo, estamos enviando contas do Instagram que apresentam comportamento potencialmente suspeito aos nossos revisores de conte\u00fado e desabilitamos automaticamente essas contas se elas exibirem uma s\u00e9rie dos mais de 60 sinais que monitoramos. Mais de 20.000 contas foram identificadas e removidas automaticamente em agosto de 2023 como resultado deste m\u00e9todo. Fornecemos novas orienta\u00e7\u00f5es e ferramentas para ajudar os revisores de conte\u00fado a compreender os comportamentos e termos mais recentes utilizados \u200b\u200bpelos predadores, em v\u00e1rios idiomas diferentes. Por exemplo, os revisores de conte\u00fado ver\u00e3o, a partir de agora, informa\u00e7\u00f5es sobre termos codificados usados \u200b\u200bnas postagens que est\u00e3o revisando para entender o subtexto desses termos e como eles s\u00e3o usados \u200b\u200bpor predadores. Isso ajudar\u00e1 os revisores de conte\u00fado a reconhecer mais claramente esse comportamento e a agir. Fizemos melhorias para encontrar e remover, de forma facilitada, contas do Instagram e perfis do Facebook que possam estar vinculados \u00e0queles que violam nossas pol\u00edticas de seguran\u00e7a infantil \u2013 e para evitar que eles criem novas contas a partir de seus dispositivos. Desde o in\u00edcio de agosto, bloqueamos automaticamente mais de 250.000 dispositivos no Instagram por viola\u00e7\u00f5es das nossas pol\u00edticas de seguran\u00e7a infantil, e as melhorias no bloqueio de dispositivos levaram a mais de 10.000 medidas adicionais no Instagram e no Facebook por dia. Melhoramos a nossa detec\u00e7\u00e3o proativa de grupos do Facebook potencialmente suspeitos e atualizamos nossos protocolos e ferramentas de revis\u00e3o para que nossos revisores possam remover mais grupos violadores. Desde o dia 1\u00ba de julho de 2023, revisamos e removemos 16 mil grupos por viola\u00e7\u00f5es \u00e0s nossas pol\u00edticas de seguran\u00e7a infantil. Depois de lan\u00e7ar um novo esfor\u00e7o automatizado de fiscaliza\u00e7\u00e3o em setembro, vimos cinco vezes mais exclus\u00f5es automatizadas de Lives no Instagram que continham nudez adulta e atividade sexual. Acionamos mais de 4 milh\u00f5es de Reels por m\u00eas, no Facebook e no Instagram em todo o mundo, por violar nossas pol\u00edticas.","thumbnail_url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576","thumbnail_width":1024,"thumbnail_height":576}