{"version":"1.0","provider_name":"Sobre a Meta","provider_url":"https:\/\/about.fb.com\/br","author_name":"Meta","author_url":"https:\/\/about.fb.com\/br","title":"Prevenindo a explora\u00e7\u00e3o infantil em nossos aplicativos | Sobre a Meta","type":"rich","width":600,"height":338,"html":"<blockquote class=\"wp-embedded-content\" data-secret=\"ARyVW1GNdF\"><a href=\"https:\/\/about.fb.com\/br\/news\/2021\/02\/prevenindo-a-exploracao-infantil-em-nossos-aplicativos\/\">Prevenindo a explora\u00e7\u00e3o infantil em nossos aplicativos<\/a><\/blockquote><iframe sandbox=\"allow-scripts\" security=\"restricted\" src=\"https:\/\/about.fb.com\/br\/news\/2021\/02\/prevenindo-a-exploracao-infantil-em-nossos-aplicativos\/embed\/#?secret=ARyVW1GNdF\" width=\"600\" height=\"338\" title=\"&#8220;Prevenindo a explora\u00e7\u00e3o infantil em nossos aplicativos&#8221; &#8212; Sobre a Meta\" data-secret=\"ARyVW1GNdF\" frameborder=\"0\" marginwidth=\"0\" marginheight=\"0\" scrolling=\"no\" class=\"wp-embedded-content\"><\/iframe><script type=\"text\/javascript\">\n\/* <![CDATA[ *\/\n\/*! This file is auto-generated *\/\n!function(d,l){\"use strict\";l.querySelector&&d.addEventListener&&\"undefined\"!=typeof URL&&(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&&!\/[^a-zA-Z0-9]\/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret=\"'+t.secret+'\"]'),o=l.querySelectorAll('blockquote[data-secret=\"'+t.secret+'\"]'),c=new RegExp(\"^https?:$\",\"i\"),i=0;i<o.length;i++)o[i].style.display=\"none\";for(i=0;i<a.length;i++)s=a[i],e.source===s.contentWindow&&(s.removeAttribute(\"style\"),\"height\"===t.message?(1e3<(r=parseInt(t.value,10))?r=1e3:~~r<200&&(r=200),s.height=r):\"link\"===t.message&&(r=new URL(s.getAttribute(\"src\")),n=new URL(t.value),c.test(n.protocol))&&n.host===r.host&&l.activeElement===s&&(d.top.location.href=t.value))}},d.addEventListener(\"message\",d.wp.receiveEmbedMessage,!1),l.addEventListener(\"DOMContentLoaded\",function(){for(var e,t,s=l.querySelectorAll(\"iframe.wp-embedded-content\"),r=0;r<s.length;r++)(t=(e=s[r]).getAttribute(\"data-secret\"))||(t=Math.random().toString(36).substring(2,12),e.src+=\"#?secret=\"+t,e.setAttribute(\"data-secret\",t)),e.contentWindow.postMessage({message:\"ready\",secret:t},\"*\")},!1)))}(window,document);\n\/\/# sourceURL=https:\/\/about.fb.com\/br\/wp-includes\/js\/wp-embed.min.js\n\/* ]]> *\/\n<\/script>\n","thumbnail_url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/11\/2021\/02\/NRP-Child_Safety_Bundle_Announcement_banner.jpg?resize=1024,577","thumbnail_width":1024,"thumbnail_height":577,"description":"Usar nossos aplicativos para prejudicar crian\u00e7as \u00e9 abomin\u00e1vel e inaceit\u00e1vel. Nossos esfor\u00e7os, l\u00edderes na ind\u00fastria, para combater a explora\u00e7\u00e3o infantil se concentram na preven\u00e7\u00e3o de abusos, detec\u00e7\u00e3o e den\u00fancia de conte\u00fados que violam nossas pol\u00edticas e tamb\u00e9m no trabalho com especialistas e autoridades para manter as crian\u00e7as seguras. Hoje, anunciamos novas ferramentas que estamos testando para impedir que as pessoas compartilhem conte\u00fado que vitimizam as crian\u00e7as, assim como melhorias recentes que fizemos em nossas ferramentas de detec\u00e7\u00e3o e den\u00fancia. Foco na preven\u00e7\u00e3o Para entender como e porqu\u00ea as pessoas compartilham conte\u00fado de explora\u00e7\u00e3o infantil em nossos aplicativos, conduzimos uma an\u00e1lise detalhada do conte\u00fado ilegal de explora\u00e7\u00e3o infantil que reportamos ao Centro Nacional para Crian\u00e7as Desaparecidas e Exploradas (NCMEC), em outubro e novembro de 2020. Descobrimos que 90% deste conte\u00fado \u00e9 igual, ou quase id\u00eantico, ao conte\u00fado que j\u00e1 foi compartilhado. E as c\u00f3pias de apenas seis v\u00eddeos foram respons\u00e1veis por mais da metade do conte\u00fado de explora\u00e7\u00e3o infantil que reportamos naquele per\u00edodo. Esses dados indicam que o n\u00famero de pe\u00e7as de conte\u00fado n\u00e3o \u00e9 igual ao n\u00famero de v\u00edtimas, e que o mesmo conte\u00fado, potencialmente alterado superficialmente, est\u00e1 sendo compartilhado repetidamente. Mas sabemos que mesmo que seja uma v\u00edtima desse crime horr\u00edvel, j\u00e1 \u00e9 muito.\u00a0 Dado que apenas algumas pe\u00e7as de conte\u00fado foram respons\u00e1veis por muitas den\u00fancias, isso sugere que um maior entendimento da inten\u00e7\u00e3o pode nos ajudar a prevenir essa revitimiza\u00e7\u00e3o. Trabalhamos com os principais especialistas em explora\u00e7\u00e3o infantil, incluindo o NCMEC, para desenvolver uma taxonomia baseada em pesquisa para categorizar a aparente inten\u00e7\u00e3o de uma pessoa em compartilhar este conte\u00fado. Com base nessa taxonomia, avaliamos 150 contas que relatamos ao NCMEC pelo envio de CSAM em julho e agosto de 2020 e janeiro de 2021, e estimamos que mais de 75% delas n\u00e3o exibiram inten\u00e7\u00e3o maliciosa (ou seja, n\u00e3o tinham a inten\u00e7\u00e3o de prejudicar uma crian\u00e7a), mas pareciam compartilhar por outros motivos, como indigna\u00e7\u00e3o ou tentativa de humor. Embora este estudo represente nosso melhor entendimento, essas descobertas n\u00e3o devem ser consideradas uma medida precisa do ecossistema de seguran\u00e7a infantil. Nosso trabalho para entender inten\u00e7\u00f5es \u00e9 cont\u00ednuo. Com base em nossas descobertas, estamos desenvolvendo solu\u00e7\u00f5es direcionadas, incluindo novas ferramentas e pol\u00edticas para reduzir o compartilhamento desse tipo de conte\u00fado.\u00a0 Come\u00e7amos testando duas novas ferramentas \u2014 uma voltada para a busca potencialmente maliciosa por este conte\u00fado e outra voltada para o compartilhamento n\u00e3o malicioso desse conte\u00fado. A primeira ferramenta \u00e9 um pop-up que \u00e9 mostrado \u00e0s pessoas que buscam por termos em nossos aplicativos associados \u00e0 explora\u00e7\u00e3o infantil. O pop-up oferece maneiras de obter ajuda de organiza\u00e7\u00f5es para suporte de ofensores sexuais e compartilha informa\u00e7\u00f5es sobre as consequ\u00eancias da visualiza\u00e7\u00e3o de conte\u00fado ilegal. A segunda \u00e9 um alerta de seguran\u00e7a que informa as pessoas que compartilharam conte\u00fado viral de explora\u00e7\u00e3o infantil sobre os danos que isso pode causar, e avisa que isso \u00e9 contra nossas pol\u00edticas e que h\u00e1 consequ\u00eancias legais para o compartilhamento desse material.\u00a0 Estamos usando percep\u00e7\u00f5es desta nova ferramenta para nos ajudar a identificar sinais de comportamento daqueles que podem estar em imin\u00eancia de compartilhar este material, para que tamb\u00e9m possamos educ\u00e1-los sobre o por qu\u00ea isso \u00e9 prejudicial e incentiv\u00e1-los a n\u00e3o compartilh\u00e1-lo em qualquer plataforma \u2014 p\u00fablica ou privada. Melhorando nossas capacidades de detec\u00e7\u00e3o Por anos usamos tecnologia para encontrar conte\u00fado de explora\u00e7\u00e3o infantil e detectar poss\u00edveis intera\u00e7\u00f5es inapropriadas com crian\u00e7as ou aliciamento infantil. Por\u00e9m, expandimos nosso trabalho para detectar proativamente e remover redes que violam nossas pol\u00edticas de explora\u00e7\u00e3o infantil, de forma semelhante aos nossos esfor\u00e7os contra o comportamento inaut\u00eantico coordenado e organiza\u00e7\u00f5es perigosas.\u00a0 Adicionalmente, atualizamos nossas pol\u00edticas de seguran\u00e7a infantil para esclarecer que removeremos Perfis, P\u00e1ginas e Grupos do Facebook e contas do Instagram que se dedicam a compartilhar imagens de crian\u00e7as, de forma que n\u00e3o seja inocente, com legendas, hashtags ou coment\u00e1rios que contenham sinais inapropriados de afeto ou coment\u00e1rios sobre as crian\u00e7as retratadas na imagem. Sempre removemos conte\u00fado que sexualiza explicitamente as crian\u00e7as, mas o conte\u00fado que n\u00e3o \u00e9 expl\u00edcito e n\u00e3o retrata nudez infantil \u00e9 mais dif\u00edcil de definir. Sob esta nova pol\u00edtica, embora as imagens por si s\u00f3 possam n\u00e3o violar nossas regras, o texto que acompanha pode nos ajudar a determinar melhor se o conte\u00fado est\u00e1 sexualizando crian\u00e7as e se o Perfil, P\u00e1gina, Grupo ou conta associados deve ser removido.\u00a0 Atualizando nossas ferramentas de den\u00fancia Ap\u00f3s consultas com especialistas e organiza\u00e7\u00f5es em seguran\u00e7a infantil, tornamos mais f\u00e1cil denunciar um conte\u00fado por violar nossas pol\u00edticas de explora\u00e7\u00e3o infantil. Para fazer isso, adicionamos a op\u00e7\u00e3o de escolher &#8220;envolve uma crian\u00e7a&#8221; na categoria de den\u00fancia &#8220;Nudez e atividade sexual&#8221; em mais lugares no Facebook e Instagram. Essas den\u00fancias ser\u00e3o priorizadas para revis\u00e3o. Tamb\u00e9m come\u00e7amos a usar a API Content Safety do Google para nos ajudar a priorizar melhor o conte\u00fado que pode conter explora\u00e7\u00e3o infantil para nossos revisores de conte\u00fado avaliarem. Para saber mais sobre nossos esfor\u00e7os cont\u00ednuos para proteger as crian\u00e7as em espa\u00e7os p\u00fablicos e privados em nossos aplicativos, visite facebook.com\/safety\/onlinechildprotection."}