{"version":"1.0","provider_name":"Sobre a Meta","provider_url":"https:\/\/about.fb.com\/br","author_name":"Meta","author_url":"https:\/\/about.fb.com\/br","title":"Como aplicamos nossos padr\u00f5es de comunidade? | Sobre a Meta","type":"rich","width":600,"height":338,"html":"<blockquote class=\"wp-embedded-content\" data-secret=\"5hNlqkXJl0\"><a href=\"https:\/\/about.fb.com\/br\/news\/2018\/11\/como-aplicamos-nossos-padroes-de-comunidade\/\">Como aplicamos nossos padr\u00f5es de comunidade?<\/a><\/blockquote><iframe sandbox=\"allow-scripts\" security=\"restricted\" src=\"https:\/\/about.fb.com\/br\/news\/2018\/11\/como-aplicamos-nossos-padroes-de-comunidade\/embed\/#?secret=5hNlqkXJl0\" width=\"600\" height=\"338\" title=\"&#8220;Como aplicamos nossos padr\u00f5es de comunidade?&#8221; &#8212; Sobre a Meta\" data-secret=\"5hNlqkXJl0\" frameborder=\"0\" marginwidth=\"0\" marginheight=\"0\" scrolling=\"no\" class=\"wp-embedded-content\"><\/iframe><script type=\"text\/javascript\">\n\/* <![CDATA[ *\/\n\/*! This file is auto-generated *\/\n!function(d,l){\"use strict\";l.querySelector&&d.addEventListener&&\"undefined\"!=typeof URL&&(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&&!\/[^a-zA-Z0-9]\/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret=\"'+t.secret+'\"]'),o=l.querySelectorAll('blockquote[data-secret=\"'+t.secret+'\"]'),c=new RegExp(\"^https?:$\",\"i\"),i=0;i<o.length;i++)o[i].style.display=\"none\";for(i=0;i<a.length;i++)s=a[i],e.source===s.contentWindow&&(s.removeAttribute(\"style\"),\"height\"===t.message?(1e3<(r=parseInt(t.value,10))?r=1e3:~~r<200&&(r=200),s.height=r):\"link\"===t.message&&(r=new URL(s.getAttribute(\"src\")),n=new URL(t.value),c.test(n.protocol))&&n.host===r.host&&l.activeElement===s&&(d.top.location.href=t.value))}},d.addEventListener(\"message\",d.wp.receiveEmbedMessage,!1),l.addEventListener(\"DOMContentLoaded\",function(){for(var e,t,s=l.querySelectorAll(\"iframe.wp-embedded-content\"),r=0;r<s.length;r++)(t=(e=s[r]).getAttribute(\"data-secret\"))||(t=Math.random().toString(36).substring(2,12),e.src+=\"#?secret=\"+t,e.setAttribute(\"data-secret\",t)),e.contentWindow.postMessage({message:\"ready\",secret:t},\"*\")},!1)))}(window,document);\n\/\/# sourceURL=https:\/\/about.fb.com\/br\/wp-includes\/js\/wp-embed.min.js\n\/* ]]> *\/\n<\/script>\n","description":"Por Guy Rosen As pessoas s\u00f3 se sentir\u00e3o \u00e0 vontade para compartilhar no Facebook se sentirem-se seguras. Assim, nos \u00faltimos dois anos, investimos pesadamente em tecnologia e em pessoas para remover com mais efic\u00e1cia conte\u00fados ruins de nossos servi\u00e7os. No come\u00e7o do ano, pela primeira vez publicamos as diretrizes internas que nossas equipes de revis\u00e3o usam para refor\u00e7ar nossos Padr\u00f5es da Comunidade &#8211; para que nossa comunidade possa entender melhor o que \u00e9 permitido no Facebook e por qu\u00ea. Em maio, publicamos n\u00fameros mostrando quanto conte\u00fado abusivo foi detectado em nossos servi\u00e7os, assim as pessoas poderiam julgar por si pr\u00f3prias como estamos indo bem. Hoje, estamos publicando nosso segundo Relat\u00f3rio de Transpar\u00eancia dos Padr\u00f5es da Comunidade. Este segundo relat\u00f3rio mostra nossos esfor\u00e7os de aplica\u00e7\u00e3o das pol\u00edticas contra Viol\u00eancia Gr\u00e1fica, Nudez Adulta e Atividade Sexual, Propaganda Terrorista, Discurso de \u00d3dio, Spam e Contas Falsas, durante os seis meses entre abril e setembro de 2018. O relat\u00f3rio tamb\u00e9m inclui duas novas categorias de dados &#8211; Bullying e Ass\u00e9dio, e Nudez Infantil e Explora\u00e7\u00e3o Sexual de Crian\u00e7as. Encontrando conte\u00fado abusivo Estamos melhorando em identificar proativamente conte\u00fado abusivo antes mesmo que algu\u00e9m denuncie, especificamente nos casos de Discurso de \u00d3dio e Viol\u00eancia Gr\u00e1fica. Mas ainda h\u00e1 \u00e1reas em que temos mais trabalho a fazer. Desde o nosso \u00faltimo relat\u00f3rio, a quantidade de discurso de \u00f3dio que detectamos de forma proativa, antes de qualquer pessoa denunciar, mais do que dobrou &#8211; de 24% para 52%. A maioria das postagens que retiramos por discurso de \u00f3dio s\u00e3o conte\u00fados que encontramos antes que algu\u00e9m os denuncie. Este \u00e9 um trabalho incrivelmente importante e continuamos investindo muito nos casos em que nosso trabalho ainda est\u00e1 em est\u00e1gios iniciais e nos casos em que precisamos melhorar nosso desempenho em idiomas menos utilizados. Nossa taxa detec\u00e7\u00e3o proativa de viol\u00eancia gr\u00e1fica aumentou 25 pontos percentuais &#8211; de 72% para 97%. (Gr\u00e1fico acima atualizado em 19 de novembro de 2018, \u00e0s 19h, para corrigir o percentual de discurso de \u00f3dio identificado proativamente entre janeiro e mar\u00e7o de 2018) Remo\u00e7\u00e3o de contas e de conte\u00fado abusivo N\u00e3o estamos apenas melhorando em encontrar conte\u00fados de baixa qualidade, tamb\u00e9m estamos ficando melhores em derrub\u00e1-lo. No terceiro trimestre de 2018, acionamos 15,4 milh\u00f5es de conte\u00fados contendo viol\u00eancia gr\u00e1fica &#8211; mais de 10 vezes a quantidade do quarto trimestre de 2017. Esse aumento foi devido a melhorias cont\u00ednuas em nossa tecnologia que nos permite aplicar automaticamente a mesma a\u00e7\u00e3o em conte\u00fados extremamente semelhantes ou id\u00eanticos. Al\u00e9m disso, como anunciamos na semana passada, houve um aumento significativo na quantidade de conte\u00fado terrorista que removemos no segundo trimestre de 2018. Expandimos o uso de nosso sistema de media matching &#8211; tecnologia que pode detectar proativamente fotos que s\u00e3o extremamente semelhantes a viola\u00e7\u00f5es de conte\u00fado j\u00e1 existentes em nosso banco de dados &#8211; para excluir imagens antigas de propaganda terrorista. Parte desse aumento tamb\u00e9m se deve \u00e0 corre\u00e7\u00e3o de um bug que nos impediu de remover alguns conte\u00fados que violavam nossas pol\u00edticas. Tamb\u00e9m retiramos mais contas falsas no segundo e terceiro trimestres do que em trimestres anteriores, 800,4 milh\u00f5es e 753,7 milh\u00f5es, respectivamente. A maioria dessas contas falsas foi o resultado de ataques de spam motivados financeiramente que tentavam criar contas falsas em massa. Como conseguimos remover a maioria dessas contas minutos ap\u00f3s o cadastro, a preval\u00eancia de contas falsas no Facebook permaneceu est\u00e1vel em 3% a 4% dos usu\u00e1rios ativos mensais, conforme divulgado em nossos resultados do terceiro trimestre. Adicionando novas categorias Para as duas novas categorias que adicionamos a este relat\u00f3rio &#8211; Bullying e Ass\u00e9dio, e Nudez Infantil e Explora\u00e7\u00e3o Sexual de Crian\u00e7as &#8211; os dados servir\u00e3o como ponto de partida para que tamb\u00e9m possamos medir nosso progresso ao longo do tempo. O bullying e o ass\u00e9dio moral tendem a ser pessoais e espec\u00edficos a algum determinado contexto, portanto, em muitos casos, precisamos que uma pessoa nos denuncie esse comportamento antes que possamos identific\u00e1-lo ou remov\u00ea-lo. Isso resulta em uma taxa de detec\u00e7\u00e3o proativa mais baixa do que outros tipos de viola\u00e7\u00f5es. No \u00faltimo trimestre, agimos em 2,1 milh\u00f5es de conte\u00fados que violaram nossas pol\u00edticas de bullying e ass\u00e9dio moral &#8211; removendo 15% desse total antes de ser denunciado. Descobrimos proativamente esse conte\u00fado enquanto pesquis\u00e1vamos outros tipos de viola\u00e7\u00f5es. O fato de que as v\u00edtimas geralmente t\u00eam que denunciar esse conte\u00fado antes que possamos agir pode ser desagrad\u00e1vel para elas. Estamos determinados a melhorar nossa compreens\u00e3o desses tipos de abuso para que possamos melhorar a detec\u00e7\u00e3o proativa deles. Nossos Padr\u00f5es da Comunidade pro\u00edbem a explora\u00e7\u00e3o infantil. Mas, para evitar um potencial abuso, removemos tamb\u00e9m conte\u00fado n\u00e3o sexual, como por exemplo fotos inocentes de crian\u00e7as no banho &#8211; o que, em outro contexto, poderia facilmente ser mal utilizado. Apenas no \u00faltimo trimestre removemos 8,7 milh\u00f5es de conte\u00fados que violaram nossas pol\u00edticas de nudez infantil ou explora\u00e7\u00e3o sexual de crian\u00e7as &#8211; 99% foram identificados antes que algu\u00e9m os denunciasse. Tamb\u00e9m anunciamos recentemente uma nova tecnologia para combater a explora\u00e7\u00e3o de crian\u00e7as no Facebook, que acredito que nos ajudar\u00e1 a identificar mais conte\u00fado ilegal ainda mais r\u00e1pido. De forma geral, sabemos que temos muito mais trabalho a fazer quando se trata de evitar abusos no Facebook. Machine learning e intelig\u00eancia artificial continuar\u00e3o nos ajudando a detectar e remover conte\u00fados de baixa qualidade do Facebook. Medir nosso progresso tamb\u00e9m \u00e9 crucial porque mant\u00e9m nossas equipes focadas no desafio que essa tarefa representa. Para nos ajudar a avaliar nossos processos e metodologias de dados, trabalhamos com o Data Transparency Advisory Group (DTAG), um grupo de especialistas em medi\u00e7\u00e3o e governan\u00e7a. Continuaremos aprimorando esses dados ao longo do tempo, para que sejam mais precisos e significativos. Voc\u00ea pode ver o Relat\u00f3rio de Transpar\u00eancia dos Padr\u00f5es da Comunidade e informa\u00e7\u00f5es atualizadas sobre requisi\u00e7\u00f5es de autoridades e remo\u00e7\u00f5es de IP aqui. Ambos os relat\u00f3rios estar\u00e3o dispon\u00edveis em mais de 15 idiomas no in\u00edcio de 2019.","thumbnail_url":"https:\/\/about.fb.com\/br\/wp-content\/uploads\/sites\/3\/2018\/11\/fb-transparency-report-data-snapshot-110818_online_pt_br-1.png"}