<?xml version="1.0"?>
<oembed><version>1.0</version><provider_name>Sobre a Meta</provider_name><provider_url>https://about.fb.com/br</provider_url><author_name>Meta</author_name><author_url>https://about.fb.com/br</author_url><title>Como aplicamos nossos padr&#xF5;es de comunidade? | Sobre a Meta</title><type>rich</type><width>600</width><height>338</height><html>&lt;blockquote class="wp-embedded-content" data-secret="m1PbjVQs2q"&gt;&lt;a href="https://about.fb.com/br/news/2018/11/como-aplicamos-nossos-padroes-de-comunidade/"&gt;Como aplicamos nossos padr&#xF5;es de comunidade?&lt;/a&gt;&lt;/blockquote&gt;&lt;iframe sandbox="allow-scripts" security="restricted" src="https://about.fb.com/br/news/2018/11/como-aplicamos-nossos-padroes-de-comunidade/embed/#?secret=m1PbjVQs2q" width="600" height="338" title="&#x201C;Como aplicamos nossos padr&#xF5;es de comunidade?&#x201D; &#x2014; Sobre a Meta" data-secret="m1PbjVQs2q" frameborder="0" marginwidth="0" marginheight="0" scrolling="no" class="wp-embedded-content"&gt;&lt;/iframe&gt;&lt;script type="text/javascript"&gt;
/* &lt;![CDATA[ */
/*! This file is auto-generated */
!function(d,l){"use strict";l.querySelector&amp;&amp;d.addEventListener&amp;&amp;"undefined"!=typeof URL&amp;&amp;(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&amp;&amp;!/[^a-zA-Z0-9]/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret="'+t.secret+'"]'),o=l.querySelectorAll('blockquote[data-secret="'+t.secret+'"]'),c=new RegExp("^https?:$","i"),i=0;i&lt;o.length;i++)o[i].style.display="none";for(i=0;i&lt;a.length;i++)s=a[i],e.source===s.contentWindow&amp;&amp;(s.removeAttribute("style"),"height"===t.message?(1e3&lt;(r=parseInt(t.value,10))?r=1e3:~~r&lt;200&amp;&amp;(r=200),s.height=r):"link"===t.message&amp;&amp;(r=new URL(s.getAttribute("src")),n=new URL(t.value),c.test(n.protocol))&amp;&amp;n.host===r.host&amp;&amp;l.activeElement===s&amp;&amp;(d.top.location.href=t.value))}},d.addEventListener("message",d.wp.receiveEmbedMessage,!1),l.addEventListener("DOMContentLoaded",function(){for(var e,t,s=l.querySelectorAll("iframe.wp-embedded-content"),r=0;r&lt;s.length;r++)(t=(e=s[r]).getAttribute("data-secret"))||(t=Math.random().toString(36).substring(2,12),e.src+="#?secret="+t,e.setAttribute("data-secret",t)),e.contentWindow.postMessage({message:"ready",secret:t},"*")},!1)))}(window,document);
//# sourceURL=https://about.fb.com/br/wp-includes/js/wp-embed.min.js
/* ]]&gt; */
&lt;/script&gt;
</html><description>Por Guy Rosen As pessoas s&#xF3; se sentir&#xE3;o &#xE0; vontade para compartilhar no Facebook se sentirem-se seguras. Assim, nos &#xFA;ltimos dois anos, investimos pesadamente em tecnologia e em pessoas para remover com mais efic&#xE1;cia conte&#xFA;dos ruins de nossos servi&#xE7;os. No come&#xE7;o do ano, pela primeira vez publicamos as diretrizes internas que nossas equipes de revis&#xE3;o usam para refor&#xE7;ar nossos Padr&#xF5;es da Comunidade &#x2013; para que nossa comunidade possa entender melhor o que &#xE9; permitido no Facebook e por qu&#xEA;. Em maio, publicamos n&#xFA;meros mostrando quanto conte&#xFA;do abusivo foi detectado em nossos servi&#xE7;os, assim as pessoas poderiam julgar por si pr&#xF3;prias como estamos indo bem. Hoje, estamos publicando nosso segundo Relat&#xF3;rio de Transpar&#xEA;ncia dos Padr&#xF5;es da Comunidade. Este segundo relat&#xF3;rio mostra nossos esfor&#xE7;os de aplica&#xE7;&#xE3;o das pol&#xED;ticas contra Viol&#xEA;ncia Gr&#xE1;fica, Nudez Adulta e Atividade Sexual, Propaganda Terrorista, Discurso de &#xD3;dio, Spam e Contas Falsas, durante os seis meses entre abril e setembro de 2018. O relat&#xF3;rio tamb&#xE9;m inclui duas novas categorias de dados &#x2013; Bullying e Ass&#xE9;dio, e Nudez Infantil e Explora&#xE7;&#xE3;o Sexual de Crian&#xE7;as. Encontrando conte&#xFA;do abusivo Estamos melhorando em identificar proativamente conte&#xFA;do abusivo antes mesmo que algu&#xE9;m denuncie, especificamente nos casos de Discurso de &#xD3;dio e Viol&#xEA;ncia Gr&#xE1;fica. Mas ainda h&#xE1; &#xE1;reas em que temos mais trabalho a fazer. Desde o nosso &#xFA;ltimo relat&#xF3;rio, a quantidade de discurso de &#xF3;dio que detectamos de forma proativa, antes de qualquer pessoa denunciar, mais do que dobrou &#x2013; de 24% para 52%. A maioria das postagens que retiramos por discurso de &#xF3;dio s&#xE3;o conte&#xFA;dos que encontramos antes que algu&#xE9;m os denuncie. Este &#xE9; um trabalho incrivelmente importante e continuamos investindo muito nos casos em que nosso trabalho ainda est&#xE1; em est&#xE1;gios iniciais e nos casos em que precisamos melhorar nosso desempenho em idiomas menos utilizados. Nossa taxa detec&#xE7;&#xE3;o proativa de viol&#xEA;ncia gr&#xE1;fica aumentou 25 pontos percentuais &#x2013; de 72% para 97%. (Gr&#xE1;fico acima atualizado em 19 de novembro de 2018, &#xE0;s 19h, para corrigir o percentual de discurso de &#xF3;dio identificado proativamente entre janeiro e mar&#xE7;o de 2018) Remo&#xE7;&#xE3;o de contas e de conte&#xFA;do abusivo N&#xE3;o estamos apenas melhorando em encontrar conte&#xFA;dos de baixa qualidade, tamb&#xE9;m estamos ficando melhores em derrub&#xE1;-lo. No terceiro trimestre de 2018, acionamos 15,4 milh&#xF5;es de conte&#xFA;dos contendo viol&#xEA;ncia gr&#xE1;fica &#x2013; mais de 10 vezes a quantidade do quarto trimestre de 2017. Esse aumento foi devido a melhorias cont&#xED;nuas em nossa tecnologia que nos permite aplicar automaticamente a mesma a&#xE7;&#xE3;o em conte&#xFA;dos extremamente semelhantes ou id&#xEA;nticos. Al&#xE9;m disso, como anunciamos na semana passada, houve um aumento significativo na quantidade de conte&#xFA;do terrorista que removemos no segundo trimestre de 2018. Expandimos o uso de nosso sistema de media matching &#x2013; tecnologia que pode detectar proativamente fotos que s&#xE3;o extremamente semelhantes a viola&#xE7;&#xF5;es de conte&#xFA;do j&#xE1; existentes em nosso banco de dados &#x2013; para excluir imagens antigas de propaganda terrorista. Parte desse aumento tamb&#xE9;m se deve &#xE0; corre&#xE7;&#xE3;o de um bug que nos impediu de remover alguns conte&#xFA;dos que violavam nossas pol&#xED;ticas. Tamb&#xE9;m retiramos mais contas falsas no segundo e terceiro trimestres do que em trimestres anteriores, 800,4 milh&#xF5;es e 753,7 milh&#xF5;es, respectivamente. A maioria dessas contas falsas foi o resultado de ataques de spam motivados financeiramente que tentavam criar contas falsas em massa. Como conseguimos remover a maioria dessas contas minutos ap&#xF3;s o cadastro, a preval&#xEA;ncia de contas falsas no Facebook permaneceu est&#xE1;vel em 3% a 4% dos usu&#xE1;rios ativos mensais, conforme divulgado em nossos resultados do terceiro trimestre. Adicionando novas categorias Para as duas novas categorias que adicionamos a este relat&#xF3;rio &#x2013; Bullying e Ass&#xE9;dio, e Nudez Infantil e Explora&#xE7;&#xE3;o Sexual de Crian&#xE7;as &#x2013; os dados servir&#xE3;o como ponto de partida para que tamb&#xE9;m possamos medir nosso progresso ao longo do tempo. O bullying e o ass&#xE9;dio moral tendem a ser pessoais e espec&#xED;ficos a algum determinado contexto, portanto, em muitos casos, precisamos que uma pessoa nos denuncie esse comportamento antes que possamos identific&#xE1;-lo ou remov&#xEA;-lo. Isso resulta em uma taxa de detec&#xE7;&#xE3;o proativa mais baixa do que outros tipos de viola&#xE7;&#xF5;es. No &#xFA;ltimo trimestre, agimos em 2,1 milh&#xF5;es de conte&#xFA;dos que violaram nossas pol&#xED;ticas de bullying e ass&#xE9;dio moral &#x2013; removendo 15% desse total antes de ser denunciado. Descobrimos proativamente esse conte&#xFA;do enquanto pesquis&#xE1;vamos outros tipos de viola&#xE7;&#xF5;es. O fato de que as v&#xED;timas geralmente t&#xEA;m que denunciar esse conte&#xFA;do antes que possamos agir pode ser desagrad&#xE1;vel para elas. Estamos determinados a melhorar nossa compreens&#xE3;o desses tipos de abuso para que possamos melhorar a detec&#xE7;&#xE3;o proativa deles. Nossos Padr&#xF5;es da Comunidade pro&#xED;bem a explora&#xE7;&#xE3;o infantil. Mas, para evitar um potencial abuso, removemos tamb&#xE9;m conte&#xFA;do n&#xE3;o sexual, como por exemplo fotos inocentes de crian&#xE7;as no banho &#x2013; o que, em outro contexto, poderia facilmente ser mal utilizado. Apenas no &#xFA;ltimo trimestre removemos 8,7 milh&#xF5;es de conte&#xFA;dos que violaram nossas pol&#xED;ticas de nudez infantil ou explora&#xE7;&#xE3;o sexual de crian&#xE7;as &#x2013; 99% foram identificados antes que algu&#xE9;m os denunciasse. Tamb&#xE9;m anunciamos recentemente uma nova tecnologia para combater a explora&#xE7;&#xE3;o de crian&#xE7;as no Facebook, que acredito que nos ajudar&#xE1; a identificar mais conte&#xFA;do ilegal ainda mais r&#xE1;pido. De forma geral, sabemos que temos muito mais trabalho a fazer quando se trata de evitar abusos no Facebook. Machine learning e intelig&#xEA;ncia artificial continuar&#xE3;o nos ajudando a detectar e remover conte&#xFA;dos de baixa qualidade do Facebook. Medir nosso progresso tamb&#xE9;m &#xE9; crucial porque mant&#xE9;m nossas equipes focadas no desafio que essa tarefa representa. Para nos ajudar a avaliar nossos processos e metodologias de dados, trabalhamos com o Data Transparency Advisory Group (DTAG), um grupo de especialistas em medi&#xE7;&#xE3;o e governan&#xE7;a. Continuaremos aprimorando esses dados ao longo do tempo, para que sejam mais precisos e significativos. Voc&#xEA; pode ver o Relat&#xF3;rio de Transpar&#xEA;ncia dos Padr&#xF5;es da Comunidade e informa&#xE7;&#xF5;es atualizadas sobre requisi&#xE7;&#xF5;es de autoridades e remo&#xE7;&#xF5;es de IP aqui. Ambos os relat&#xF3;rios estar&#xE3;o dispon&#xED;veis em mais de 15 idiomas no in&#xED;cio de 2019.</description><thumbnail_url>https://about.fb.com/br/wp-content/uploads/sites/3/2018/11/fb-transparency-report-data-snapshot-110818_online_pt_br-1.png</thumbnail_url></oembed>
