<?xml version="1.0"?>
<oembed><version>1.0</version><provider_name>Acerca de Meta</provider_name><provider_url>https://about.fb.com/ltam</provider_url><author_name>Meta</author_name><author_url>https://about.fb.com/ltam</author_url><title>Como aplicamos nuestras Normas Comunitarias | Acerca de Meta</title><type>rich</type><width>600</width><height>338</height><html>&lt;blockquote class="wp-embedded-content" data-secret="U4jjZ2wd8q"&gt;&lt;a href="https://about.fb.com/ltam/news/2018/11/como-aplicamos-nuestras-normas-comunitarias/"&gt;Como aplicamos nuestras Normas Comunitarias&lt;/a&gt;&lt;/blockquote&gt;&lt;iframe sandbox="allow-scripts" security="restricted" src="https://about.fb.com/ltam/news/2018/11/como-aplicamos-nuestras-normas-comunitarias/embed/#?secret=U4jjZ2wd8q" width="600" height="338" title="&#xAB;Como aplicamos nuestras Normas Comunitarias&#xBB; &#x2014; Acerca de Meta" data-secret="U4jjZ2wd8q" frameborder="0" marginwidth="0" marginheight="0" scrolling="no" class="wp-embedded-content"&gt;&lt;/iframe&gt;&lt;script type="text/javascript"&gt;
/* &lt;![CDATA[ */
/*! This file is auto-generated */
!function(d,l){"use strict";l.querySelector&amp;&amp;d.addEventListener&amp;&amp;"undefined"!=typeof URL&amp;&amp;(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&amp;&amp;!/[^a-zA-Z0-9]/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret="'+t.secret+'"]'),o=l.querySelectorAll('blockquote[data-secret="'+t.secret+'"]'),c=new RegExp("^https?:$","i"),i=0;i&lt;o.length;i++)o[i].style.display="none";for(i=0;i&lt;a.length;i++)s=a[i],e.source===s.contentWindow&amp;&amp;(s.removeAttribute("style"),"height"===t.message?(1e3&lt;(r=parseInt(t.value,10))?r=1e3:~~r&lt;200&amp;&amp;(r=200),s.height=r):"link"===t.message&amp;&amp;(r=new URL(s.getAttribute("src")),n=new URL(t.value),c.test(n.protocol))&amp;&amp;n.host===r.host&amp;&amp;l.activeElement===s&amp;&amp;(d.top.location.href=t.value))}},d.addEventListener("message",d.wp.receiveEmbedMessage,!1),l.addEventListener("DOMContentLoaded",function(){for(var e,t,s=l.querySelectorAll("iframe.wp-embedded-content"),r=0;r&lt;s.length;r++)(t=(e=s[r]).getAttribute("data-secret"))||(t=Math.random().toString(36).substring(2,12),e.src+="#?secret="+t,e.setAttribute("data-secret",t)),e.contentWindow.postMessage({message:"ready",secret:t},"*")},!1)))}(window,document);
//# sourceURL=https://about.fb.com/ltam/wp-includes/js/wp-embed.min.js
/* ]]&gt; */
&lt;/script&gt;
</html><thumbnail_url>https://about.fb.com/ltam/wp-content/uploads/sites/14/2018/11/transparency-report-header-2x.png?resize=1024,576</thumbnail_url><thumbnail_width>1024</thumbnail_width><thumbnail_height>576</thumbnail_height><description>Por Guy Rosen, Vicepresidente de Producto. Las personas s&#xF3;lo se sentir&#xE1;n c&#xF3;modas compartiendo sus experiencias e ideas en Facebook si se sienten seguras. Por eso es que en los &#xFA;ltimos dos a&#xF1;os invertimos fuerte tanto en tecnolog&#xED;a como en recursos humanos para ser m&#xE1;s eficientes a la hora de remover contenido abusivo de nuestros servicios. En abril, publicamos por primera vez las gu&#xED;as internas que emplean los equipos de revisi&#xF3;n para aplicar nuestras Normas Comunitarias, para que la gente pueda entender mejor qu&#xE9; est&#xE1; permitido y qu&#xE9; no en Facebook, y porqu&#xE9;. Y en mayo divulgamos n&#xFA;meros sobre el contenido que hab&#xED;a violado las normas para que las personas puedan juzgar por s&#xED; mismas c&#xF3;mo lo est&#xE1;bamos haciendo. Hoy publicamos nuestro segundo Reporte sobre Cumplimiento de las Normas Comunitarias. Esta segunda entrega muestra la aplicaci&#xF3;n de nuestras pol&#xED;ticas contra la desnudez en adultos y actividad sexual, cuentas falsas, discurso de odio, spam, propaganda terrorista, y la violencia contenido gr&#xE1;fico, para el semestre entre abril y septiembre de 2018. El informe incluye dos nuevas categor&#xED;as: bullying y acoso, y desnudo infantil y explotaci&#xF3;n sexual de menores. Detectando contenido abusivo Estamos mejorando en la identificaci&#xF3;n activa del contenido que vulnera nuestras pol&#xED;ticas antes de que sea reportado, espec&#xED;ficamente para discurso de odio y violencia gr&#xE1;fica. Pero a&#xFA;n hay &#xE1;reas en las que tenemos trabajo por hacer. Desde nuestro &#xFA;ltimo reporte, la cantidad de discurso de odio que detectamos activamente m&#xE1;s que se duplic&#xF3; hasta llegar a un 52%, desde un 24% previo. La mayor&#xED;a de las publicaciones que eliminamos en esta categor&#xED;a fue antes de que nadie lo reportara. Este trabajo tiene una importancia central para nosotros y continuaremos invirtiendo para mejorar nuestro trabajo en aquellos lugares donde a&#xFA;n est&#xE1; en su etapa inicial: los idiomas menos utilizados. La detecci&#xF3;n activa de publicaciones que incluyen violencia gr&#xE1;fica aument&#xF3; 25 puntos porcentuales, pasando de un 72 a un 97%. &nbsp; Remoci&#xF3;n de contenido y de cuentas No s&#xF3;lo hemos mejorado en la tarea de hallar contenido malicioso, tambi&#xE9;n a la hora de removerlo. En el tercer trimestre del 2018 eliminamos 15,4 millones de piezas de contenido que conten&#xED;an violencia gr&#xE1;fica, m&#xE1;s de 10 veces el volumen del cuarto trimestre del 2017. Este incremento respondi&#xF3; a las mejoras constantes en nuestra tecnolog&#xED;a, que nos permite aplicar autom&#xE1;ticamente la misma acci&#xF3;n sobre contenido id&#xE9;ntico o extremadamente similar. Adem&#xE1;s, como anunciamos la semanas pasada, hubo un aumento significativo en la cantidad de contenido asociado al terrorismo que removimos en el segundo trimestre del 2018. Expandimos el uso de nuestro sistema de comparaci&#xF3;n de medios &#x2013; una tecnolog&#xED;a que detecta fotos muy similares a otras que ya est&#xE1;n en nuestra base de datos de material violatorio &#x2013; para eliminar im&#xE1;genes viejas de propaganda terrorista. Parte de este aumento obedece a la correcci&#xF3;n de un bug que nos imped&#xED;a remover ciertos contenidos que iban contra nuestras normas. Tambi&#xE9;n aument&#xF3; la cantidad de cuentas falsas que retiramos de la plataforma en el segundo y el tercer trimestre del 2018, en comparaci&#xF3;n con los mismos per&#xED;odos del a&#xF1;o anterior: 800 millones y 754 millones, respectivamente. La mayor&#xED;a de ellas fueron creadas para para diseminar spam con el objetivo de ganar dinero, generando cuentas a granel. Gracias a que fuimos capaces de eliminar la mayor&#xED;a de esas cuentas apenas minutos despu&#xE9;s de que fueran registradas, la presencia de cuentas falsas en Facebook permaneci&#xF3; estable entre un 3 y 4% de los usuarios activos, como informamos en nuestro balance del tercer trimestre. Nuevas categor&#xED;as Los datos de las dos nuevas categor&#xED;as que estamos agregando en este reporte &#x2013; bullying y asedio, y desnudo infantil y explotaci&#xF3;n sexual de menores &#x2013; servir&#xE1;n como punto de partida para tambi&#xE9;n poder medir nuestro progreso a lo largo del tiempo en relaci&#xF3;n a este tipo de violaci&#xF3;n. Bullying y asedio suelen ser ataques personales que se producen en un determinado contexto, por lo que en muchas ocasiones es necesario que una persona reporte este comportamiento antes de que podamos identificarlo y eliminarlo. Esto lleva a una tasa m&#xE1;s baja de detecci&#xF3;n activa que en otro tipo de abusos. En el &#xFA;ltimo trimestre, eliminamos 2,1 millones de piezas de contenido que violaban nuestras pol&#xED;ticas de bullying y asedio, un 15% antes de que fuera informado. Descubrimos este contenido mientras busc&#xE1;bamos activamente otras violaciones. El hecho de que las v&#xED;ctimas tengan que reportar este tipo de contenido antes de que podamos actuar puede ser irritante. Estamos determinados a mejorar nuestro entendimiento de estos abusos para poder detectarlos mejor en forma activa. Nuestras Normas Comunitarias prohiben la explotaci&#xF3;n de menores. Pero para evitar potenciales abusos removemos contenido no sexual como fotos inocentes de ni&#xF1;os en la ba&#xF1;era, que insertadas en un contexto diferente podr&#xED;an f&#xE1;cilmente ser usadas maliciosamente. S&#xF3;lo en el &#xFA;ltimo trimestre, eliminamos 8,7 millones de piezas de contenido que vulneraba nuestras normas, un 99% del cual fue removido antes de ser reportado. Recientemente anunciamos una nueva tecnolog&#xED;a para luchar contra la explotaci&#xF3;n sexual en Facebook, que conf&#xED;o en que nos ayudar&#xE1; a identificar m&#xE1;s contenido malicioso con mayor rapidez. Sabemos que tenemos mucho m&#xE1;s trabajo por delante para prevenir abusos en Facebook. Y la Inteligencia Artificial continuar&#xE1; ayud&#xE1;ndonos a detectar y eliminar contenido abusivo de nuestra plataforma. Poder medir nuestro progreso es tambi&#xE9;n crucial, porque mantiene a nuestros equipos enfocados en los desaf&#xED;os que enfrentamos. Para evaluar nuestra metodolog&#xED;a hemos estado trabajando con la organizaci&#xF3;n Data Transparency Advisory Group (DTAG), especializada en gobernanza corporativa. Seguiremos trabajando este tipo de informaci&#xF3;n para que nuestros datos sean m&#xE1;s precisos y significativos con el tiempo. Puedes ver m&#xE1;s informaci&#xF3;n sobre este reporte y sobre el de Solicitudes de las Autoridades y Remociones de Propiedad Intelectual aqu&#xED;. Ambos estudios estar&#xE1;n disponibles en m&#xE1;s de 15 idiomas a principios de 2019.</description></oembed>
