<?xml version="1.0"?>
<oembed><version>1.0</version><provider_name>Acerca de Meta</provider_name><provider_url>https://about.fb.com/ltam</provider_url><author_name>Meta</author_name><author_url>https://about.fb.com/ltam</author_url><title>&#xBF;C&#xF3;mo revisamos el contenido? | Acerca de Meta</title><type>rich</type><width>600</width><height>338</height><html>&lt;blockquote class="wp-embedded-content" data-secret="9FSO5HPvr7"&gt;&lt;a href="https://about.fb.com/ltam/news/2020/08/como-revisamos-el-contenido/"&gt;&#xBF;C&#xF3;mo revisamos el contenido?&lt;/a&gt;&lt;/blockquote&gt;&lt;iframe sandbox="allow-scripts" security="restricted" src="https://about.fb.com/ltam/news/2020/08/como-revisamos-el-contenido/embed/#?secret=9FSO5HPvr7" width="600" height="338" title="&#xAB;&#xBF;C&#xF3;mo revisamos el contenido?&#xBB; &#x2014; Acerca de Meta" data-secret="9FSO5HPvr7" frameborder="0" marginwidth="0" marginheight="0" scrolling="no" class="wp-embedded-content"&gt;&lt;/iframe&gt;&lt;script type="text/javascript"&gt;
/* &lt;![CDATA[ */
/*! This file is auto-generated */
!function(d,l){"use strict";l.querySelector&amp;&amp;d.addEventListener&amp;&amp;"undefined"!=typeof URL&amp;&amp;(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&amp;&amp;!/[^a-zA-Z0-9]/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret="'+t.secret+'"]'),o=l.querySelectorAll('blockquote[data-secret="'+t.secret+'"]'),c=new RegExp("^https?:$","i"),i=0;i&lt;o.length;i++)o[i].style.display="none";for(i=0;i&lt;a.length;i++)s=a[i],e.source===s.contentWindow&amp;&amp;(s.removeAttribute("style"),"height"===t.message?(1e3&lt;(r=parseInt(t.value,10))?r=1e3:~~r&lt;200&amp;&amp;(r=200),s.height=r):"link"===t.message&amp;&amp;(r=new URL(s.getAttribute("src")),n=new URL(t.value),c.test(n.protocol))&amp;&amp;n.host===r.host&amp;&amp;l.activeElement===s&amp;&amp;(d.top.location.href=t.value))}},d.addEventListener("message",d.wp.receiveEmbedMessage,!1),l.addEventListener("DOMContentLoaded",function(){for(var e,t,s=l.querySelectorAll("iframe.wp-embedded-content"),r=0;r&lt;s.length;r++)(t=(e=s[r]).getAttribute("data-secret"))||(t=Math.random().toString(36).substring(2,12),e.src+="#?secret="+t,e.setAttribute("data-secret",t)),e.contentWindow.postMessage({message:"ready",secret:t},"*")},!1)))}(window,document);
//# sourceURL=https://about.fb.com/ltam/wp-includes/js/wp-embed.min.js
/* ]]&gt; */
&lt;/script&gt;
</html><thumbnail_url>https://about.fb.com/ltam/wp-content/uploads/sites/14/2020/08/NRP-How_We_Review_Content_banner_FINAL.jpg?resize=1024,576</thumbnail_url><thumbnail_width>1024</thumbnail_width><thumbnail_height>576</thumbnail_height><description>Cuando empezamos a revisar contenido en Facebook, hace ya m&#xE1;s de una d&#xE9;cada, nuestro sistema se basaba en los reportes que hac&#xED;an las personas de cosas que ve&#xED;an y consideraban inapropiadas. Luego, nuestros equipos revisaban y remov&#xED;an piezas de contenido de forma individual, en caso de que estas violaran nuestras pol&#xED;ticas. Mucho ha cambiado desde entonces.&#xA0; Hemos desarrollado reglas m&#xE1;s transparentes y estamos estableciendo un Consejo Asesor que pronto empezar&#xE1; a revisar algunas de nuestras decisiones de contenido m&#xE1;s dif&#xED;ciles. Pero el mayor cambio ha sido el rol de la tecnolog&#xED;a en la moderaci&#xF3;n de contenido. Como lo muestra el Informe de cumplimiento de Normas Comunitarias, nuestra tecnolog&#xED;a para detectar violaciones de las pol&#xED;ticas est&#xE1; mejorando y jugando un papel cada vez m&#xE1;s importante en la revisi&#xF3;n de contenido. Nuestra tecnolog&#xED;a nos ayuda en tres &#xE1;reas principales:&#xA0; Detecci&#xF3;n proactiva: La Inteligencia Artificial (IA) ha mejorado al punto que puede detectar violaciones en diferentes &#xE1;reas sin depender de los reportes de contenido de los usuarios de Facebook, la mayor&#xED;a de las veces con m&#xE1;s precisi&#xF3;n que los reportes hechos por los usuarios. Esto nos ayuda a detectar contenido da&#xF1;ino y evitar que sea visto por cientos o miles de personas.&#xA0; Automatizaci&#xF3;n: La IA tambi&#xE9;n ayuda a escalar el trabajo de nuestros revisores de contenido. Nuestros sistemas de IA automatizan las decisiones para ciertas &#xE1;reas en donde es muy probable que el contenido sea violatorio. Esto nos ayuda a escalar las decisiones de contenido sin sacrificar la precisi&#xF3;n, lo que permite a nuestros revisores de contenido enfocarse en decisiones que requieren de mayor especializaci&#xF3;n para entender el contexto y los factores de una situaci&#xF3;n particular. La automatizaci&#xF3;n tambi&#xE9;n facilita que se tomen acciones en reportes id&#xE9;nticos, para que nuestros equipos no inviertan tiempo revisando el mismo contenido varias veces. Estos sistemas se volvieron a&#xFA;n m&#xE1;s importantes durante la pandemia por COVID-19 con una fuerza laboral de revisores de contenido trabajando mayoritariamente desde casa.&#xA0; Priorizaci&#xF3;n: En lugar de simplemente revisar el contenido en orden cronol&#xF3;gico, nuestra IA prioriza el contenido m&#xE1;s cr&#xED;tico para que sea revisado, ya sea aquel que nos reportan o el que detectan nuestros sistemas de forma proactiva. Este sistema prioriza el contenido que es m&#xE1;s da&#xF1;ino para los usuarios, basado en m&#xFA;ltiples factores como viralidad, severidad de da&#xF1;o y probabilidad de violaci&#xF3;n. En un caso en el que nuestros sistemas detectan que hay una probabilidad alta de que el contenido infringe nuestras normas, es posible que lo eliminen. En casos en donde hay menor certeza, los sistemas priorizan el contenido para que sea revisado por los equipos.&#xA0; Juntos, estos tres aspectos de la tecnolog&#xED;a han transformado nuestro proceso de revisi&#xF3;n de contenido y mejorado ampliamente nuestra habilidad para moderar contenido a escala. Sin embargo, sigue habiendo &#xE1;reas en donde es cr&#xED;tico que haya personas a cargo de la revisi&#xF3;n. Por ejemplo, discernir si alguien es v&#xED;ctima de acoso depende en gran medida del contexto y de muchos otros factores. Adicionalmente, la IA se basa en una gran cantidad de datos de entrenamiento de las revisiones realizadas por nuestros equipos para identificar patrones de comportamiento significativos e identificar contenido potencialmente violatorio.&#xA0; Por ello, nuestro sistema de revisi&#xF3;n de contenido necesita tanto de las personas como de la tecnolog&#xED;a para ser exitoso. Nuestros equipos se concentran en casos en donde es esencial que haya personas revisando y aprovechamos la tecnolog&#xED;a para escalar nuestros esfuerzos en &#xE1;reas en donde puede ser m&#xE1;s efectivo.&#xA0; Usando m&#xE1;s la tecnolog&#xED;a Para revisar violaciones como el spam hemos usado con &#xE9;xito la automatizaci&#xF3;n durante a&#xF1;os. De cara al futuro, usaremos nuestros sistemas de automatizaci&#xF3;n para revisar m&#xE1;s contenido en todo tipo de violaciones. Esto significa que nuestros sistemas detectar&#xE1;n y remover&#xE1;n proactivamente m&#xE1;s contenido cuando haya una probabilidad extremadamente alta de que haya una infracci&#xF3;n y podremos priorizar mejor el trabajo de mayor impacto para nuestros equipos de revisi&#xF3;n. Con este cambio, ser&#xE1; menos probable que nuestros equipos revisen reportes de menor severidad que no est&#xE1;n siendo vistos ni compartidos por un gran n&#xFA;mero de personas en nuestras plataformas, y m&#xE1;s importante a&#xFA;n, dedicar&#xE1;n m&#xE1;s tiempo revisando las apelaciones de los usuarios y entrenando y midiendo la calidad de nuestros sistemas autom&#xE1;ticos. Esto nos ayudar&#xE1; a identificar nuevas tendencias y responder a las personas que est&#xE1;n intentado publicar contenido violatorio de forma adversativa.&#xA0; Continuaremos trabajando para hacer que nuestra plataforma sea lo m&#xE1;s segura posible, combinando las fortalezas de las personas y la tecnolog&#xED;a para detectar y remover contenido violatorio de forma m&#xE1;s r&#xE1;pida.</description></oembed>
