{"version":"1.0","provider_name":"Acerca de Meta","provider_url":"https:\/\/about.fb.com\/ltam","author_name":"Meta","author_url":"https:\/\/about.fb.com\/ltam","title":"\u00bfC\u00f3mo revisamos el contenido? | Acerca de Meta","type":"rich","width":600,"height":338,"html":"<blockquote class=\"wp-embedded-content\" data-secret=\"woc9f7cpZY\"><a href=\"https:\/\/about.fb.com\/ltam\/news\/2020\/08\/como-revisamos-el-contenido\/\">\u00bfC\u00f3mo revisamos el contenido?<\/a><\/blockquote><iframe sandbox=\"allow-scripts\" security=\"restricted\" src=\"https:\/\/about.fb.com\/ltam\/news\/2020\/08\/como-revisamos-el-contenido\/embed\/#?secret=woc9f7cpZY\" width=\"600\" height=\"338\" title=\"&#171;\u00bfC\u00f3mo revisamos el contenido?&#187; &#8212; Acerca de Meta\" data-secret=\"woc9f7cpZY\" frameborder=\"0\" marginwidth=\"0\" marginheight=\"0\" scrolling=\"no\" class=\"wp-embedded-content\"><\/iframe><script type=\"text\/javascript\">\n\/* <![CDATA[ *\/\n\/*! This file is auto-generated *\/\n!function(d,l){\"use strict\";l.querySelector&&d.addEventListener&&\"undefined\"!=typeof URL&&(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&&!\/[^a-zA-Z0-9]\/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret=\"'+t.secret+'\"]'),o=l.querySelectorAll('blockquote[data-secret=\"'+t.secret+'\"]'),c=new RegExp(\"^https?:$\",\"i\"),i=0;i<o.length;i++)o[i].style.display=\"none\";for(i=0;i<a.length;i++)s=a[i],e.source===s.contentWindow&&(s.removeAttribute(\"style\"),\"height\"===t.message?(1e3<(r=parseInt(t.value,10))?r=1e3:~~r<200&&(r=200),s.height=r):\"link\"===t.message&&(r=new URL(s.getAttribute(\"src\")),n=new URL(t.value),c.test(n.protocol))&&n.host===r.host&&l.activeElement===s&&(d.top.location.href=t.value))}},d.addEventListener(\"message\",d.wp.receiveEmbedMessage,!1),l.addEventListener(\"DOMContentLoaded\",function(){for(var e,t,s=l.querySelectorAll(\"iframe.wp-embedded-content\"),r=0;r<s.length;r++)(t=(e=s[r]).getAttribute(\"data-secret\"))||(t=Math.random().toString(36).substring(2,12),e.src+=\"#?secret=\"+t,e.setAttribute(\"data-secret\",t)),e.contentWindow.postMessage({message:\"ready\",secret:t},\"*\")},!1)))}(window,document);\n\/\/# sourceURL=https:\/\/about.fb.com\/ltam\/wp-includes\/js\/wp-embed.min.js\n\/* ]]> *\/\n<\/script>\n","thumbnail_url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/08\/NRP-How_We_Review_Content_banner_FINAL.jpg?resize=1024,576","thumbnail_width":1024,"thumbnail_height":576,"description":"Cuando empezamos a revisar contenido en Facebook, hace ya m\u00e1s de una d\u00e9cada, nuestro sistema se basaba en los reportes que hac\u00edan las personas de cosas que ve\u00edan y consideraban inapropiadas. Luego, nuestros equipos revisaban y remov\u00edan piezas de contenido de forma individual, en caso de que estas violaran nuestras pol\u00edticas. Mucho ha cambiado desde entonces.\u00a0 Hemos desarrollado reglas m\u00e1s transparentes y estamos estableciendo un Consejo Asesor que pronto empezar\u00e1 a revisar algunas de nuestras decisiones de contenido m\u00e1s dif\u00edciles. Pero el mayor cambio ha sido el rol de la tecnolog\u00eda en la moderaci\u00f3n de contenido. Como lo muestra el Informe de cumplimiento de Normas Comunitarias, nuestra tecnolog\u00eda para detectar violaciones de las pol\u00edticas est\u00e1 mejorando y jugando un papel cada vez m\u00e1s importante en la revisi\u00f3n de contenido. Nuestra tecnolog\u00eda nos ayuda en tres \u00e1reas principales:\u00a0 Detecci\u00f3n proactiva: La Inteligencia Artificial (IA) ha mejorado al punto que puede detectar violaciones en diferentes \u00e1reas sin depender de los reportes de contenido de los usuarios de Facebook, la mayor\u00eda de las veces con m\u00e1s precisi\u00f3n que los reportes hechos por los usuarios. Esto nos ayuda a detectar contenido da\u00f1ino y evitar que sea visto por cientos o miles de personas.\u00a0 Automatizaci\u00f3n: La IA tambi\u00e9n ayuda a escalar el trabajo de nuestros revisores de contenido. Nuestros sistemas de IA automatizan las decisiones para ciertas \u00e1reas en donde es muy probable que el contenido sea violatorio. Esto nos ayuda a escalar las decisiones de contenido sin sacrificar la precisi\u00f3n, lo que permite a nuestros revisores de contenido enfocarse en decisiones que requieren de mayor especializaci\u00f3n para entender el contexto y los factores de una situaci\u00f3n particular. La automatizaci\u00f3n tambi\u00e9n facilita que se tomen acciones en reportes id\u00e9nticos, para que nuestros equipos no inviertan tiempo revisando el mismo contenido varias veces. Estos sistemas se volvieron a\u00fan m\u00e1s importantes durante la pandemia por COVID-19 con una fuerza laboral de revisores de contenido trabajando mayoritariamente desde casa.\u00a0 Priorizaci\u00f3n: En lugar de simplemente revisar el contenido en orden cronol\u00f3gico, nuestra IA prioriza el contenido m\u00e1s cr\u00edtico para que sea revisado, ya sea aquel que nos reportan o el que detectan nuestros sistemas de forma proactiva. Este sistema prioriza el contenido que es m\u00e1s da\u00f1ino para los usuarios, basado en m\u00faltiples factores como viralidad, severidad de da\u00f1o y probabilidad de violaci\u00f3n. En un caso en el que nuestros sistemas detectan que hay una probabilidad alta de que el contenido infringe nuestras normas, es posible que lo eliminen. En casos en donde hay menor certeza, los sistemas priorizan el contenido para que sea revisado por los equipos.\u00a0 Juntos, estos tres aspectos de la tecnolog\u00eda han transformado nuestro proceso de revisi\u00f3n de contenido y mejorado ampliamente nuestra habilidad para moderar contenido a escala. Sin embargo, sigue habiendo \u00e1reas en donde es cr\u00edtico que haya personas a cargo de la revisi\u00f3n. Por ejemplo, discernir si alguien es v\u00edctima de acoso depende en gran medida del contexto y de muchos otros factores. Adicionalmente, la IA se basa en una gran cantidad de datos de entrenamiento de las revisiones realizadas por nuestros equipos para identificar patrones de comportamiento significativos e identificar contenido potencialmente violatorio.\u00a0 Por ello, nuestro sistema de revisi\u00f3n de contenido necesita tanto de las personas como de la tecnolog\u00eda para ser exitoso. Nuestros equipos se concentran en casos en donde es esencial que haya personas revisando y aprovechamos la tecnolog\u00eda para escalar nuestros esfuerzos en \u00e1reas en donde puede ser m\u00e1s efectivo.\u00a0 Usando m\u00e1s la tecnolog\u00eda Para revisar violaciones como el spam hemos usado con \u00e9xito la automatizaci\u00f3n durante a\u00f1os. De cara al futuro, usaremos nuestros sistemas de automatizaci\u00f3n para revisar m\u00e1s contenido en todo tipo de violaciones. Esto significa que nuestros sistemas detectar\u00e1n y remover\u00e1n proactivamente m\u00e1s contenido cuando haya una probabilidad extremadamente alta de que haya una infracci\u00f3n y podremos priorizar mejor el trabajo de mayor impacto para nuestros equipos de revisi\u00f3n. Con este cambio, ser\u00e1 menos probable que nuestros equipos revisen reportes de menor severidad que no est\u00e1n siendo vistos ni compartidos por un gran n\u00famero de personas en nuestras plataformas, y m\u00e1s importante a\u00fan, dedicar\u00e1n m\u00e1s tiempo revisando las apelaciones de los usuarios y entrenando y midiendo la calidad de nuestros sistemas autom\u00e1ticos. Esto nos ayudar\u00e1 a identificar nuevas tendencias y responder a las personas que est\u00e1n intentado publicar contenido violatorio de forma adversativa.\u00a0 Continuaremos trabajando para hacer que nuestra plataforma sea lo m\u00e1s segura posible, combinando las fortalezas de las personas y la tecnolog\u00eda para detectar y remover contenido violatorio de forma m\u00e1s r\u00e1pida."}