<?xml version="1.0"?>
<oembed><version>1.0</version><provider_name>Acerca de Meta</provider_name><provider_url>https://about.fb.com/ltam</provider_url><author_name>Meta</author_name><author_url>https://about.fb.com/ltam</author_url><title>Preguntas Dif&#xED;ciles: C&#xF3;mo combatimos el terrorismo | Acerca de Meta</title><type>rich</type><width>600</width><height>338</height><html>&lt;blockquote class="wp-embedded-content" data-secret="srAF0LosV5"&gt;&lt;a href="https://about.fb.com/ltam/news/2017/06/como-combatimos-el-terrorismo/"&gt;Preguntas Dif&#xED;ciles: C&#xF3;mo combatimos el terrorismo&lt;/a&gt;&lt;/blockquote&gt;&lt;iframe sandbox="allow-scripts" security="restricted" src="https://about.fb.com/ltam/news/2017/06/como-combatimos-el-terrorismo/embed/#?secret=srAF0LosV5" width="600" height="338" title="&#xAB;Preguntas Dif&#xED;ciles: C&#xF3;mo combatimos el terrorismo&#xBB; &#x2014; Acerca de Meta" data-secret="srAF0LosV5" frameborder="0" marginwidth="0" marginheight="0" scrolling="no" class="wp-embedded-content"&gt;&lt;/iframe&gt;&lt;script type="text/javascript"&gt;
/* &lt;![CDATA[ */
/*! This file is auto-generated */
!function(d,l){"use strict";l.querySelector&amp;&amp;d.addEventListener&amp;&amp;"undefined"!=typeof URL&amp;&amp;(d.wp=d.wp||{},d.wp.receiveEmbedMessage||(d.wp.receiveEmbedMessage=function(e){var t=e.data;if((t||t.secret||t.message||t.value)&amp;&amp;!/[^a-zA-Z0-9]/.test(t.secret)){for(var s,r,n,a=l.querySelectorAll('iframe[data-secret="'+t.secret+'"]'),o=l.querySelectorAll('blockquote[data-secret="'+t.secret+'"]'),c=new RegExp("^https?:$","i"),i=0;i&lt;o.length;i++)o[i].style.display="none";for(i=0;i&lt;a.length;i++)s=a[i],e.source===s.contentWindow&amp;&amp;(s.removeAttribute("style"),"height"===t.message?(1e3&lt;(r=parseInt(t.value,10))?r=1e3:~~r&lt;200&amp;&amp;(r=200),s.height=r):"link"===t.message&amp;&amp;(r=new URL(s.getAttribute("src")),n=new URL(t.value),c.test(n.protocol))&amp;&amp;n.host===r.host&amp;&amp;l.activeElement===s&amp;&amp;(d.top.location.href=t.value))}},d.addEventListener("message",d.wp.receiveEmbedMessage,!1),l.addEventListener("DOMContentLoaded",function(){for(var e,t,s=l.querySelectorAll("iframe.wp-embedded-content"),r=0;r&lt;s.length;r++)(t=(e=s[r]).getAttribute("data-secret"))||(t=Math.random().toString(36).substring(2,12),e.src+="#?secret="+t,e.setAttribute("data-secret",t)),e.contentWindow.postMessage({message:"ready",secret:t},"*")},!1)))}(window,document);
//# sourceURL=https://about.fb.com/ltam/wp-includes/js/wp-embed.min.js
/* ]]&gt; */
&lt;/script&gt;
</html><description>Por Monika Bickert, Directora Global de Gesti&#xF3;n de Pol&#xED;ticas de Contenido, y Brian Fishman, Gerente de Pol&#xED;ticas contra el Terrorismo A ra&#xED;z de los recientes ataques terroristas las personas han cuestionado el papel de las empresas de tecnolog&#xED;a en la lucha contra el terrorismo online. Queremos responder a esas preguntas de frente. Estamos de acuerdo con quienes dicen que las redes sociales no deben ser un lugar donde los terroristas tengan voz. Queremos ser muy claros respecto a la seriedad con que tomamos esto: mantener segura a nuestra comunidad en Facebook es fundamental para nuestra misi&#xF3;n. En esta publicaci&#xF3;n vamos a explicar el trabajo que realizamos detr&#xE1;s de bastidores, incluyendo la forma en que utilizamos inteligencia artificial para mantener el contenido terrorista fuera de Facebook, algo que hasta hoy no hemos divulgado p&#xFA;blicamente. Tambi&#xE9;n hablaremos sobre las personas que trabajan en antiterrorismo, algunas de las cuales han dedicado toda su carrera a combatirlo, y las formas en que colaboramos con socios por fuera de nuestra empresa. Nuestra postura es simple: no hay lugar en Facebook para el terrorismo. Eliminamos contenido de terroristas y publicaciones que apoyan el terrorismo en cuanto los detectamos. Cuando recibimos informes de posibles publicaciones de terrorismo las revisamos con urgencia y profundidad. Y en los raros casos en que descubrimos evidencia de un da&#xF1;o inminente, informamos a las autoridades de inmediato. Aunque investigaciones acad&#xE9;micas sostienen que la radicalizaci&#xF3;n de miembros de grupos como ISIS y Al Qaeda se produce principalmente offline, sabemos que Internet es un actor importante y no queremos que Facebook sea utilizado para ninguna actividad terrorista en absoluto. Creemos que la tecnolog&#xED;a, y Facebook, pueden ser parte de la soluci&#xF3;n. Hemos sido cautelosos, en parte porque no queremos sugerir que existe una soluci&#xF3;n t&#xE9;cnica simple. Es un enorme reto mantener a las personas seguras en una plataforma utilizada por casi 2.000 millones cada mes, que publican y comentan en m&#xE1;s de 80 idiomas en cada rinc&#xF3;n del mundo. Y tenemos mucho trabajo por delante. Pero queremos compartir lo que estamos haciendo y escuchar sus comentarios para que podamos hacerlo mejor. Inteligencia Artificial Queremos detectar el contenido terrorista de inmediato, antes que nuestra comunidad lo haya visto. Al d&#xED;a de hoy, la mayor&#xED;a de las cuentas que retiramos por terrorismo son detectadas por nuestro equipo. Pero sabemos que podemos hacer mejor uso de la tecnolog&#xED;a -y espec&#xED;ficamente la inteligencia artificial- para detener la propagaci&#xF3;n del contenido terrorista en Facebook. Aunque nuestro uso de la IA contra el terrorismo es bastante reciente, ya est&#xE1; cambiando la manera en que mantenemos fuera de Facebook potencial propaganda y cuentas terroristas. Actualmente estamos enfocando nuestras t&#xE9;cnicas m&#xE1;s avanzadas en combatir el contenido terrorista sobre ISIS, Al Qaeda y sus afiliados, y esperamos expandirlas a otras organizaciones terroristas a su debido tiempo. Estamos constantemente actualizando nuestras soluciones t&#xE9;cnicas, pero estos son algunos de nuestros actuales esfuerzos: Comparaci&#xF3;n de im&#xE1;genes. Cuando alguien intenta subir una foto o un video con contenido terrorista, nuestros sistemas analizan si la imagen coincide con una foto o video de terrorismo preexistente. Esto significa que si previamente eliminamos un video de propaganda de ISIS, podemos trabajar para evitar que otras cuentas suban el mismo video en nuestro sitio. En muchos casos eso significa que el contenido terrorista dise&#xF1;ado para su distribuci&#xF3;n en Facebook simplemente nunca llega a la plataforma. Comprensi&#xF3;n del lenguaje. Recientemente tambi&#xE9;n comenzamos a experimentar con el uso de IA para entender aquellos textos que podr&#xED;an ser propaganda terrorista. Actualmente estamos experimentando con el an&#xE1;lisis de texto favorable a organizaciones como ISIS y Al Qaeda que ya hemos eliminado, con el fin de desarrollar se&#xF1;ales basadas en texto para identificar propaganda terrorista. Este an&#xE1;lisis entra en un algoritmo que se encuentra en las primeras etapas del aprendizaje sobre c&#xF3;mo detectar publicaciones similares. Los algoritmos de aprendizaje autom&#xE1;tico o &#x201C;machine learning&#x201D; trabajan en un bucle de retroalimentaci&#xF3;n y mejoran con el tiempo. Eliminaci&#xF3;n de clusters terroristas. Sabemos por estudios sobre el terrorismo que &#xE9;stos tienden a radicalizarse y operar en grupos. Y esa tendencia en el mundo real se refleja en el mundo online. De modo que cuando identificamos p&#xE1;ginas, grupos, publicaciones o perfiles de apoyo al terrorismo, tambi&#xE9;n usamos algoritmos para intentar identificar material relacionado que tambi&#xE9;n puede apoyar el terrorismo. Utilizamos se&#xF1;ales como, por ejemplo, si una cuenta es amiga de un n&#xFA;mero elevado de cuentas que han sido inhabilitadas por terrorismo, o si una cuenta comparte los mismos atributos que una cuenta inhabilitada. Reincidencia. Tambi&#xE9;n hemos conseguido detectar mucho m&#xE1;s r&#xE1;pido nuevas cuentas falsas creadas por reincidentes. A trav&#xE9;s de este trabajo logramos reducir dram&#xE1;ticamente el per&#xED;odo de tiempo en que las cuentas de terroristas reincidentes permanecen en Facebook. Este es un trabajo constante, y los terroristas est&#xE1;n tambi&#xE9;n evolucionando continuamente sus m&#xE9;todos. Estamos constantemente identificando nuevas formas en que los actores terroristas tratan de eludir nuestros sistemas y actualizamos nuestras t&#xE1;cticas en consecuencia. Colaboraci&#xF3;n entre plataformas. No queremos que los terroristas tengan un lugar en la familia de aplicaciones de Facebook, por eso hemos comenzado a trabajar en sistemas que nos permitan tomar medidas contra cuentas terroristas en todas nuestras plataformas, incluyendo WhatsApp e Instagram. Debido a los datos limitados que algunas de nuestras aplicaciones recopilan como parte de su servicio, la capacidad de compartir datos entre toda la familia es indispensable para nuestros esfuerzos por mantener todas nuestras plataformas seguras. Expertise humana La Inteligencia Artificial no puede detectarlo todo. Determinar qu&#xE9; apoya el terrorismo y qu&#xE9; no, no siempre es sencillo y los algoritmos no son tan buenos como las personas cuando se trata de comprender este tipo de contexto. Una foto de un hombre armado agitando una bandera de ISIS puede tratarse de propaganda o material de reclutamiento, pero tambi&#xE9;n puede ser la imagen que ilustra a un art&#xED;culo period&#xED;stico. Algunas de las cr&#xED;ticas m&#xE1;s efectivas a agrupaciones brutales como ISIS utilizan la misma propaganda de la organizaci&#xF3;n en su contra. Y para comprender estos matices necesitamos de la experiencia humana. Reportes y revisiones. Nuestra comunidad, es decir las personas en Facebook, nos ayuda a reportar cuentas o contenido que puede violar nuestras pol&#xED;ticas, incluyendo la peque&#xF1;a fracci&#xF3;n que puede estar relacionada con el terrorismo. Nuestros equipos de Operaciones Comunitarias en todo el mundo &#x2013;al que incorporaremos 3.000 personas durante el pr&#xF3;ximo a&#xF1;o&#x2013; trabajan las 24 horas del d&#xED;a y en decenas de idiomas para revisar estos informes y determinar su contexto. Esto puede ser un trabajo incre&#xED;blemente dif&#xED;cil y apoyamos a estos revisores con asesoramiento in situ y entrenamiento de resiliencia. Especialistas en terrorismo y seguridad. En el &#xFA;ltimo a&#xF1;o tambi&#xE9;n hemos aumentado considerablemente nuestro equipo de especialistas en antitraterrorismo. En Facebook m&#xE1;s de 150 personas se dedican exclusiva o principalmente a la lucha contra el terrorismo como su principal responsabilidad. Esto incluye a expertos acad&#xE9;micos en antiterrorismo, ex fiscales, ex agentes de la ley, analistas e ingenieros. Dentro de este equipo especializado, hablamos casi 30 idiomas. Amenazas en el mundo real. Cada vez usamos m&#xE1;s la IA para identificar y eliminar el contenido terrorista, pero las computadoras no son muy buenas para identificar qu&#xE9; constituye una amenaza real que merece ser escalada a las autoridades. Tambi&#xE9;n contamos con un equipo global que responde en cuesti&#xF3;n de minutos a las solicitudes de emergencia de las instituciones del orden p&#xFA;blico. Asociaciones con terceros Trabajar para mantener al terrorismo fuera de Facebook no es suficiente, porque ellos pasan de una plataforma a otra. Por eso es crucial asociarnos con terceros &#x2013;incluyendo a otras compa&#xF1;&#xED;as, la sociedad civil, investigadores y gobierno. Cooperaci&#xF3;n con la industria. Para identificar y detener m&#xE1;s r&#xE1;pidamente la propagaci&#xF3;n del contenido terrorista en l&#xED;nea nos unimos hace seis meses a Microsoft, Twitter y YouTube para anunciar una base de datos compartida de &#xAB;hashes&#xBB; -huellas digitales &#xFA;nicas de fotos y videos- para contenido producido por o en apoyo a organizaciones terroristas. Esta colaboraci&#xF3;n ha resultado fruct&#xED;fera y esperamos sumar m&#xE1;s socios en el futuro. Agradecemos a las empresas asociadas por ayudar a mantener a Facebook un lugar seguro. Gobiernos. Los gobiernos y agencias intergubernamentales cumplen con el papel clave de reunir y suministrar conocimientos t&#xE9;cnicos, que a las empresas les resulta imposible desarrollar independientemente. Hemos aprendido mucho a trav&#xE9;s de informes de agencias en diferentes pa&#xED;ses sobre ISIS y los mecanismos de propaganda de Al Qaeda. Tambi&#xE9;n hemos participado y nos hemos beneficiado de esfuerzos para apoyar la colaboraci&#xF3;n de la industria por organizaciones como el Foro de Internet de la Uni&#xF3;n Europea, la Coalici&#xF3;n Global Contra Daesh y el Ministerio del Interior del Reino Unido. Cifrado. Sabemos que los terroristas a veces usan mensajes cifrados para comunicarse. La tecnolog&#xED;a de cifrado tiene muchos usos leg&#xED;timos, desde proteger nuestras cuentas bancarias en l&#xED;nea hasta mantener nuestras fotos seguras. Tambi&#xE9;n es esencial para periodistas, trabajadores de ONGs, activistas de derechos humanos y otros que necesitan saber que sus mensajes permanecer&#xE1;n seguros. Debido a la forma en que funciona el cifrad, no podemos leer el contenido de los mensajes cifrados individuales, pero proporcionamos la informaci&#xF3;n que podemos en respuesta a solicitudes de las autoridades, en conformidad con la ley aplicable y nuestras pol&#xED;ticas. Formaci&#xF3;n en contra discurso. Tambi&#xE9;n creemos que combatir las narrativas extremistas en l&#xED;nea es una parte valiosa de la respuesta al extremismo del mundo real. El contra discurso admite muchas formas, pero en su esencia se trata de esfuerzos para evitar que la gente lleve una vida llena de odio y violencia, o convencerla de abandonar ese tipo de vida. Pero este discurso solo es eficaz si proviene de fuentes cre&#xED;bles. Por eso nos hemos asociado con ONGs y grupos comunitarios para potenciar las voces que m&#xE1;s importan. Programas de socios. Apoyamos varios programas importantes de contra discurso. Por ejemplo, el a&#xF1;o pasado trabajamos con el Instituto para el Di&#xE1;logo Estrat&#xE9;gico para lanzar la Iniciativa de Coraje Civil Online, un proyecto junto a 100 organizaciones anti-odio y anti-extremismo en toda Europa. Tambi&#xE9;n hemos trabajado con Affinis Labs para realizar hackathons en lugares como Manila, Dhaka y Yakarta, donde los l&#xED;deres de la comunidad se unieron a empresarios de tecnolog&#xED;a para desarrollar soluciones innovadoras contra el extremismo y el odio en l&#xED;nea. Y, finalmente, el programa con mayor alcance global que hemos apoyado es un concurso de estudiantes organizado a trav&#xE9;s del P2P: Facebook Global Digital Challenge. En menos de dos a&#xF1;os, el P2P ha alcanzado a m&#xE1;s de 56 millones de personas en el mundo a trav&#xE9;s de m&#xE1;s de 500 campa&#xF1;as contra el odio y el extremismo creadas por m&#xE1;s de 5.500 estudiantes universitarios en 68 pa&#xED;ses. Nuestro compromiso Queremos que Facebook sea un lugar hostil para el terrorismo. El desaf&#xED;o para las comunidades online es el mismo que enfrentan las comunidades en el mundo f&#xED;sico: mejorar la detecci&#xF3;n temprana antes de que sea demasiado tarde. Estamos absolutamente comprometidos a mantener al terrorismo fuera de nuestra plataforma y continuaremos compartiendo m&#xE1;s informaci&#xF3;n sobre nuestro trabajo a medida que se desarrolle en el futuro.</description><thumbnail_url>https://about.fb.com/ltam/wp-content/uploads/sites/14/2021/10/meta-social-16x9-1.jpg?resize=1024,576</thumbnail_url><thumbnail_width>1024</thumbnail_width><thumbnail_height>576</thumbnail_height></oembed>
