{"id":6051,"date":"2017-06-15T20:32:33","date_gmt":"2017-06-16T01:32:33","guid":{"rendered":"http:\/\/ltam.newsroom.fb.com\/?p=6051"},"modified":"2017-10-09T13:46:45","modified_gmt":"2017-10-09T18:46:45","slug":"como-combatimos-el-terrorismo","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/","title":{"rendered":"Preguntas Dif\u00edciles: C\u00f3mo combatimos el terrorismo"},"content":{"rendered":"<p><i>Por Monika Bickert, Directora Global de Gesti\u00f3n de Pol\u00edticas de Contenido, y Brian Fishman, Gerente de Pol\u00edticas contra el Terrorismo<\/i><\/p>\n<p>A ra\u00edz de los recientes ataques terroristas las personas han cuestionado el papel de las empresas de tecnolog\u00eda en la lucha contra el terrorismo online. Queremos responder a esas preguntas de frente. Estamos de acuerdo con quienes dicen que las redes sociales no deben ser un lugar donde los terroristas tengan voz. Queremos ser muy claros respecto a la seriedad con que tomamos esto: mantener segura a nuestra comunidad en Facebook es fundamental para nuestra misi\u00f3n.<\/p>\n<p>En esta publicaci\u00f3n vamos a explicar el trabajo que realizamos detr\u00e1s de bastidores, incluyendo la forma en que utilizamos inteligencia artificial para mantener el contenido terrorista fuera de Facebook, algo que hasta hoy no hemos divulgado p\u00fablicamente. Tambi\u00e9n hablaremos sobre las personas que trabajan en antiterrorismo, algunas de las cuales han dedicado toda su carrera a combatirlo, y las formas en que colaboramos con socios por fuera de nuestra empresa.<\/p>\n<p>Nuestra postura es simple: no hay lugar en Facebook para el terrorismo. Eliminamos contenido de terroristas y publicaciones que apoyan el terrorismo en cuanto los detectamos. Cuando recibimos informes de posibles publicaciones de terrorismo las revisamos con urgencia y profundidad. Y en los raros casos en que descubrimos evidencia de un da\u00f1o inminente, informamos a las autoridades de inmediato. Aunque investigaciones acad\u00e9micas sostienen que la radicalizaci\u00f3n de miembros de grupos como ISIS y Al Qaeda se produce principalmente offline, sabemos que Internet es un actor importante y no queremos que Facebook sea utilizado para ninguna actividad terrorista en absoluto.<\/p>\n<p>Creemos que la tecnolog\u00eda, y Facebook, pueden ser parte de la soluci\u00f3n.<\/p>\n<p>Hemos sido cautelosos, en parte porque no queremos sugerir que existe una soluci\u00f3n t\u00e9cnica simple. Es un enorme reto mantener a las personas seguras en una plataforma utilizada por casi 2.000 millones cada mes, que publican y comentan en m\u00e1s de 80 idiomas en cada rinc\u00f3n del mundo. Y tenemos mucho trabajo por delante. Pero queremos compartir lo que estamos haciendo y escuchar sus comentarios para que podamos hacerlo mejor.<\/p>\n<h4><b>Inteligencia Artificial <\/b><\/h4>\n<p>Queremos detectar el contenido terrorista de inmediato, antes que nuestra comunidad lo haya visto. Al d\u00eda de hoy, la mayor\u00eda de las cuentas que retiramos por terrorismo son detectadas por nuestro equipo. Pero sabemos que podemos hacer mejor uso de la tecnolog\u00eda -y espec\u00edficamente la inteligencia artificial- para detener la propagaci\u00f3n del contenido terrorista en Facebook. Aunque nuestro uso de la IA contra el terrorismo es bastante reciente, ya est\u00e1 cambiando la manera en que mantenemos fuera de Facebook potencial propaganda y cuentas terroristas. Actualmente estamos enfocando nuestras t\u00e9cnicas m\u00e1s avanzadas en combatir el contenido terrorista sobre ISIS, Al Qaeda y sus afiliados, y esperamos expandirlas a otras organizaciones terroristas a su debido tiempo. Estamos constantemente actualizando nuestras soluciones t\u00e9cnicas, pero estos son algunos de nuestros actuales esfuerzos:<\/p>\n<p><i>Comparaci\u00f3n de im\u00e1genes. <\/i>Cuando alguien intenta subir una foto o un video con contenido terrorista, nuestros sistemas analizan si la imagen coincide con una foto o video de terrorismo preexistente. Esto significa que si previamente eliminamos un video de propaganda de ISIS, podemos trabajar para evitar que otras cuentas suban el mismo video en nuestro sitio. En muchos casos eso significa que el contenido terrorista dise\u00f1ado para su distribuci\u00f3n en Facebook simplemente nunca llega a la plataforma.<\/p>\n<p><i>Comprensi\u00f3n del lenguaje.<\/i> Recientemente tambi\u00e9n comenzamos a experimentar con el uso de IA para entender aquellos textos que podr\u00edan ser propaganda terrorista. Actualmente estamos experimentando con el an\u00e1lisis de texto favorable a organizaciones como ISIS y Al Qaeda que ya hemos eliminado, con el fin de desarrollar se\u00f1ales basadas en texto para identificar propaganda terrorista. Este an\u00e1lisis entra en un algoritmo que se encuentra en las primeras etapas del aprendizaje sobre c\u00f3mo detectar publicaciones similares. Los algoritmos de aprendizaje autom\u00e1tico o \u201cmachine learning\u201d trabajan en un bucle de retroalimentaci\u00f3n y mejoran con el tiempo.<\/p>\n<p><i>Eliminaci\u00f3n de clusters terroristas.<\/i> Sabemos por estudios sobre el terrorismo que \u00e9stos tienden a radicalizarse y operar en grupos. Y esa tendencia en el mundo real se refleja en el mundo online. De modo que cuando identificamos p\u00e1ginas, grupos, publicaciones o perfiles de apoyo al terrorismo, tambi\u00e9n usamos algoritmos para intentar identificar material relacionado que tambi\u00e9n puede apoyar el terrorismo. Utilizamos se\u00f1ales como, por ejemplo, si una cuenta es amiga de un n\u00famero elevado de cuentas que han sido inhabilitadas por terrorismo, o si una cuenta comparte los mismos atributos que una cuenta inhabilitada.<\/p>\n<p><i>Reincidencia.<\/i> Tambi\u00e9n hemos conseguido detectar mucho m\u00e1s r\u00e1pido nuevas cuentas falsas creadas por reincidentes. A trav\u00e9s de este trabajo logramos reducir dram\u00e1ticamente el per\u00edodo de tiempo en que las cuentas de terroristas reincidentes permanecen en Facebook. Este es un trabajo constante, y los terroristas est\u00e1n tambi\u00e9n evolucionando continuamente sus m\u00e9todos. Estamos constantemente identificando nuevas formas en que los actores terroristas tratan de eludir nuestros sistemas y actualizamos nuestras t\u00e1cticas en consecuencia.<\/p>\n<p><i>Colaboraci\u00f3n entre plataformas.<\/i> No queremos que los terroristas tengan un lugar en la familia de aplicaciones de Facebook, por eso hemos comenzado a trabajar en sistemas que nos permitan tomar medidas contra cuentas terroristas en todas nuestras plataformas, incluyendo WhatsApp e Instagram. Debido a los datos limitados que algunas de nuestras aplicaciones recopilan como parte de su servicio, la capacidad de compartir datos entre toda la familia es indispensable para nuestros esfuerzos por mantener todas nuestras plataformas seguras.<\/p>\n<h4><b>Expertise humana <\/b><\/h4>\n<p>La Inteligencia Artificial no puede detectarlo todo. Determinar qu\u00e9 apoya el terrorismo y qu\u00e9 no, no siempre es sencillo y los algoritmos no son tan buenos como las personas cuando se trata de comprender este tipo de contexto. Una foto de un hombre armado agitando una bandera de ISIS puede tratarse de propaganda o material de reclutamiento, pero tambi\u00e9n puede ser la imagen que ilustra a un art\u00edculo period\u00edstico. Algunas de las cr\u00edticas m\u00e1s efectivas a agrupaciones brutales como ISIS utilizan la misma propaganda de la organizaci\u00f3n en su contra. Y para comprender estos matices necesitamos de la experiencia humana.<\/p>\n<p><i>Reportes y revisiones.<\/i> Nuestra comunidad, es decir las personas en Facebook, nos ayuda a reportar cuentas o contenido que puede violar nuestras pol\u00edticas, incluyendo la peque\u00f1a fracci\u00f3n que puede estar relacionada con el terrorismo. Nuestros equipos de Operaciones Comunitarias en todo el mundo \u2013al que <a href=\"https:\/\/www.facebook.com\/zuck\/posts\/10103695315624661\">incorporaremos 3.000 personas durante el pr\u00f3ximo a\u00f1o<\/a>&#8211; trabajan las 24 horas del d\u00eda y en decenas de idiomas para revisar estos informes y determinar su contexto. Esto puede ser un trabajo incre\u00edblemente dif\u00edcil y apoyamos a estos revisores con asesoramiento in situ y entrenamiento de resiliencia.<\/p>\n<p><i>Especialistas en terrorismo y seguridad.<\/i> En el \u00faltimo a\u00f1o tambi\u00e9n hemos aumentado considerablemente nuestro equipo de especialistas en antitraterrorismo. En Facebook m\u00e1s de 150 personas se dedican exclusiva o principalmente a la lucha contra el terrorismo como su principal responsabilidad. Esto incluye a expertos acad\u00e9micos en antiterrorismo, ex fiscales, ex agentes de la ley, analistas e ingenieros. Dentro de este equipo especializado, hablamos casi 30 idiomas.<\/p>\n<p><i>Amenazas en el mundo real.<\/i> Cada vez usamos m\u00e1s la IA para identificar y eliminar el contenido terrorista, pero las computadoras no son muy buenas para identificar qu\u00e9 constituye una amenaza real que merece ser escalada a las autoridades. Tambi\u00e9n contamos con un equipo global que responde en cuesti\u00f3n de minutos a las solicitudes de emergencia de las instituciones del orden p\u00fablico.<\/p>\n<p><b>Asociaciones con terceros<\/b><\/p>\n<p>Trabajar para mantener al terrorismo fuera de Facebook no es suficiente, porque ellos pasan de una plataforma a otra. Por eso es crucial asociarnos con terceros \u2013incluyendo a otras compa\u00f1\u00edas, la sociedad civil, investigadores y gobierno.<\/p>\n<p><i>Cooperaci\u00f3n con la industria. <\/i>Para identificar y detener m\u00e1s r\u00e1pidamente la propagaci\u00f3n del contenido terrorista en l\u00ednea nos unimos hace seis meses a Microsoft, Twitter y YouTube <a href=\"https:\/\/newsroom.fb.com\/news\/2016\/12\/partnering-to-help-curb-spread-of-online-terrorist-content\/\">para anunciar<\/a> una base de datos compartida de \u00abhashes\u00bb -huellas digitales \u00fanicas de fotos y videos- para contenido producido por o en apoyo a organizaciones terroristas. Esta colaboraci\u00f3n ha resultado fruct\u00edfera y esperamos sumar m\u00e1s socios en el futuro. Agradecemos a las empresas asociadas por ayudar a mantener a Facebook un lugar seguro.<\/p>\n<p><i>Gobiernos. <\/i>Los gobiernos y agencias intergubernamentales cumplen con el papel clave de reunir y suministrar conocimientos t\u00e9cnicos, que a las empresas les resulta imposible desarrollar independientemente. Hemos aprendido mucho a trav\u00e9s de informes de agencias en diferentes pa\u00edses sobre ISIS y los mecanismos de propaganda de Al Qaeda. Tambi\u00e9n hemos participado y nos hemos beneficiado de esfuerzos para apoyar la colaboraci\u00f3n de la industria por organizaciones como el Foro de Internet de la Uni\u00f3n Europea, la Coalici\u00f3n Global Contra Daesh y el Ministerio del Interior del Reino Unido.<\/p>\n<p><i>Cifrado.<\/i> Sabemos que los terroristas a veces usan mensajes cifrados para comunicarse. La tecnolog\u00eda de cifrado tiene muchos usos leg\u00edtimos, desde proteger nuestras cuentas bancarias en l\u00ednea hasta mantener nuestras fotos seguras. Tambi\u00e9n es esencial para periodistas, trabajadores de ONGs, activistas de derechos humanos y otros que necesitan saber que sus mensajes permanecer\u00e1n seguros. Debido a la forma en que funciona el cifrad, no podemos leer el contenido de los mensajes cifrados individuales, pero proporcionamos la informaci\u00f3n que podemos en respuesta a solicitudes de las autoridades, en conformidad con la ley aplicable y nuestras pol\u00edticas.<\/p>\n<p><i>Formaci\u00f3n en contra discurso. <\/i>Tambi\u00e9n creemos que combatir las narrativas extremistas en l\u00ednea es una parte valiosa de la respuesta al extremismo del mundo real. El contra discurso admite muchas formas, pero en su esencia se trata de esfuerzos para evitar que la gente lleve una vida llena de odio y violencia, o convencerla de abandonar ese tipo de vida. Pero este discurso solo es eficaz si proviene de fuentes cre\u00edbles. Por eso nos hemos asociado con ONGs y grupos comunitarios para potenciar las voces que m\u00e1s importan.<br \/>\n<i> <\/i><br \/>\n<i>Programas de socios. <\/i>Apoyamos varios programas importantes de contra discurso. Por ejemplo, el a\u00f1o pasado trabajamos con el Instituto para el Di\u00e1logo Estrat\u00e9gico para lanzar la Iniciativa de Coraje Civil Online, un proyecto junto a 100 organizaciones anti-odio y anti-extremismo en toda Europa. Tambi\u00e9n hemos trabajado con Affinis Labs para realizar hackathons en lugares como Manila, Dhaka y Yakarta, donde los l\u00edderes de la comunidad se unieron a empresarios de tecnolog\u00eda para desarrollar soluciones innovadoras contra el extremismo y el odio en l\u00ednea. Y, finalmente, el programa con mayor alcance global que hemos apoyado es un concurso de estudiantes organizado a trav\u00e9s del <i>P2P: Facebook Global Digital Challenge<\/i>. En menos de dos a\u00f1os, el P2P ha alcanzado a m\u00e1s de 56 millones de personas en el mundo a trav\u00e9s de m\u00e1s de 500 campa\u00f1as contra el odio y el extremismo creadas por m\u00e1s de 5.500 estudiantes universitarios en 68 pa\u00edses.<\/p>\n<h4><b>Nuestro compromiso <\/b><\/h4>\n<p>Queremos que Facebook sea un lugar hostil para el terrorismo. El desaf\u00edo para las comunidades online es el mismo que enfrentan las comunidades en el mundo f\u00edsico: mejorar la detecci\u00f3n temprana antes de que sea demasiado tarde. Estamos absolutamente comprometidos a mantener al terrorismo fuera de nuestra plataforma y continuaremos compartiendo m\u00e1s informaci\u00f3n sobre nuestro trabajo a medida que se desarrolle en el futuro.<\/p>\n","protected":false},"excerpt":{"rendered":"Por Monika Bickert, Directora Global de Gesti\u00f3n de Pol\u00edticas de Contenido, y Brian Fishman, Gerente de Pol\u00edticas contra el Terrorismo A ra\u00edz de los recientes ataques terroristas las personas han cuestionado el papel de las empresas de tecnolog\u00eda en la lucha contra el terrorismo online. Queremos responder a esas preguntas de frente. Estamos de acuerdo con quienes dicen que las redes sociales no deben ser un lugar donde los terroristas tengan voz. Queremos ser muy claros respecto a la seriedad con que tomamos esto: mantener segura a nuestra comunidad en Facebook es fundamental para nuestra misi\u00f3n. En esta publicaci\u00f3n vamos a explicar el trabajo que realizamos detr\u00e1s de bastidores, incluyendo la forma en que utilizamos inteligencia artificial para mantener el contenido terrorista fuera de Facebook, algo que hasta hoy no hemos divulgado p\u00fablicamente. Tambi\u00e9n hablaremos sobre las personas que trabajan en antiterrorismo, algunas de las cuales han dedicado toda su carrera a combatirlo, y las formas en que colaboramos con socios por fuera de nuestra empresa. Nuestra postura es simple: no hay lugar en Facebook para el terrorismo. Eliminamos contenido de terroristas y publicaciones que apoyan el terrorismo en cuanto los detectamos. Cuando recibimos informes de posibles publicaciones de terrorismo las revisamos con urgencia y profundidad. Y en los raros casos en que descubrimos evidencia de un da\u00f1o inminente, informamos a las autoridades de inmediato. Aunque investigaciones acad\u00e9micas sostienen que la radicalizaci\u00f3n de miembros de grupos como ISIS y Al Qaeda se produce principalmente offline, sabemos que Internet es un actor importante y no queremos que Facebook sea utilizado para ninguna actividad terrorista en absoluto. Creemos que la tecnolog\u00eda, y Facebook, pueden ser parte de la soluci\u00f3n. Hemos sido cautelosos, en parte porque no queremos sugerir que existe una soluci\u00f3n t\u00e9cnica simple. Es un enorme reto mantener a las personas seguras en una plataforma utilizada por casi 2.000 millones cada mes, que publican y comentan en m\u00e1s de 80 idiomas en cada rinc\u00f3n del mundo. Y tenemos mucho trabajo por delante. Pero queremos compartir lo que estamos haciendo y escuchar sus comentarios para que podamos hacerlo mejor. Inteligencia Artificial Queremos detectar el contenido terrorista de inmediato, antes que nuestra comunidad lo haya visto. Al d\u00eda de hoy, la mayor\u00eda de las cuentas que retiramos por terrorismo son detectadas por nuestro equipo. Pero sabemos que podemos hacer mejor uso de la tecnolog\u00eda -y espec\u00edficamente la inteligencia artificial- para detener la propagaci\u00f3n del contenido terrorista en Facebook. Aunque nuestro uso de la IA contra el terrorismo es bastante reciente, ya est\u00e1 cambiando la manera en que mantenemos fuera de Facebook potencial propaganda y cuentas terroristas. Actualmente estamos enfocando nuestras t\u00e9cnicas m\u00e1s avanzadas en combatir el contenido terrorista sobre ISIS, Al Qaeda y sus afiliados, y esperamos expandirlas a otras organizaciones terroristas a su debido tiempo. Estamos constantemente actualizando nuestras soluciones t\u00e9cnicas, pero estos son algunos de nuestros actuales esfuerzos: Comparaci\u00f3n de im\u00e1genes. Cuando alguien intenta subir una foto o un video con contenido terrorista, nuestros sistemas analizan si la imagen coincide con una foto o video de terrorismo preexistente. Esto significa que si previamente eliminamos un video de propaganda de ISIS, podemos trabajar para evitar que otras cuentas suban el mismo video en nuestro sitio. En muchos casos eso significa que el contenido terrorista dise\u00f1ado para su distribuci\u00f3n en Facebook simplemente nunca llega a la plataforma. Comprensi\u00f3n del lenguaje. Recientemente tambi\u00e9n comenzamos a experimentar con el uso de IA para entender aquellos textos que podr\u00edan ser propaganda terrorista. Actualmente estamos experimentando con el an\u00e1lisis de texto favorable a organizaciones como ISIS y Al Qaeda que ya hemos eliminado, con el fin de desarrollar se\u00f1ales basadas en texto para identificar propaganda terrorista. Este an\u00e1lisis entra en un algoritmo que se encuentra en las primeras etapas del aprendizaje sobre c\u00f3mo detectar publicaciones similares. Los algoritmos de aprendizaje autom\u00e1tico o \u201cmachine learning\u201d trabajan en un bucle de retroalimentaci\u00f3n y mejoran con el tiempo. Eliminaci\u00f3n de clusters terroristas. Sabemos por estudios sobre el terrorismo que \u00e9stos tienden a radicalizarse y operar en grupos. Y esa tendencia en el mundo real se refleja en el mundo online. De modo que cuando identificamos p\u00e1ginas, grupos, publicaciones o perfiles de apoyo al terrorismo, tambi\u00e9n usamos algoritmos para intentar identificar material relacionado que tambi\u00e9n puede apoyar el terrorismo. Utilizamos se\u00f1ales como, por ejemplo, si una cuenta es amiga de un n\u00famero elevado de cuentas que han sido inhabilitadas por terrorismo, o si una cuenta comparte los mismos atributos que una cuenta inhabilitada. Reincidencia. Tambi\u00e9n hemos conseguido detectar mucho m\u00e1s r\u00e1pido nuevas cuentas falsas creadas por reincidentes. A trav\u00e9s de este trabajo logramos reducir dram\u00e1ticamente el per\u00edodo de tiempo en que las cuentas de terroristas reincidentes permanecen en Facebook. Este es un trabajo constante, y los terroristas est\u00e1n tambi\u00e9n evolucionando continuamente sus m\u00e9todos. Estamos constantemente identificando nuevas formas en que los actores terroristas tratan de eludir nuestros sistemas y actualizamos nuestras t\u00e1cticas en consecuencia. Colaboraci\u00f3n entre plataformas. No queremos que los terroristas tengan un lugar en la familia de aplicaciones de Facebook, por eso hemos comenzado a trabajar en sistemas que nos permitan tomar medidas contra cuentas terroristas en todas nuestras plataformas, incluyendo WhatsApp e Instagram. Debido a los datos limitados que algunas de nuestras aplicaciones recopilan como parte de su servicio, la capacidad de compartir datos entre toda la familia es indispensable para nuestros esfuerzos por mantener todas nuestras plataformas seguras. Expertise humana La Inteligencia Artificial no puede detectarlo todo. Determinar qu\u00e9 apoya el terrorismo y qu\u00e9 no, no siempre es sencillo y los algoritmos no son tan buenos como las personas cuando se trata de comprender este tipo de contexto. Una foto de un hombre armado agitando una bandera de ISIS puede tratarse de propaganda o material de reclutamiento, pero tambi\u00e9n puede ser la imagen que ilustra a un art\u00edculo period\u00edstico. Algunas de las cr\u00edticas m\u00e1s efectivas a agrupaciones brutales como ISIS utilizan la misma propaganda de la organizaci\u00f3n en su contra. Y para comprender estos matices necesitamos de la experiencia humana. Reportes y revisiones. Nuestra comunidad, es decir las personas en Facebook, nos ayuda a reportar cuentas o contenido que puede violar nuestras pol\u00edticas, incluyendo la peque\u00f1a fracci\u00f3n que puede estar relacionada con el terrorismo. Nuestros equipos de Operaciones Comunitarias en todo el mundo \u2013al que incorporaremos 3.000 personas durante el pr\u00f3ximo a\u00f1o&#8211; trabajan las 24 horas del d\u00eda y en decenas de idiomas para revisar estos informes y determinar su contexto. Esto puede ser un trabajo incre\u00edblemente dif\u00edcil y apoyamos a estos revisores con asesoramiento in situ y entrenamiento de resiliencia. Especialistas en terrorismo y seguridad. En el \u00faltimo a\u00f1o tambi\u00e9n hemos aumentado considerablemente nuestro equipo de especialistas en antitraterrorismo. En Facebook m\u00e1s de 150 personas se dedican exclusiva o principalmente a la lucha contra el terrorismo como su principal responsabilidad. Esto incluye a expertos acad\u00e9micos en antiterrorismo, ex fiscales, ex agentes de la ley, analistas e ingenieros. Dentro de este equipo especializado, hablamos casi 30 idiomas. Amenazas en el mundo real. Cada vez usamos m\u00e1s la IA para identificar y eliminar el contenido terrorista, pero las computadoras no son muy buenas para identificar qu\u00e9 constituye una amenaza real que merece ser escalada a las autoridades. Tambi\u00e9n contamos con un equipo global que responde en cuesti\u00f3n de minutos a las solicitudes de emergencia de las instituciones del orden p\u00fablico. Asociaciones con terceros Trabajar para mantener al terrorismo fuera de Facebook no es suficiente, porque ellos pasan de una plataforma a otra. Por eso es crucial asociarnos con terceros \u2013incluyendo a otras compa\u00f1\u00edas, la sociedad civil, investigadores y gobierno. Cooperaci\u00f3n con la industria. Para identificar y detener m\u00e1s r\u00e1pidamente la propagaci\u00f3n del contenido terrorista en l\u00ednea nos unimos hace seis meses a Microsoft, Twitter y YouTube para anunciar una base de datos compartida de \u00abhashes\u00bb -huellas digitales \u00fanicas de fotos y videos- para contenido producido por o en apoyo a organizaciones terroristas. Esta colaboraci\u00f3n ha resultado fruct\u00edfera y esperamos sumar m\u00e1s socios en el futuro. Agradecemos a las empresas asociadas por ayudar a mantener a Facebook un lugar seguro. Gobiernos. Los gobiernos y agencias intergubernamentales cumplen con el papel clave de reunir y suministrar conocimientos t\u00e9cnicos, que a las empresas les resulta imposible desarrollar independientemente. Hemos aprendido mucho a trav\u00e9s de informes de agencias en diferentes pa\u00edses sobre ISIS y los mecanismos de propaganda de Al Qaeda. Tambi\u00e9n hemos participado y nos hemos beneficiado de esfuerzos para apoyar la colaboraci\u00f3n de la industria por organizaciones como el Foro de Internet de la Uni\u00f3n Europea, la Coalici\u00f3n Global Contra Daesh y el Ministerio del Interior del Reino Unido. Cifrado. Sabemos que los terroristas a veces usan mensajes cifrados para comunicarse. La tecnolog\u00eda de cifrado tiene muchos usos leg\u00edtimos, desde proteger nuestras cuentas bancarias en l\u00ednea hasta mantener nuestras fotos seguras. Tambi\u00e9n es esencial para periodistas, trabajadores de ONGs, activistas de derechos humanos y otros que necesitan saber que sus mensajes permanecer\u00e1n seguros. Debido a la forma en que funciona el cifrad, no podemos leer el contenido de los mensajes cifrados individuales, pero proporcionamos la informaci\u00f3n que podemos en respuesta a solicitudes de las autoridades, en conformidad con la ley aplicable y nuestras pol\u00edticas. Formaci\u00f3n en contra discurso. Tambi\u00e9n creemos que combatir las narrativas extremistas en l\u00ednea es una parte valiosa de la respuesta al extremismo del mundo real. El contra discurso admite muchas formas, pero en su esencia se trata de esfuerzos para evitar que la gente lleve una vida llena de odio y violencia, o convencerla de abandonar ese tipo de vida. Pero este discurso solo es eficaz si proviene de fuentes cre\u00edbles. Por eso nos hemos asociado con ONGs y grupos comunitarios para potenciar las voces que m\u00e1s importan. Programas de socios. Apoyamos varios programas importantes de contra discurso. Por ejemplo, el a\u00f1o pasado trabajamos con el Instituto para el Di\u00e1logo Estrat\u00e9gico para lanzar la Iniciativa de Coraje Civil Online, un proyecto junto a 100 organizaciones anti-odio y anti-extremismo en toda Europa. Tambi\u00e9n hemos trabajado con Affinis Labs para realizar hackathons en lugares como Manila, Dhaka y Yakarta, donde los l\u00edderes de la comunidad se unieron a empresarios de tecnolog\u00eda para desarrollar soluciones innovadoras contra el extremismo y el odio en l\u00ednea. Y, finalmente, el programa con mayor alcance global que hemos apoyado es un concurso de estudiantes organizado a trav\u00e9s del P2P: Facebook Global Digital Challenge. En menos de dos a\u00f1os, el P2P ha alcanzado a m\u00e1s de 56 millones de personas en el mundo a trav\u00e9s de m\u00e1s de 500 campa\u00f1as contra el odio y el extremismo creadas por m\u00e1s de 5.500 estudiantes universitarios en 68 pa\u00edses. Nuestro compromiso Queremos que Facebook sea un lugar hostil para el terrorismo. El desaf\u00edo para las comunidades online es el mismo que enfrentan las comunidades en el mundo f\u00edsico: mejorar la detecci\u00f3n temprana antes de que sea demasiado tarde. Estamos absolutamente comprometidos a mantener al terrorismo fuera de nuestra plataforma y continuaremos compartiendo m\u00e1s informaci\u00f3n sobre nuestro trabajo a medida que se desarrolle en el futuro.","protected":false},"author":95829248,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243947919],"tags":[243947937],"class_list":["post-6051","post","type-post","status-publish","format-standard","hentry","category-preguntas-dificiles","tag-terrorismo"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Preguntas Dif\u00edciles: C\u00f3mo combatimos el terrorismo | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Preguntas Dif\u00edciles: C\u00f3mo combatimos el terrorismo | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Por Monika Bickert, Directora Global de Gesti\u00f3n de Pol\u00edticas de Contenido, y Brian Fishman, Gerente de Pol\u00edticas contra el Terrorismo A ra\u00edz de los recientes ataques terroristas las personas han cuestionado el papel de las empresas de tecnolog\u00eda en la lucha contra el terrorismo online. Queremos responder a esas preguntas de frente. Estamos de acuerdo con quienes dicen que las redes sociales no deben ser un lugar donde los terroristas tengan voz. Queremos ser muy claros respecto a la seriedad con que tomamos esto: mantener segura a nuestra comunidad en Facebook es fundamental para nuestra misi\u00f3n. En esta publicaci\u00f3n vamos a explicar el trabajo que realizamos detr\u00e1s de bastidores, incluyendo la forma en que utilizamos inteligencia artificial para mantener el contenido terrorista fuera de Facebook, algo que hasta hoy no hemos divulgado p\u00fablicamente. Tambi\u00e9n hablaremos sobre las personas que trabajan en antiterrorismo, algunas de las cuales han dedicado toda su carrera a combatirlo, y las formas en que colaboramos con socios por fuera de nuestra empresa. Nuestra postura es simple: no hay lugar en Facebook para el terrorismo. Eliminamos contenido de terroristas y publicaciones que apoyan el terrorismo en cuanto los detectamos. Cuando recibimos informes de posibles publicaciones de terrorismo las revisamos con urgencia y profundidad. Y en los raros casos en que descubrimos evidencia de un da\u00f1o inminente, informamos a las autoridades de inmediato. Aunque investigaciones acad\u00e9micas sostienen que la radicalizaci\u00f3n de miembros de grupos como ISIS y Al Qaeda se produce principalmente offline, sabemos que Internet es un actor importante y no queremos que Facebook sea utilizado para ninguna actividad terrorista en absoluto. Creemos que la tecnolog\u00eda, y Facebook, pueden ser parte de la soluci\u00f3n. Hemos sido cautelosos, en parte porque no queremos sugerir que existe una soluci\u00f3n t\u00e9cnica simple. Es un enorme reto mantener a las personas seguras en una plataforma utilizada por casi 2.000 millones cada mes, que publican y comentan en m\u00e1s de 80 idiomas en cada rinc\u00f3n del mundo. Y tenemos mucho trabajo por delante. Pero queremos compartir lo que estamos haciendo y escuchar sus comentarios para que podamos hacerlo mejor. Inteligencia Artificial Queremos detectar el contenido terrorista de inmediato, antes que nuestra comunidad lo haya visto. Al d\u00eda de hoy, la mayor\u00eda de las cuentas que retiramos por terrorismo son detectadas por nuestro equipo. Pero sabemos que podemos hacer mejor uso de la tecnolog\u00eda -y espec\u00edficamente la inteligencia artificial- para detener la propagaci\u00f3n del contenido terrorista en Facebook. Aunque nuestro uso de la IA contra el terrorismo es bastante reciente, ya est\u00e1 cambiando la manera en que mantenemos fuera de Facebook potencial propaganda y cuentas terroristas. Actualmente estamos enfocando nuestras t\u00e9cnicas m\u00e1s avanzadas en combatir el contenido terrorista sobre ISIS, Al Qaeda y sus afiliados, y esperamos expandirlas a otras organizaciones terroristas a su debido tiempo. Estamos constantemente actualizando nuestras soluciones t\u00e9cnicas, pero estos son algunos de nuestros actuales esfuerzos: Comparaci\u00f3n de im\u00e1genes. Cuando alguien intenta subir una foto o un video con contenido terrorista, nuestros sistemas analizan si la imagen coincide con una foto o video de terrorismo preexistente. Esto significa que si previamente eliminamos un video de propaganda de ISIS, podemos trabajar para evitar que otras cuentas suban el mismo video en nuestro sitio. En muchos casos eso significa que el contenido terrorista dise\u00f1ado para su distribuci\u00f3n en Facebook simplemente nunca llega a la plataforma. Comprensi\u00f3n del lenguaje. Recientemente tambi\u00e9n comenzamos a experimentar con el uso de IA para entender aquellos textos que podr\u00edan ser propaganda terrorista. Actualmente estamos experimentando con el an\u00e1lisis de texto favorable a organizaciones como ISIS y Al Qaeda que ya hemos eliminado, con el fin de desarrollar se\u00f1ales basadas en texto para identificar propaganda terrorista. Este an\u00e1lisis entra en un algoritmo que se encuentra en las primeras etapas del aprendizaje sobre c\u00f3mo detectar publicaciones similares. Los algoritmos de aprendizaje autom\u00e1tico o \u201cmachine learning\u201d trabajan en un bucle de retroalimentaci\u00f3n y mejoran con el tiempo. Eliminaci\u00f3n de clusters terroristas. Sabemos por estudios sobre el terrorismo que \u00e9stos tienden a radicalizarse y operar en grupos. Y esa tendencia en el mundo real se refleja en el mundo online. De modo que cuando identificamos p\u00e1ginas, grupos, publicaciones o perfiles de apoyo al terrorismo, tambi\u00e9n usamos algoritmos para intentar identificar material relacionado que tambi\u00e9n puede apoyar el terrorismo. Utilizamos se\u00f1ales como, por ejemplo, si una cuenta es amiga de un n\u00famero elevado de cuentas que han sido inhabilitadas por terrorismo, o si una cuenta comparte los mismos atributos que una cuenta inhabilitada. Reincidencia. Tambi\u00e9n hemos conseguido detectar mucho m\u00e1s r\u00e1pido nuevas cuentas falsas creadas por reincidentes. A trav\u00e9s de este trabajo logramos reducir dram\u00e1ticamente el per\u00edodo de tiempo en que las cuentas de terroristas reincidentes permanecen en Facebook. Este es un trabajo constante, y los terroristas est\u00e1n tambi\u00e9n evolucionando continuamente sus m\u00e9todos. Estamos constantemente identificando nuevas formas en que los actores terroristas tratan de eludir nuestros sistemas y actualizamos nuestras t\u00e1cticas en consecuencia. Colaboraci\u00f3n entre plataformas. No queremos que los terroristas tengan un lugar en la familia de aplicaciones de Facebook, por eso hemos comenzado a trabajar en sistemas que nos permitan tomar medidas contra cuentas terroristas en todas nuestras plataformas, incluyendo WhatsApp e Instagram. Debido a los datos limitados que algunas de nuestras aplicaciones recopilan como parte de su servicio, la capacidad de compartir datos entre toda la familia es indispensable para nuestros esfuerzos por mantener todas nuestras plataformas seguras. Expertise humana La Inteligencia Artificial no puede detectarlo todo. Determinar qu\u00e9 apoya el terrorismo y qu\u00e9 no, no siempre es sencillo y los algoritmos no son tan buenos como las personas cuando se trata de comprender este tipo de contexto. Una foto de un hombre armado agitando una bandera de ISIS puede tratarse de propaganda o material de reclutamiento, pero tambi\u00e9n puede ser la imagen que ilustra a un art\u00edculo period\u00edstico. Algunas de las cr\u00edticas m\u00e1s efectivas a agrupaciones brutales como ISIS utilizan la misma propaganda de la organizaci\u00f3n en su contra. Y para comprender estos matices necesitamos de la experiencia humana. Reportes y revisiones. Nuestra comunidad, es decir las personas en Facebook, nos ayuda a reportar cuentas o contenido que puede violar nuestras pol\u00edticas, incluyendo la peque\u00f1a fracci\u00f3n que puede estar relacionada con el terrorismo. Nuestros equipos de Operaciones Comunitarias en todo el mundo \u2013al que incorporaremos 3.000 personas durante el pr\u00f3ximo a\u00f1o&#8211; trabajan las 24 horas del d\u00eda y en decenas de idiomas para revisar estos informes y determinar su contexto. Esto puede ser un trabajo incre\u00edblemente dif\u00edcil y apoyamos a estos revisores con asesoramiento in situ y entrenamiento de resiliencia. Especialistas en terrorismo y seguridad. En el \u00faltimo a\u00f1o tambi\u00e9n hemos aumentado considerablemente nuestro equipo de especialistas en antitraterrorismo. En Facebook m\u00e1s de 150 personas se dedican exclusiva o principalmente a la lucha contra el terrorismo como su principal responsabilidad. Esto incluye a expertos acad\u00e9micos en antiterrorismo, ex fiscales, ex agentes de la ley, analistas e ingenieros. Dentro de este equipo especializado, hablamos casi 30 idiomas. Amenazas en el mundo real. Cada vez usamos m\u00e1s la IA para identificar y eliminar el contenido terrorista, pero las computadoras no son muy buenas para identificar qu\u00e9 constituye una amenaza real que merece ser escalada a las autoridades. Tambi\u00e9n contamos con un equipo global que responde en cuesti\u00f3n de minutos a las solicitudes de emergencia de las instituciones del orden p\u00fablico. Asociaciones con terceros Trabajar para mantener al terrorismo fuera de Facebook no es suficiente, porque ellos pasan de una plataforma a otra. Por eso es crucial asociarnos con terceros \u2013incluyendo a otras compa\u00f1\u00edas, la sociedad civil, investigadores y gobierno. Cooperaci\u00f3n con la industria. Para identificar y detener m\u00e1s r\u00e1pidamente la propagaci\u00f3n del contenido terrorista en l\u00ednea nos unimos hace seis meses a Microsoft, Twitter y YouTube para anunciar una base de datos compartida de \u00abhashes\u00bb -huellas digitales \u00fanicas de fotos y videos- para contenido producido por o en apoyo a organizaciones terroristas. Esta colaboraci\u00f3n ha resultado fruct\u00edfera y esperamos sumar m\u00e1s socios en el futuro. Agradecemos a las empresas asociadas por ayudar a mantener a Facebook un lugar seguro. Gobiernos. Los gobiernos y agencias intergubernamentales cumplen con el papel clave de reunir y suministrar conocimientos t\u00e9cnicos, que a las empresas les resulta imposible desarrollar independientemente. Hemos aprendido mucho a trav\u00e9s de informes de agencias en diferentes pa\u00edses sobre ISIS y los mecanismos de propaganda de Al Qaeda. Tambi\u00e9n hemos participado y nos hemos beneficiado de esfuerzos para apoyar la colaboraci\u00f3n de la industria por organizaciones como el Foro de Internet de la Uni\u00f3n Europea, la Coalici\u00f3n Global Contra Daesh y el Ministerio del Interior del Reino Unido. Cifrado. Sabemos que los terroristas a veces usan mensajes cifrados para comunicarse. La tecnolog\u00eda de cifrado tiene muchos usos leg\u00edtimos, desde proteger nuestras cuentas bancarias en l\u00ednea hasta mantener nuestras fotos seguras. Tambi\u00e9n es esencial para periodistas, trabajadores de ONGs, activistas de derechos humanos y otros que necesitan saber que sus mensajes permanecer\u00e1n seguros. Debido a la forma en que funciona el cifrad, no podemos leer el contenido de los mensajes cifrados individuales, pero proporcionamos la informaci\u00f3n que podemos en respuesta a solicitudes de las autoridades, en conformidad con la ley aplicable y nuestras pol\u00edticas. Formaci\u00f3n en contra discurso. Tambi\u00e9n creemos que combatir las narrativas extremistas en l\u00ednea es una parte valiosa de la respuesta al extremismo del mundo real. El contra discurso admite muchas formas, pero en su esencia se trata de esfuerzos para evitar que la gente lleve una vida llena de odio y violencia, o convencerla de abandonar ese tipo de vida. Pero este discurso solo es eficaz si proviene de fuentes cre\u00edbles. Por eso nos hemos asociado con ONGs y grupos comunitarios para potenciar las voces que m\u00e1s importan. Programas de socios. Apoyamos varios programas importantes de contra discurso. Por ejemplo, el a\u00f1o pasado trabajamos con el Instituto para el Di\u00e1logo Estrat\u00e9gico para lanzar la Iniciativa de Coraje Civil Online, un proyecto junto a 100 organizaciones anti-odio y anti-extremismo en toda Europa. Tambi\u00e9n hemos trabajado con Affinis Labs para realizar hackathons en lugares como Manila, Dhaka y Yakarta, donde los l\u00edderes de la comunidad se unieron a empresarios de tecnolog\u00eda para desarrollar soluciones innovadoras contra el extremismo y el odio en l\u00ednea. Y, finalmente, el programa con mayor alcance global que hemos apoyado es un concurso de estudiantes organizado a trav\u00e9s del P2P: Facebook Global Digital Challenge. En menos de dos a\u00f1os, el P2P ha alcanzado a m\u00e1s de 56 millones de personas en el mundo a trav\u00e9s de m\u00e1s de 500 campa\u00f1as contra el odio y el extremismo creadas por m\u00e1s de 5.500 estudiantes universitarios en 68 pa\u00edses. Nuestro compromiso Queremos que Facebook sea un lugar hostil para el terrorismo. El desaf\u00edo para las comunidades online es el mismo que enfrentan las comunidades en el mundo f\u00edsico: mejorar la detecci\u00f3n temprana antes de que sea demasiado tarde. Estamos absolutamente comprometidos a mantener al terrorismo fuera de nuestra plataforma y continuaremos compartiendo m\u00e1s informaci\u00f3n sobre nuestro trabajo a medida que se desarrolle en el futuro.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2017-06-16T01:32:33+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2017-10-09T18:46:45+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"camilagfb\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"10 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/\"},\"author\":\"Facebook company\",\"headline\":\"Preguntas Dif\u00edciles: C\u00f3mo combatimos el terrorismo\",\"datePublished\":\"2017-06-16T01:32:33+00:00\",\"dateModified\":\"2017-10-09T18:46:45+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/\"},\"wordCount\":1944,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"keywords\":[\"Terrorismo\"],\"articleSection\":[\"Preguntas Dif\u00edciles\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/\",\"name\":\"Preguntas Dif\u00edciles: C\u00f3mo combatimos el terrorismo | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"datePublished\":\"2017-06-16T01:32:33+00:00\",\"dateModified\":\"2017-10-09T18:46:45+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Preguntas Dif\u00edciles: C\u00f3mo combatimos el terrorismo\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Preguntas Dif\u00edciles: C\u00f3mo combatimos el terrorismo | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/","og_locale":"es_ES","og_type":"article","og_title":"Preguntas Dif\u00edciles: C\u00f3mo combatimos el terrorismo | Acerca de Meta","og_description":"Por Monika Bickert, Directora Global de Gesti\u00f3n de Pol\u00edticas de Contenido, y Brian Fishman, Gerente de Pol\u00edticas contra el Terrorismo A ra\u00edz de los recientes ataques terroristas las personas han cuestionado el papel de las empresas de tecnolog\u00eda en la lucha contra el terrorismo online. Queremos responder a esas preguntas de frente. Estamos de acuerdo con quienes dicen que las redes sociales no deben ser un lugar donde los terroristas tengan voz. Queremos ser muy claros respecto a la seriedad con que tomamos esto: mantener segura a nuestra comunidad en Facebook es fundamental para nuestra misi\u00f3n. En esta publicaci\u00f3n vamos a explicar el trabajo que realizamos detr\u00e1s de bastidores, incluyendo la forma en que utilizamos inteligencia artificial para mantener el contenido terrorista fuera de Facebook, algo que hasta hoy no hemos divulgado p\u00fablicamente. Tambi\u00e9n hablaremos sobre las personas que trabajan en antiterrorismo, algunas de las cuales han dedicado toda su carrera a combatirlo, y las formas en que colaboramos con socios por fuera de nuestra empresa. Nuestra postura es simple: no hay lugar en Facebook para el terrorismo. Eliminamos contenido de terroristas y publicaciones que apoyan el terrorismo en cuanto los detectamos. Cuando recibimos informes de posibles publicaciones de terrorismo las revisamos con urgencia y profundidad. Y en los raros casos en que descubrimos evidencia de un da\u00f1o inminente, informamos a las autoridades de inmediato. Aunque investigaciones acad\u00e9micas sostienen que la radicalizaci\u00f3n de miembros de grupos como ISIS y Al Qaeda se produce principalmente offline, sabemos que Internet es un actor importante y no queremos que Facebook sea utilizado para ninguna actividad terrorista en absoluto. Creemos que la tecnolog\u00eda, y Facebook, pueden ser parte de la soluci\u00f3n. Hemos sido cautelosos, en parte porque no queremos sugerir que existe una soluci\u00f3n t\u00e9cnica simple. Es un enorme reto mantener a las personas seguras en una plataforma utilizada por casi 2.000 millones cada mes, que publican y comentan en m\u00e1s de 80 idiomas en cada rinc\u00f3n del mundo. Y tenemos mucho trabajo por delante. Pero queremos compartir lo que estamos haciendo y escuchar sus comentarios para que podamos hacerlo mejor. Inteligencia Artificial Queremos detectar el contenido terrorista de inmediato, antes que nuestra comunidad lo haya visto. Al d\u00eda de hoy, la mayor\u00eda de las cuentas que retiramos por terrorismo son detectadas por nuestro equipo. Pero sabemos que podemos hacer mejor uso de la tecnolog\u00eda -y espec\u00edficamente la inteligencia artificial- para detener la propagaci\u00f3n del contenido terrorista en Facebook. Aunque nuestro uso de la IA contra el terrorismo es bastante reciente, ya est\u00e1 cambiando la manera en que mantenemos fuera de Facebook potencial propaganda y cuentas terroristas. Actualmente estamos enfocando nuestras t\u00e9cnicas m\u00e1s avanzadas en combatir el contenido terrorista sobre ISIS, Al Qaeda y sus afiliados, y esperamos expandirlas a otras organizaciones terroristas a su debido tiempo. Estamos constantemente actualizando nuestras soluciones t\u00e9cnicas, pero estos son algunos de nuestros actuales esfuerzos: Comparaci\u00f3n de im\u00e1genes. Cuando alguien intenta subir una foto o un video con contenido terrorista, nuestros sistemas analizan si la imagen coincide con una foto o video de terrorismo preexistente. Esto significa que si previamente eliminamos un video de propaganda de ISIS, podemos trabajar para evitar que otras cuentas suban el mismo video en nuestro sitio. En muchos casos eso significa que el contenido terrorista dise\u00f1ado para su distribuci\u00f3n en Facebook simplemente nunca llega a la plataforma. Comprensi\u00f3n del lenguaje. Recientemente tambi\u00e9n comenzamos a experimentar con el uso de IA para entender aquellos textos que podr\u00edan ser propaganda terrorista. Actualmente estamos experimentando con el an\u00e1lisis de texto favorable a organizaciones como ISIS y Al Qaeda que ya hemos eliminado, con el fin de desarrollar se\u00f1ales basadas en texto para identificar propaganda terrorista. Este an\u00e1lisis entra en un algoritmo que se encuentra en las primeras etapas del aprendizaje sobre c\u00f3mo detectar publicaciones similares. Los algoritmos de aprendizaje autom\u00e1tico o \u201cmachine learning\u201d trabajan en un bucle de retroalimentaci\u00f3n y mejoran con el tiempo. Eliminaci\u00f3n de clusters terroristas. Sabemos por estudios sobre el terrorismo que \u00e9stos tienden a radicalizarse y operar en grupos. Y esa tendencia en el mundo real se refleja en el mundo online. De modo que cuando identificamos p\u00e1ginas, grupos, publicaciones o perfiles de apoyo al terrorismo, tambi\u00e9n usamos algoritmos para intentar identificar material relacionado que tambi\u00e9n puede apoyar el terrorismo. Utilizamos se\u00f1ales como, por ejemplo, si una cuenta es amiga de un n\u00famero elevado de cuentas que han sido inhabilitadas por terrorismo, o si una cuenta comparte los mismos atributos que una cuenta inhabilitada. Reincidencia. Tambi\u00e9n hemos conseguido detectar mucho m\u00e1s r\u00e1pido nuevas cuentas falsas creadas por reincidentes. A trav\u00e9s de este trabajo logramos reducir dram\u00e1ticamente el per\u00edodo de tiempo en que las cuentas de terroristas reincidentes permanecen en Facebook. Este es un trabajo constante, y los terroristas est\u00e1n tambi\u00e9n evolucionando continuamente sus m\u00e9todos. Estamos constantemente identificando nuevas formas en que los actores terroristas tratan de eludir nuestros sistemas y actualizamos nuestras t\u00e1cticas en consecuencia. Colaboraci\u00f3n entre plataformas. No queremos que los terroristas tengan un lugar en la familia de aplicaciones de Facebook, por eso hemos comenzado a trabajar en sistemas que nos permitan tomar medidas contra cuentas terroristas en todas nuestras plataformas, incluyendo WhatsApp e Instagram. Debido a los datos limitados que algunas de nuestras aplicaciones recopilan como parte de su servicio, la capacidad de compartir datos entre toda la familia es indispensable para nuestros esfuerzos por mantener todas nuestras plataformas seguras. Expertise humana La Inteligencia Artificial no puede detectarlo todo. Determinar qu\u00e9 apoya el terrorismo y qu\u00e9 no, no siempre es sencillo y los algoritmos no son tan buenos como las personas cuando se trata de comprender este tipo de contexto. Una foto de un hombre armado agitando una bandera de ISIS puede tratarse de propaganda o material de reclutamiento, pero tambi\u00e9n puede ser la imagen que ilustra a un art\u00edculo period\u00edstico. Algunas de las cr\u00edticas m\u00e1s efectivas a agrupaciones brutales como ISIS utilizan la misma propaganda de la organizaci\u00f3n en su contra. Y para comprender estos matices necesitamos de la experiencia humana. Reportes y revisiones. Nuestra comunidad, es decir las personas en Facebook, nos ayuda a reportar cuentas o contenido que puede violar nuestras pol\u00edticas, incluyendo la peque\u00f1a fracci\u00f3n que puede estar relacionada con el terrorismo. Nuestros equipos de Operaciones Comunitarias en todo el mundo \u2013al que incorporaremos 3.000 personas durante el pr\u00f3ximo a\u00f1o&#8211; trabajan las 24 horas del d\u00eda y en decenas de idiomas para revisar estos informes y determinar su contexto. Esto puede ser un trabajo incre\u00edblemente dif\u00edcil y apoyamos a estos revisores con asesoramiento in situ y entrenamiento de resiliencia. Especialistas en terrorismo y seguridad. En el \u00faltimo a\u00f1o tambi\u00e9n hemos aumentado considerablemente nuestro equipo de especialistas en antitraterrorismo. En Facebook m\u00e1s de 150 personas se dedican exclusiva o principalmente a la lucha contra el terrorismo como su principal responsabilidad. Esto incluye a expertos acad\u00e9micos en antiterrorismo, ex fiscales, ex agentes de la ley, analistas e ingenieros. Dentro de este equipo especializado, hablamos casi 30 idiomas. Amenazas en el mundo real. Cada vez usamos m\u00e1s la IA para identificar y eliminar el contenido terrorista, pero las computadoras no son muy buenas para identificar qu\u00e9 constituye una amenaza real que merece ser escalada a las autoridades. Tambi\u00e9n contamos con un equipo global que responde en cuesti\u00f3n de minutos a las solicitudes de emergencia de las instituciones del orden p\u00fablico. Asociaciones con terceros Trabajar para mantener al terrorismo fuera de Facebook no es suficiente, porque ellos pasan de una plataforma a otra. Por eso es crucial asociarnos con terceros \u2013incluyendo a otras compa\u00f1\u00edas, la sociedad civil, investigadores y gobierno. Cooperaci\u00f3n con la industria. Para identificar y detener m\u00e1s r\u00e1pidamente la propagaci\u00f3n del contenido terrorista en l\u00ednea nos unimos hace seis meses a Microsoft, Twitter y YouTube para anunciar una base de datos compartida de \u00abhashes\u00bb -huellas digitales \u00fanicas de fotos y videos- para contenido producido por o en apoyo a organizaciones terroristas. Esta colaboraci\u00f3n ha resultado fruct\u00edfera y esperamos sumar m\u00e1s socios en el futuro. Agradecemos a las empresas asociadas por ayudar a mantener a Facebook un lugar seguro. Gobiernos. Los gobiernos y agencias intergubernamentales cumplen con el papel clave de reunir y suministrar conocimientos t\u00e9cnicos, que a las empresas les resulta imposible desarrollar independientemente. Hemos aprendido mucho a trav\u00e9s de informes de agencias en diferentes pa\u00edses sobre ISIS y los mecanismos de propaganda de Al Qaeda. Tambi\u00e9n hemos participado y nos hemos beneficiado de esfuerzos para apoyar la colaboraci\u00f3n de la industria por organizaciones como el Foro de Internet de la Uni\u00f3n Europea, la Coalici\u00f3n Global Contra Daesh y el Ministerio del Interior del Reino Unido. Cifrado. Sabemos que los terroristas a veces usan mensajes cifrados para comunicarse. La tecnolog\u00eda de cifrado tiene muchos usos leg\u00edtimos, desde proteger nuestras cuentas bancarias en l\u00ednea hasta mantener nuestras fotos seguras. Tambi\u00e9n es esencial para periodistas, trabajadores de ONGs, activistas de derechos humanos y otros que necesitan saber que sus mensajes permanecer\u00e1n seguros. Debido a la forma en que funciona el cifrad, no podemos leer el contenido de los mensajes cifrados individuales, pero proporcionamos la informaci\u00f3n que podemos en respuesta a solicitudes de las autoridades, en conformidad con la ley aplicable y nuestras pol\u00edticas. Formaci\u00f3n en contra discurso. Tambi\u00e9n creemos que combatir las narrativas extremistas en l\u00ednea es una parte valiosa de la respuesta al extremismo del mundo real. El contra discurso admite muchas formas, pero en su esencia se trata de esfuerzos para evitar que la gente lleve una vida llena de odio y violencia, o convencerla de abandonar ese tipo de vida. Pero este discurso solo es eficaz si proviene de fuentes cre\u00edbles. Por eso nos hemos asociado con ONGs y grupos comunitarios para potenciar las voces que m\u00e1s importan. Programas de socios. Apoyamos varios programas importantes de contra discurso. Por ejemplo, el a\u00f1o pasado trabajamos con el Instituto para el Di\u00e1logo Estrat\u00e9gico para lanzar la Iniciativa de Coraje Civil Online, un proyecto junto a 100 organizaciones anti-odio y anti-extremismo en toda Europa. Tambi\u00e9n hemos trabajado con Affinis Labs para realizar hackathons en lugares como Manila, Dhaka y Yakarta, donde los l\u00edderes de la comunidad se unieron a empresarios de tecnolog\u00eda para desarrollar soluciones innovadoras contra el extremismo y el odio en l\u00ednea. Y, finalmente, el programa con mayor alcance global que hemos apoyado es un concurso de estudiantes organizado a trav\u00e9s del P2P: Facebook Global Digital Challenge. En menos de dos a\u00f1os, el P2P ha alcanzado a m\u00e1s de 56 millones de personas en el mundo a trav\u00e9s de m\u00e1s de 500 campa\u00f1as contra el odio y el extremismo creadas por m\u00e1s de 5.500 estudiantes universitarios en 68 pa\u00edses. Nuestro compromiso Queremos que Facebook sea un lugar hostil para el terrorismo. El desaf\u00edo para las comunidades online es el mismo que enfrentan las comunidades en el mundo f\u00edsico: mejorar la detecci\u00f3n temprana antes de que sea demasiado tarde. Estamos absolutamente comprometidos a mantener al terrorismo fuera de nuestra plataforma y continuaremos compartiendo m\u00e1s informaci\u00f3n sobre nuestro trabajo a medida que se desarrolle en el futuro.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/","og_site_name":"Acerca de Meta","article_published_time":"2017-06-16T01:32:33+00:00","article_modified_time":"2017-10-09T18:46:45+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"camilagfb","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"10 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/"},"author":"Facebook company","headline":"Preguntas Dif\u00edciles: C\u00f3mo combatimos el terrorismo","datePublished":"2017-06-16T01:32:33+00:00","dateModified":"2017-10-09T18:46:45+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/"},"wordCount":1944,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"keywords":["Terrorismo"],"articleSection":["Preguntas Dif\u00edciles"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/","url":"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/","name":"Preguntas Dif\u00edciles: C\u00f3mo combatimos el terrorismo | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"datePublished":"2017-06-16T01:32:33+00:00","dateModified":"2017-10-09T18:46:45+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/"]}],"author":"Acerca de Meta"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2017\/06\/como-combatimos-el-terrorismo\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Preguntas Dif\u00edciles: C\u00f3mo combatimos el terrorismo"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6051","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/95829248"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=6051"}],"version-history":[{"count":2,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6051\/revisions"}],"predecessor-version":[{"id":6184,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6051\/revisions\/6184"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=6051"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=6051"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=6051"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}