{"id":22179,"date":"2020-11-19T12:51:30","date_gmt":"2020-11-19T18:51:30","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=22179"},"modified":"2021-01-12T11:20:05","modified_gmt":"2021-01-12T17:20:05","slug":"medimos-nuestros-avances-en-el-combate-al-discurso-de-odio","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/","title":{"rendered":"Medimos nuestros avances en el combate al discurso de odio"},"content":{"rendered":"<p><span style=\"font-weight: 400\">Hoy, por primera vez, incluimos la prevalencia del discurso de odio en Facebook como parte de nuestro <\/span><a href=\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-noviembre-de-2020\/\"><span style=\"font-weight: 400\">Informe trimestral de Cumplimiento de nuestras Normas Comunitarias<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<h3><strong>La manera en la que medimos la prevalencia del discurso de odio<\/strong><\/h3>\n<p><a href=\"https:\/\/about.fb.com\/news\/2019\/05\/measuring-prevalence\/\"><span style=\"font-weight: 400\">La prevalencia<\/span><\/a><span style=\"font-weight: 400\"> estima el porcentaje de veces que las personas ven contenido infractor en nuestra plataforma. Calculamos la prevalencia del discurso de odio seleccionando una muestra de contenido visto en Facebook y marcando la cantidad que viola nuestras pol\u00edticas de discurso de odio. Considerando que la incitaci\u00f3n al odio depende del idioma y el contexto cultural, enviamos estas muestras representativas a revisores de contenido de diferentes regiones. Con base en esta metodolog\u00eda, estimamos que la prevalencia del discurso de odio desde julio de 2020 hasta septiembre de 2020 fue de 0,10% a 0,11%. En otras palabras, de cada 10.000 visualizaciones de contenido en Facebook, de 10 a 11 inclu\u00edan discurso de odio.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Espec\u00edficamente, medimos cu\u00e1nto contenido da\u00f1ino puede verse en Facebook e Instagram dado a que la mayor\u00eda de las veces el contenido no se distribuye de manera uniforme. Una pieza de contenido podr\u00eda volverse viral y ser vista por muchas personas en muy poco tiempo, mientras que otra podr\u00eda estar en Internet durante mucho tiempo y solo pocas personas podr\u00edan verla.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Evaluamos la efectividad de la aplicaci\u00f3n de nuestras pol\u00edticas tratando de mantener la prevalencia del discurso de odio lo m\u00e1s baja posible en nuestra plataforma, al mismo tiempo que minimizamos los errores en el contenido que eliminamos.<\/span><\/p>\n<h3><strong>Definici\u00f3n y tratamiento de los matices del discurso de odio<\/strong><\/h3>\n<p><span style=\"font-weight: 400\">Definir el discurso del odio no es simple, ya que hay muchas opiniones diferentes sobre lo que constituye. Los matices, la historia, el idioma, la religi\u00f3n y las cambiantes normas culturales son factores importantes a considerar al definir <\/span><a href=\"https:\/\/www.facebook.com\/communitystandards\/hate_speech\"><span style=\"font-weight: 400\">nuestras pol\u00edticas<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Bas\u00e1ndonos en los aportes de diversos <\/span><a href=\"https:\/\/about.fb.com\/news\/2019\/04\/insidefeed-community-standards-development-process\/\"><span style=\"font-weight: 400\">expertos<\/span><\/a><span style=\"font-weight: 400\"> y l\u00edderes a nivel mundial, definimos el discurso de odio como todo lo que ataca directamente a las personas en funci\u00f3n de caracter\u00edsticas protegidas, como raza, etnia, nacionalidad de origen, afiliaci\u00f3n religiosa, orientaci\u00f3n sexual, sexo, g\u00e9nero, identidad de g\u00e9nero o discapacidad o enfermedad grave.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En los \u00faltimos a\u00f1os, hemos ampliado nuestras pol\u00edticas para brindar mayor protecci\u00f3n a las personas ante diferentes tipos de abuso. Hemos tomado medidas para combatir el nacionalismo y separatismo blanco; presentamos nuevas normas sobre contenidos que llaman a la violencia contra migrantes; prohibimos la negaci\u00f3n del holocausto, y actualizamos nuestras pol\u00edticas para tener en cuenta ciertos tipos de incitaci\u00f3n impl\u00edcita al odio, como el contenido que describe la cara negra o estereotipos sobre los jud\u00edos que aluden a que controlan el mundo.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Nuestro objetivo es eliminar el discurso de odio cada vez que nos percatamos de ello, pero sabemos que a\u00fan nos queda mucho por hacer. El lenguaje sigue evolucionando y una palabra que ayer no era un insulto puede convertirse en uno el d\u00eda de ma\u00f1ana. Esto significa que la aplicaci\u00f3n de nuestras pol\u00edticas de contenido es un equilibrio delicado entre asegurarnos de actuar sobre el discurso del odio y evitar eliminar otras formas de discurso que est\u00e1n permitidas. Es por eso que damos prioridad al <\/span><a href=\"https:\/\/about.fb.com\/ltam\/news\/2020\/08\/como-revisamos-el-contenido\/\"><span style=\"font-weight: 400\">contenido m\u00e1s cr\u00edtico<\/span><\/a><span style=\"font-weight: 400\"> para que nuestro equipo lo revise en funci\u00f3n de factores como la viralidad, la gravedad del da\u00f1o y la probabilidad de infracci\u00f3n.<\/span><\/p>\n<h3><strong>El papel de los reportes de usuario<\/strong><\/h3>\n<p><span style=\"font-weight: 400\">Cuando se trata de la aplicaci\u00f3n de nuestras pol\u00edticas, utilizamos una combinaci\u00f3n de reportes de usuarios y tecnolog\u00eda para encontrar discursos de odio en Facebook e Instagram. Cada semana, personas de todo el mundo nos informan sobre millones de piezas de contenido que creen podr\u00edan estar violando nuestras pol\u00edticas. Estos reportes se revisan en m\u00e1s de 50 idiomas y nos brindan informaci\u00f3n sobre lo que sucede en nuestra plataforma para que podamos seguir perfeccionando nuestras pol\u00edticas. Tambi\u00e9n nos esforzamos por mejorar nuestras herramientas de reporte para que a las personas les resulte m\u00e1s f\u00e1cil denunciar contenido que pudiera infringir nuestras pol\u00edticas, pero esto tiene limitaciones. Por ejemplo, en zonas con menor alfabetizaci\u00f3n digital, las personas pueden tener poco conocimiento sobre las opciones que tienen para realizar un reporte. Las personas tambi\u00e9n suelen informar de contenido que no les gusta o con el que no est\u00e1n de acuerdo, pero que no infringe nuestras pol\u00edticas. Por ejemplo, los usuarios pueden reportar sobre contenido de equipos deportivos rivales o<\/span><i><span style=\"font-weight: 400\"> spoilers<\/span><\/i><span style=\"font-weight: 400\"> de programas de televisi\u00f3n. Adem\u00e1s, es posible que un contenido sea visto por muchas personas antes de ser reportado, por lo que no podemos confiar \u00fanicamente en los reportes\u00a0 de los usuarios.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Usamos inteligencia artificial para ayudar a priorizar el contenido para revisi\u00f3n, de modo que nuestros revisores puedan enfocarse en el contenido que representa el mayor da\u00f1o y dedicar m\u00e1s tiempo a capacitar y medir la calidad de nuestros sistemas automatizados.<\/span><\/p>\n<h3><strong>El papel de las herramientas y los sistemas de IA<\/strong><\/h3>\n<p><span style=\"font-weight: 400\">Hemos desarrollado herramientas y sistemas de inteligencia artificial para detectar y eliminar de forma proactiva el discurso de odio a gran escala. Debido a que el discurso del odio es tan contextual, la detecci\u00f3n de IA requiere de una capacidad para revisar publicaciones de manera integral, con contexto y en varios idiomas<\/span><span style=\"font-weight: 400\">.<\/span><span style=\"font-weight: 400\">\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Con el tiempo, los <a href=\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/\">avances en las tecnolog\u00edas de inteligencia artificial<\/a> nos han permitido eliminar una mayor cantidad de contenido de discurso de odio de Facebook y encontrarlo m\u00e1s del mismo antes de que los usuarios lo denuncien. Cuando comenzamos a informar nuestras m\u00e9tricas de incitaci\u00f3n al odio, en el cuarto trimestre de 2017, nuestra tasa de detecci\u00f3n proactiva fue de 23,6%. Esto significa que del discurso de odio que eliminamos, 23,6% se encontr\u00f3 antes de que un usuario nos lo denunciara. La mayor\u00eda restante fue eliminada despu\u00e9s de que los usuarios lo reportaran. Hoy, detectamos proactivamente cerca de 95% de discurso de odio que removemos. Ya sea que lo detectemos proactivamente o sea reportado por los usuarios, a menudo usamos IA para actuar en casos sencillos y priorizar los m\u00e1s dif\u00edciles para nuestros revisores, en donde se debe de considerar el contexto y los matices.\u00a0<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-22195\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/CSER-7_Newsroom_Proactive-Detection-for-Hate-Speech.png?resize=890%2C517\" alt=\"\" width=\"890\" height=\"517\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/CSER-7_Newsroom_Proactive-Detection-for-Hate-Speech.png?w=1780 1780w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/CSER-7_Newsroom_Proactive-Detection-for-Hate-Speech.png?w=600 600w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/CSER-7_Newsroom_Proactive-Detection-for-Hate-Speech.png?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/CSER-7_Newsroom_Proactive-Detection-for-Hate-Speech.png?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/CSER-7_Newsroom_Proactive-Detection-for-Hate-Speech.png?w=1024 1024w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/CSER-7_Newsroom_Proactive-Detection-for-Hate-Speech.png?w=1536 1536w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/CSER-7_Newsroom_Proactive-Detection-for-Hate-Speech.png?w=800 800w\" sizes=\"auto, (max-width: 890px) 100vw, 890px\" \/><\/p>\n<p><span style=\"font-weight: 400\">Hemos invertido millones de d\u00f3lares en recursos humanos y tecnolog\u00eda para aplicar estas reglas y contamos con m\u00e1s de 35.000 personas especializadas en seguridad dentro de Facebook. Conforme el lenguaje evoluciona con el tiempo, continuaremos revisando nuestras pol\u00edticas para que reflejen las tendencias sociales cambiantes. Pero, creemos que las decisiones sobre la libertad de expresi\u00f3n y seguridad no deber\u00edan ser hechas \u00fanicamente por Facebook, por lo que continuaremos consultando expertos externos para dise\u00f1ar nuestras pol\u00edticas y t\u00e1cticas para aplicarlas. Para decisiones de contenido dif\u00edciles y relevantes, ahora podemos remitir casos al <\/span><a href=\"https:\/\/about.fb.com\/ltam\/?s=Consejo+Asesor+de+Contenido\"><span style=\"font-weight: 400\">Consejo Asesor de Contenido<\/span><\/a><span style=\"font-weight: 400\"> para su revisi\u00f3n independiente y decisiones vinculantes.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Con el uso de la prevalencia, los reportes de usuarios e IA, trabajamos para hacer de Facebook e Instagram lugares inclusivos y seguros para todos los que los usan. <\/span><\/p>\n","protected":false},"excerpt":{"rendered":"Hoy, por primera vez, incluimos la prevalencia del discurso de odio en Facebook como parte de nuestro Informe trimestral de Cumplimiento de nuestras Normas Comunitarias. La manera en la que medimos la prevalencia del discurso de odio La prevalencia estima el porcentaje de veces que las personas ven contenido infractor en nuestra plataforma. Calculamos la prevalencia del discurso de odio seleccionando una muestra de contenido visto en Facebook y marcando la cantidad que viola nuestras pol\u00edticas de discurso de odio. Considerando que la incitaci\u00f3n al odio depende del idioma y el contexto cultural, enviamos estas muestras representativas a revisores de contenido de diferentes regiones. Con base en esta metodolog\u00eda, estimamos que la prevalencia del discurso de odio desde julio de 2020 hasta septiembre de 2020 fue de 0,10% a 0,11%. En otras palabras, de cada 10.000 visualizaciones de contenido en Facebook, de 10 a 11 inclu\u00edan discurso de odio. Espec\u00edficamente, medimos cu\u00e1nto contenido da\u00f1ino puede verse en Facebook e Instagram dado a que la mayor\u00eda de las veces el contenido no se distribuye de manera uniforme. Una pieza de contenido podr\u00eda volverse viral y ser vista por muchas personas en muy poco tiempo, mientras que otra podr\u00eda estar en Internet durante mucho tiempo y solo pocas personas podr\u00edan verla. Evaluamos la efectividad de la aplicaci\u00f3n de nuestras pol\u00edticas tratando de mantener la prevalencia del discurso de odio lo m\u00e1s baja posible en nuestra plataforma, al mismo tiempo que minimizamos los errores en el contenido que eliminamos. Definici\u00f3n y tratamiento de los matices del discurso de odio Definir el discurso del odio no es simple, ya que hay muchas opiniones diferentes sobre lo que constituye. Los matices, la historia, el idioma, la religi\u00f3n y las cambiantes normas culturales son factores importantes a considerar al definir nuestras pol\u00edticas. Bas\u00e1ndonos en los aportes de diversos expertos y l\u00edderes a nivel mundial, definimos el discurso de odio como todo lo que ataca directamente a las personas en funci\u00f3n de caracter\u00edsticas protegidas, como raza, etnia, nacionalidad de origen, afiliaci\u00f3n religiosa, orientaci\u00f3n sexual, sexo, g\u00e9nero, identidad de g\u00e9nero o discapacidad o enfermedad grave. En los \u00faltimos a\u00f1os, hemos ampliado nuestras pol\u00edticas para brindar mayor protecci\u00f3n a las personas ante diferentes tipos de abuso. Hemos tomado medidas para combatir el nacionalismo y separatismo blanco; presentamos nuevas normas sobre contenidos que llaman a la violencia contra migrantes; prohibimos la negaci\u00f3n del holocausto, y actualizamos nuestras pol\u00edticas para tener en cuenta ciertos tipos de incitaci\u00f3n impl\u00edcita al odio, como el contenido que describe la cara negra o estereotipos sobre los jud\u00edos que aluden a que controlan el mundo. Nuestro objetivo es eliminar el discurso de odio cada vez que nos percatamos de ello, pero sabemos que a\u00fan nos queda mucho por hacer. El lenguaje sigue evolucionando y una palabra que ayer no era un insulto puede convertirse en uno el d\u00eda de ma\u00f1ana. Esto significa que la aplicaci\u00f3n de nuestras pol\u00edticas de contenido es un equilibrio delicado entre asegurarnos de actuar sobre el discurso del odio y evitar eliminar otras formas de discurso que est\u00e1n permitidas. Es por eso que damos prioridad al contenido m\u00e1s cr\u00edtico para que nuestro equipo lo revise en funci\u00f3n de factores como la viralidad, la gravedad del da\u00f1o y la probabilidad de infracci\u00f3n. El papel de los reportes de usuario Cuando se trata de la aplicaci\u00f3n de nuestras pol\u00edticas, utilizamos una combinaci\u00f3n de reportes de usuarios y tecnolog\u00eda para encontrar discursos de odio en Facebook e Instagram. Cada semana, personas de todo el mundo nos informan sobre millones de piezas de contenido que creen podr\u00edan estar violando nuestras pol\u00edticas. Estos reportes se revisan en m\u00e1s de 50 idiomas y nos brindan informaci\u00f3n sobre lo que sucede en nuestra plataforma para que podamos seguir perfeccionando nuestras pol\u00edticas. Tambi\u00e9n nos esforzamos por mejorar nuestras herramientas de reporte para que a las personas les resulte m\u00e1s f\u00e1cil denunciar contenido que pudiera infringir nuestras pol\u00edticas, pero esto tiene limitaciones. Por ejemplo, en zonas con menor alfabetizaci\u00f3n digital, las personas pueden tener poco conocimiento sobre las opciones que tienen para realizar un reporte. Las personas tambi\u00e9n suelen informar de contenido que no les gusta o con el que no est\u00e1n de acuerdo, pero que no infringe nuestras pol\u00edticas. Por ejemplo, los usuarios pueden reportar sobre contenido de equipos deportivos rivales o spoilers de programas de televisi\u00f3n. Adem\u00e1s, es posible que un contenido sea visto por muchas personas antes de ser reportado, por lo que no podemos confiar \u00fanicamente en los reportes\u00a0 de los usuarios. Usamos inteligencia artificial para ayudar a priorizar el contenido para revisi\u00f3n, de modo que nuestros revisores puedan enfocarse en el contenido que representa el mayor da\u00f1o y dedicar m\u00e1s tiempo a capacitar y medir la calidad de nuestros sistemas automatizados. El papel de las herramientas y los sistemas de IA Hemos desarrollado herramientas y sistemas de inteligencia artificial para detectar y eliminar de forma proactiva el discurso de odio a gran escala. Debido a que el discurso del odio es tan contextual, la detecci\u00f3n de IA requiere de una capacidad para revisar publicaciones de manera integral, con contexto y en varios idiomas.\u00a0 Con el tiempo, los avances en las tecnolog\u00edas de inteligencia artificial nos han permitido eliminar una mayor cantidad de contenido de discurso de odio de Facebook y encontrarlo m\u00e1s del mismo antes de que los usuarios lo denuncien. Cuando comenzamos a informar nuestras m\u00e9tricas de incitaci\u00f3n al odio, en el cuarto trimestre de 2017, nuestra tasa de detecci\u00f3n proactiva fue de 23,6%. Esto significa que del discurso de odio que eliminamos, 23,6% se encontr\u00f3 antes de que un usuario nos lo denunciara. La mayor\u00eda restante fue eliminada despu\u00e9s de que los usuarios lo reportaran. Hoy, detectamos proactivamente cerca de 95% de discurso de odio que removemos. Ya sea que lo detectemos proactivamente o sea reportado por los usuarios, a menudo usamos IA para actuar en casos sencillos y priorizar los m\u00e1s dif\u00edciles para nuestros revisores, en donde se debe de considerar el contexto y los matices.\u00a0 Hemos invertido millones de d\u00f3lares en recursos humanos y tecnolog\u00eda para aplicar estas reglas y contamos con m\u00e1s de 35.000 personas especializadas en seguridad dentro de Facebook. Conforme el lenguaje evoluciona con el tiempo, continuaremos revisando nuestras pol\u00edticas para que reflejen las tendencias sociales cambiantes. Pero, creemos que las decisiones sobre la libertad de expresi\u00f3n y seguridad no deber\u00edan ser hechas \u00fanicamente por Facebook, por lo que continuaremos consultando expertos externos para dise\u00f1ar nuestras pol\u00edticas y t\u00e1cticas para aplicarlas. Para decisiones de contenido dif\u00edciles y relevantes, ahora podemos remitir casos al Consejo Asesor de Contenido para su revisi\u00f3n independiente y decisiones vinculantes.\u00a0 Con el uso de la prevalencia, los reportes de usuarios e IA, trabajamos para hacer de Facebook e Instagram lugares inclusivos y seguros para todos los que los usan.","protected":false},"author":164097140,"featured_media":22193,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243948037,243947992,243948083,1],"tags":[243948080],"class_list":["post-22179","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-meta","category-politica-publica","category-seguridad-expresion","category-uncategorized","tag-informe-de-cumplimiento-de-normas-comunitarias"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Medimos nuestros avances en el combate al discurso de odio | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Medimos nuestros avances en el combate al discurso de odio | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Hoy, por primera vez, incluimos la prevalencia del discurso de odio en Facebook como parte de nuestro Informe trimestral de Cumplimiento de nuestras Normas Comunitarias. La manera en la que medimos la prevalencia del discurso de odio La prevalencia estima el porcentaje de veces que las personas ven contenido infractor en nuestra plataforma. Calculamos la prevalencia del discurso de odio seleccionando una muestra de contenido visto en Facebook y marcando la cantidad que viola nuestras pol\u00edticas de discurso de odio. Considerando que la incitaci\u00f3n al odio depende del idioma y el contexto cultural, enviamos estas muestras representativas a revisores de contenido de diferentes regiones. Con base en esta metodolog\u00eda, estimamos que la prevalencia del discurso de odio desde julio de 2020 hasta septiembre de 2020 fue de 0,10% a 0,11%. En otras palabras, de cada 10.000 visualizaciones de contenido en Facebook, de 10 a 11 inclu\u00edan discurso de odio. Espec\u00edficamente, medimos cu\u00e1nto contenido da\u00f1ino puede verse en Facebook e Instagram dado a que la mayor\u00eda de las veces el contenido no se distribuye de manera uniforme. Una pieza de contenido podr\u00eda volverse viral y ser vista por muchas personas en muy poco tiempo, mientras que otra podr\u00eda estar en Internet durante mucho tiempo y solo pocas personas podr\u00edan verla. Evaluamos la efectividad de la aplicaci\u00f3n de nuestras pol\u00edticas tratando de mantener la prevalencia del discurso de odio lo m\u00e1s baja posible en nuestra plataforma, al mismo tiempo que minimizamos los errores en el contenido que eliminamos. Definici\u00f3n y tratamiento de los matices del discurso de odio Definir el discurso del odio no es simple, ya que hay muchas opiniones diferentes sobre lo que constituye. Los matices, la historia, el idioma, la religi\u00f3n y las cambiantes normas culturales son factores importantes a considerar al definir nuestras pol\u00edticas. Bas\u00e1ndonos en los aportes de diversos expertos y l\u00edderes a nivel mundial, definimos el discurso de odio como todo lo que ataca directamente a las personas en funci\u00f3n de caracter\u00edsticas protegidas, como raza, etnia, nacionalidad de origen, afiliaci\u00f3n religiosa, orientaci\u00f3n sexual, sexo, g\u00e9nero, identidad de g\u00e9nero o discapacidad o enfermedad grave. En los \u00faltimos a\u00f1os, hemos ampliado nuestras pol\u00edticas para brindar mayor protecci\u00f3n a las personas ante diferentes tipos de abuso. Hemos tomado medidas para combatir el nacionalismo y separatismo blanco; presentamos nuevas normas sobre contenidos que llaman a la violencia contra migrantes; prohibimos la negaci\u00f3n del holocausto, y actualizamos nuestras pol\u00edticas para tener en cuenta ciertos tipos de incitaci\u00f3n impl\u00edcita al odio, como el contenido que describe la cara negra o estereotipos sobre los jud\u00edos que aluden a que controlan el mundo. Nuestro objetivo es eliminar el discurso de odio cada vez que nos percatamos de ello, pero sabemos que a\u00fan nos queda mucho por hacer. El lenguaje sigue evolucionando y una palabra que ayer no era un insulto puede convertirse en uno el d\u00eda de ma\u00f1ana. Esto significa que la aplicaci\u00f3n de nuestras pol\u00edticas de contenido es un equilibrio delicado entre asegurarnos de actuar sobre el discurso del odio y evitar eliminar otras formas de discurso que est\u00e1n permitidas. Es por eso que damos prioridad al contenido m\u00e1s cr\u00edtico para que nuestro equipo lo revise en funci\u00f3n de factores como la viralidad, la gravedad del da\u00f1o y la probabilidad de infracci\u00f3n. El papel de los reportes de usuario Cuando se trata de la aplicaci\u00f3n de nuestras pol\u00edticas, utilizamos una combinaci\u00f3n de reportes de usuarios y tecnolog\u00eda para encontrar discursos de odio en Facebook e Instagram. Cada semana, personas de todo el mundo nos informan sobre millones de piezas de contenido que creen podr\u00edan estar violando nuestras pol\u00edticas. Estos reportes se revisan en m\u00e1s de 50 idiomas y nos brindan informaci\u00f3n sobre lo que sucede en nuestra plataforma para que podamos seguir perfeccionando nuestras pol\u00edticas. Tambi\u00e9n nos esforzamos por mejorar nuestras herramientas de reporte para que a las personas les resulte m\u00e1s f\u00e1cil denunciar contenido que pudiera infringir nuestras pol\u00edticas, pero esto tiene limitaciones. Por ejemplo, en zonas con menor alfabetizaci\u00f3n digital, las personas pueden tener poco conocimiento sobre las opciones que tienen para realizar un reporte. Las personas tambi\u00e9n suelen informar de contenido que no les gusta o con el que no est\u00e1n de acuerdo, pero que no infringe nuestras pol\u00edticas. Por ejemplo, los usuarios pueden reportar sobre contenido de equipos deportivos rivales o spoilers de programas de televisi\u00f3n. Adem\u00e1s, es posible que un contenido sea visto por muchas personas antes de ser reportado, por lo que no podemos confiar \u00fanicamente en los reportes\u00a0 de los usuarios. Usamos inteligencia artificial para ayudar a priorizar el contenido para revisi\u00f3n, de modo que nuestros revisores puedan enfocarse en el contenido que representa el mayor da\u00f1o y dedicar m\u00e1s tiempo a capacitar y medir la calidad de nuestros sistemas automatizados. El papel de las herramientas y los sistemas de IA Hemos desarrollado herramientas y sistemas de inteligencia artificial para detectar y eliminar de forma proactiva el discurso de odio a gran escala. Debido a que el discurso del odio es tan contextual, la detecci\u00f3n de IA requiere de una capacidad para revisar publicaciones de manera integral, con contexto y en varios idiomas.\u00a0 Con el tiempo, los avances en las tecnolog\u00edas de inteligencia artificial nos han permitido eliminar una mayor cantidad de contenido de discurso de odio de Facebook y encontrarlo m\u00e1s del mismo antes de que los usuarios lo denuncien. Cuando comenzamos a informar nuestras m\u00e9tricas de incitaci\u00f3n al odio, en el cuarto trimestre de 2017, nuestra tasa de detecci\u00f3n proactiva fue de 23,6%. Esto significa que del discurso de odio que eliminamos, 23,6% se encontr\u00f3 antes de que un usuario nos lo denunciara. La mayor\u00eda restante fue eliminada despu\u00e9s de que los usuarios lo reportaran. Hoy, detectamos proactivamente cerca de 95% de discurso de odio que removemos. Ya sea que lo detectemos proactivamente o sea reportado por los usuarios, a menudo usamos IA para actuar en casos sencillos y priorizar los m\u00e1s dif\u00edciles para nuestros revisores, en donde se debe de considerar el contexto y los matices.\u00a0 Hemos invertido millones de d\u00f3lares en recursos humanos y tecnolog\u00eda para aplicar estas reglas y contamos con m\u00e1s de 35.000 personas especializadas en seguridad dentro de Facebook. Conforme el lenguaje evoluciona con el tiempo, continuaremos revisando nuestras pol\u00edticas para que reflejen las tendencias sociales cambiantes. Pero, creemos que las decisiones sobre la libertad de expresi\u00f3n y seguridad no deber\u00edan ser hechas \u00fanicamente por Facebook, por lo que continuaremos consultando expertos externos para dise\u00f1ar nuestras pol\u00edticas y t\u00e1cticas para aplicarlas. Para decisiones de contenido dif\u00edciles y relevantes, ahora podemos remitir casos al Consejo Asesor de Contenido para su revisi\u00f3n independiente y decisiones vinculantes.\u00a0 Con el uso de la prevalencia, los reportes de usuarios e IA, trabajamos para hacer de Facebook e Instagram lugares inclusivos y seguros para todos los que los usan.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2020-11-19T18:51:30+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2021-01-12T17:20:05+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/HateOrgs-01.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"eortiz\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"6 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/\"},\"author\":\"Facebook company\",\"headline\":\"Medimos nuestros avances en el combate al discurso de odio\",\"datePublished\":\"2020-11-19T18:51:30+00:00\",\"dateModified\":\"2021-01-12T17:20:05+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/\"},\"wordCount\":1208,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/HateOrgs-01.jpg?fit=1920%2C1080\",\"keywords\":[\"Informe de Cumplimiento de Normas Comunitarias\"],\"articleSection\":[\"Meta\",\"Pol\u00edtica P\u00fablica\",\"Seguridad &amp; Expresi\u00f3n\",\"Uncategorized\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/\",\"name\":\"Medimos nuestros avances en el combate al discurso de odio | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/HateOrgs-01.jpg?fit=1920%2C1080\",\"datePublished\":\"2020-11-19T18:51:30+00:00\",\"dateModified\":\"2021-01-12T17:20:05+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/HateOrgs-01.jpg?fit=1920%2C1080\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/HateOrgs-01.jpg?fit=1920%2C1080\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Medimos nuestros avances en el combate al discurso de odio\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Medimos nuestros avances en el combate al discurso de odio | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/","og_locale":"es_ES","og_type":"article","og_title":"Medimos nuestros avances en el combate al discurso de odio | Acerca de Meta","og_description":"Hoy, por primera vez, incluimos la prevalencia del discurso de odio en Facebook como parte de nuestro Informe trimestral de Cumplimiento de nuestras Normas Comunitarias. La manera en la que medimos la prevalencia del discurso de odio La prevalencia estima el porcentaje de veces que las personas ven contenido infractor en nuestra plataforma. Calculamos la prevalencia del discurso de odio seleccionando una muestra de contenido visto en Facebook y marcando la cantidad que viola nuestras pol\u00edticas de discurso de odio. Considerando que la incitaci\u00f3n al odio depende del idioma y el contexto cultural, enviamos estas muestras representativas a revisores de contenido de diferentes regiones. Con base en esta metodolog\u00eda, estimamos que la prevalencia del discurso de odio desde julio de 2020 hasta septiembre de 2020 fue de 0,10% a 0,11%. En otras palabras, de cada 10.000 visualizaciones de contenido en Facebook, de 10 a 11 inclu\u00edan discurso de odio. Espec\u00edficamente, medimos cu\u00e1nto contenido da\u00f1ino puede verse en Facebook e Instagram dado a que la mayor\u00eda de las veces el contenido no se distribuye de manera uniforme. Una pieza de contenido podr\u00eda volverse viral y ser vista por muchas personas en muy poco tiempo, mientras que otra podr\u00eda estar en Internet durante mucho tiempo y solo pocas personas podr\u00edan verla. Evaluamos la efectividad de la aplicaci\u00f3n de nuestras pol\u00edticas tratando de mantener la prevalencia del discurso de odio lo m\u00e1s baja posible en nuestra plataforma, al mismo tiempo que minimizamos los errores en el contenido que eliminamos. Definici\u00f3n y tratamiento de los matices del discurso de odio Definir el discurso del odio no es simple, ya que hay muchas opiniones diferentes sobre lo que constituye. Los matices, la historia, el idioma, la religi\u00f3n y las cambiantes normas culturales son factores importantes a considerar al definir nuestras pol\u00edticas. Bas\u00e1ndonos en los aportes de diversos expertos y l\u00edderes a nivel mundial, definimos el discurso de odio como todo lo que ataca directamente a las personas en funci\u00f3n de caracter\u00edsticas protegidas, como raza, etnia, nacionalidad de origen, afiliaci\u00f3n religiosa, orientaci\u00f3n sexual, sexo, g\u00e9nero, identidad de g\u00e9nero o discapacidad o enfermedad grave. En los \u00faltimos a\u00f1os, hemos ampliado nuestras pol\u00edticas para brindar mayor protecci\u00f3n a las personas ante diferentes tipos de abuso. Hemos tomado medidas para combatir el nacionalismo y separatismo blanco; presentamos nuevas normas sobre contenidos que llaman a la violencia contra migrantes; prohibimos la negaci\u00f3n del holocausto, y actualizamos nuestras pol\u00edticas para tener en cuenta ciertos tipos de incitaci\u00f3n impl\u00edcita al odio, como el contenido que describe la cara negra o estereotipos sobre los jud\u00edos que aluden a que controlan el mundo. Nuestro objetivo es eliminar el discurso de odio cada vez que nos percatamos de ello, pero sabemos que a\u00fan nos queda mucho por hacer. El lenguaje sigue evolucionando y una palabra que ayer no era un insulto puede convertirse en uno el d\u00eda de ma\u00f1ana. Esto significa que la aplicaci\u00f3n de nuestras pol\u00edticas de contenido es un equilibrio delicado entre asegurarnos de actuar sobre el discurso del odio y evitar eliminar otras formas de discurso que est\u00e1n permitidas. Es por eso que damos prioridad al contenido m\u00e1s cr\u00edtico para que nuestro equipo lo revise en funci\u00f3n de factores como la viralidad, la gravedad del da\u00f1o y la probabilidad de infracci\u00f3n. El papel de los reportes de usuario Cuando se trata de la aplicaci\u00f3n de nuestras pol\u00edticas, utilizamos una combinaci\u00f3n de reportes de usuarios y tecnolog\u00eda para encontrar discursos de odio en Facebook e Instagram. Cada semana, personas de todo el mundo nos informan sobre millones de piezas de contenido que creen podr\u00edan estar violando nuestras pol\u00edticas. Estos reportes se revisan en m\u00e1s de 50 idiomas y nos brindan informaci\u00f3n sobre lo que sucede en nuestra plataforma para que podamos seguir perfeccionando nuestras pol\u00edticas. Tambi\u00e9n nos esforzamos por mejorar nuestras herramientas de reporte para que a las personas les resulte m\u00e1s f\u00e1cil denunciar contenido que pudiera infringir nuestras pol\u00edticas, pero esto tiene limitaciones. Por ejemplo, en zonas con menor alfabetizaci\u00f3n digital, las personas pueden tener poco conocimiento sobre las opciones que tienen para realizar un reporte. Las personas tambi\u00e9n suelen informar de contenido que no les gusta o con el que no est\u00e1n de acuerdo, pero que no infringe nuestras pol\u00edticas. Por ejemplo, los usuarios pueden reportar sobre contenido de equipos deportivos rivales o spoilers de programas de televisi\u00f3n. Adem\u00e1s, es posible que un contenido sea visto por muchas personas antes de ser reportado, por lo que no podemos confiar \u00fanicamente en los reportes\u00a0 de los usuarios. Usamos inteligencia artificial para ayudar a priorizar el contenido para revisi\u00f3n, de modo que nuestros revisores puedan enfocarse en el contenido que representa el mayor da\u00f1o y dedicar m\u00e1s tiempo a capacitar y medir la calidad de nuestros sistemas automatizados. El papel de las herramientas y los sistemas de IA Hemos desarrollado herramientas y sistemas de inteligencia artificial para detectar y eliminar de forma proactiva el discurso de odio a gran escala. Debido a que el discurso del odio es tan contextual, la detecci\u00f3n de IA requiere de una capacidad para revisar publicaciones de manera integral, con contexto y en varios idiomas.\u00a0 Con el tiempo, los avances en las tecnolog\u00edas de inteligencia artificial nos han permitido eliminar una mayor cantidad de contenido de discurso de odio de Facebook y encontrarlo m\u00e1s del mismo antes de que los usuarios lo denuncien. Cuando comenzamos a informar nuestras m\u00e9tricas de incitaci\u00f3n al odio, en el cuarto trimestre de 2017, nuestra tasa de detecci\u00f3n proactiva fue de 23,6%. Esto significa que del discurso de odio que eliminamos, 23,6% se encontr\u00f3 antes de que un usuario nos lo denunciara. La mayor\u00eda restante fue eliminada despu\u00e9s de que los usuarios lo reportaran. Hoy, detectamos proactivamente cerca de 95% de discurso de odio que removemos. Ya sea que lo detectemos proactivamente o sea reportado por los usuarios, a menudo usamos IA para actuar en casos sencillos y priorizar los m\u00e1s dif\u00edciles para nuestros revisores, en donde se debe de considerar el contexto y los matices.\u00a0 Hemos invertido millones de d\u00f3lares en recursos humanos y tecnolog\u00eda para aplicar estas reglas y contamos con m\u00e1s de 35.000 personas especializadas en seguridad dentro de Facebook. Conforme el lenguaje evoluciona con el tiempo, continuaremos revisando nuestras pol\u00edticas para que reflejen las tendencias sociales cambiantes. Pero, creemos que las decisiones sobre la libertad de expresi\u00f3n y seguridad no deber\u00edan ser hechas \u00fanicamente por Facebook, por lo que continuaremos consultando expertos externos para dise\u00f1ar nuestras pol\u00edticas y t\u00e1cticas para aplicarlas. Para decisiones de contenido dif\u00edciles y relevantes, ahora podemos remitir casos al Consejo Asesor de Contenido para su revisi\u00f3n independiente y decisiones vinculantes.\u00a0 Con el uso de la prevalencia, los reportes de usuarios e IA, trabajamos para hacer de Facebook e Instagram lugares inclusivos y seguros para todos los que los usan.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/","og_site_name":"Acerca de Meta","article_published_time":"2020-11-19T18:51:30+00:00","article_modified_time":"2021-01-12T17:20:05+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/HateOrgs-01.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"eortiz","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"6 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/"},"author":"Facebook company","headline":"Medimos nuestros avances en el combate al discurso de odio","datePublished":"2020-11-19T18:51:30+00:00","dateModified":"2021-01-12T17:20:05+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/"},"wordCount":1208,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/HateOrgs-01.jpg?fit=1920%2C1080","keywords":["Informe de Cumplimiento de Normas Comunitarias"],"articleSection":["Meta","Pol\u00edtica P\u00fablica","Seguridad &amp; Expresi\u00f3n","Uncategorized"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/","url":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/","name":"Medimos nuestros avances en el combate al discurso de odio | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/HateOrgs-01.jpg?fit=1920%2C1080","datePublished":"2020-11-19T18:51:30+00:00","dateModified":"2021-01-12T17:20:05+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/HateOrgs-01.jpg?fit=1920%2C1080","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/HateOrgs-01.jpg?fit=1920%2C1080","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/medimos-nuestros-avances-en-el-combate-al-discurso-de-odio\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Medimos nuestros avances en el combate al discurso de odio"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/HateOrgs-01.jpg?fit=1920%2C1080","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/22179","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/164097140"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=22179"}],"version-history":[{"count":6,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/22179\/revisions"}],"predecessor-version":[{"id":22380,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/22179\/revisions\/22380"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media\/22193"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=22179"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=22179"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=22179"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}