{"id":22182,"date":"2020-11-19T12:57:24","date_gmt":"2020-11-19T18:57:24","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=22182"},"modified":"2020-11-19T13:07:39","modified_gmt":"2020-11-19T19:07:39","slug":"como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/","title":{"rendered":"C\u00f3mo la Inteligencia Artificial es cada vez m\u00e1s eficaz al momento de detectar lenguaje que incita al odio"},"content":{"rendered":"<p><span style=\"font-weight: 400\">Uno de los principales objetivos de Facebook en lo que respecta a la Inteligencia Artificial (IA) es implementar tecnolog\u00eda innovadora de aprendizaje autom\u00e1tico que proteja a las personas del contenido da\u00f1ino. Miles de millones de usuarios usan nuestras plataformas, motivo por el que confiamos en la IA para ampliar nuestra capacidad de revisi\u00f3n de contenido y automatizar las decisiones cuando sea posible. Nuestro objetivo es detectar de forma r\u00e1pida y precisa el lenguaje que incita al odio, la informaci\u00f3n err\u00f3nea y todas las dem\u00e1s formas de contenido que infringen nuestras pol\u00edticas en todos los idiomas y comunidades del mundo.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para alcanzar nuestro objetivo, necesitaremos muchos m\u00e1s avances t\u00e9cnicos en materia de IA. A pesar de esto, hemos conseguido mejoras reales y actualmente nuestros sistemas automatizados se usan como primera opci\u00f3n para revisar m\u00e1s contenido por cualquier tipo de infracci\u00f3n. Nuestra inversi\u00f3n y mejora continua se ven reflejadas en el <\/span><a href=\"https:\/\/transparency.facebook.com\/community-standards-enforcement#hate-speech\"><span style=\"font-weight: 400\">Informe de Cumplimiento de nuestras Normas Comunitarias<\/span><\/a><span style=\"font-weight: 400\"> que hemos publicado hoy.<\/span><\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-22183\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg?resize=890%2C303\" alt=\"\" width=\"890\" height=\"303\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg?w=1920 1920w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg?w=600 600w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg?w=1024 1024w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg?w=1536 1536w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg?w=800 800w\" sizes=\"auto, (max-width: 890px) 100vw, 890px\" \/><\/p>\n<p><span style=\"font-weight: 400\">La IA ya detecta de forma proactiva 94,7% del lenguaje que incita al odio y que eliminamos de Facebook, una mejora en comparaci\u00f3n con 80,5% de hace un a\u00f1o y con el 24% de 2017.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Esto ha sido posible gracias a los<\/span><a href=\"https:\/\/about.fb.com\/ltam\/news\/2020\/08\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-agosto-de-2020\/\"> <span style=\"font-weight: 400\">avances en nuestras herramientas de detecci\u00f3n automatizadas<\/span><\/a><span style=\"font-weight: 400\">, como la implementaci\u00f3n de <\/span><a href=\"https:\/\/github.com\/facebookresearch\/XLM?fbclid=IwAR0o6Ozd-b8QynRP6a6WStA5Yq6OTeymmHU6ZmteDlSZ82hc1cXwL7FcylI\"><span style=\"font-weight: 400\">XLM<\/span><\/a><span style=\"font-weight: 400\">, el m\u00e9todo de Facebook AI para entrenar sistemas de lenguaje en varios idiomas sin depender de conjuntos de datos etiquetados de forma manual. Recientemente, hemos incorporado nuevos sistemas que han mejorado nuestra capacidad para detectar lenguaje que incita al odio. Entre ellos se encuentra el <\/span> <span style=\"font-weight: 400\">optimizador de integridad reforzada<\/span><span style=\"font-weight: 400\">, un sistema que aprende de ejemplos y resultados del mundo real y nuestra arquitectura de IA de Linformer, que nos permite usar<\/span> <span style=\"font-weight: 400\">modelos innovadores de comprensi\u00f3n del lenguaje<\/span><span style=\"font-weight: 400\"> que antes eran demasiado grandes y dif\u00edciles de gestionar para funcionar a gran escala.\u00a0<\/span><\/p>\n<div style=\"width: 960px;\" class=\"wp-video\"><video class=\"wp-video-shortcode\" id=\"video-22182-1\" width=\"960\" height=\"540\" preload=\"metadata\" controls=\"controls\"><source type=\"video\/mp4\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-1_Hate_Speech_Timeline_v4.m4v?_=1\" \/><a href=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-1_Hate_Speech_Timeline_v4.m4v\">https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-1_Hate_Speech_Timeline_v4.m4v<\/a><\/video><\/div>\n<p><span style=\"font-weight: 400\">Por supuesto, el lenguaje que incita al odio no es el \u00fanico contenido que tenemos que detectar. Tambi\u00e9n, contamos con nuestra nueva tecnolog\u00eda de IA para combatir informaci\u00f3n falsa, como lo es <\/span><a href=\"https:\/\/about.fb.com\/ltam\/news\/2020\/05\/uso-de-inteligencia-artificial-contra-la-desinformacion-sobre-covid-19-y-contenido-abusivo\/\"><span style=\"font-weight: 400\">SimSearchNet<\/span><\/a><span style=\"font-weight: 400\">, un instrumento de comparaci\u00f3n de im\u00e1genes que analizamos a profundidad hace unos meses para la detecci\u00f3n de ultra falsificaciones que puede aprender y adaptarse con el tiempo.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En conjunto, todas estas innovaciones permiten que nuestros sistemas de IA puedan comprender mucho mejor el contenido que procesan. Ahora mismo, est\u00e1n m\u00e1s sensibilizadas con el contenido que las personas comparten en nuestras plataforma, de forma que se puedan adaptar r\u00e1pidamente cuando aparezca un nuevo meme o foto y estos se viralicen.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Estos retos son complejos, tienen muchos matices y est\u00e1n en constante evoluci\u00f3n. Es crucial no solo detectar los problemas, sino tambi\u00e9n evitar los errores, ya que clasificar contenido por equivocaci\u00f3n, como la informaci\u00f3n err\u00f3nea o el lenguaje que incita al odio, puede coartar la capacidad de las personas de expresarse en nuestra plataforma. La mejora continua necesitar\u00e1 no solo una mejor tecnolog\u00eda, sino tambi\u00e9n excelencia operativa y colaboraciones eficaces con expertos externos.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Aunque constantemente mejoramos nuestras herramientas de IA, est\u00e1n lejos de ser perfectas. Sabemos que queda trabajo por hacer y estamos dise\u00f1ando y probando nuevos sistemas que nos ayudar\u00e1n a proteger mejor a las personas que usan nuestras plataformas.<\/span><\/p>\n<h3><strong>Aprendizaje integral y nuevos modelos eficaces para detectar el lenguaje que incita al odio<\/strong><\/h3>\n<p><span style=\"font-weight: 400\">La detecci\u00f3n de cierto lenguaje que incita al odio no tiene demasiada complicaci\u00f3n para la IA ni para los humanos. Los insultos y los s\u00edmbolos que incitan al odio representan ataques obvios a la raza o la religi\u00f3n de una persona. Sin embargo, a menudo el lenguaje que incita al odio es m\u00e1s complejo. La combinaci\u00f3n de texto e im\u00e1genes dificulta la tarea de la IA para determinar si existe una intenci\u00f3n de ofender, incluso en los casos en los que resultar\u00eda obvio para un humano. El lenguaje que incita al odio tambi\u00e9n puede disfrazarse con sarcasmo o argot, o con im\u00e1genes aparentemente inofensivas que se perciben de forma diferente seg\u00fan la cultura, la regi\u00f3n o el idioma.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para manejar mejor estos retos, hemos dise\u00f1ado e implementado un nuevo marco de aprendizaje reforzado que conocemos como \u201cOptimizador de Integridad Reforzada\u201d (RIO, por sus siglas en ingl\u00e9s). En lugar de depender de un conjunto de datos est\u00e1tico (y, por lo tanto, limitado) fuera de la Internet, RIO usa datos de Internet, del mundo real, de nuestros sistemas de producci\u00f3n para optimizar los modelos de IA que detectan el lenguaje que incita al odio. RIO funciona durante todo el ciclo de vida de desarrollo del aprendizaje autom\u00e1tico, desde el muestreo de datos hasta las pruebas A\/B.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En los sistemas de IA tradicionales, los ingenieros optimizan estos pasos en dos procedimientos independientes: la optimizaci\u00f3n fuera de Internet y la experimentaci\u00f3n en Internet. Fuera de Internet, los ingenieros pueden usar diversas herramientas que les ayudar\u00e1n a elegir la combinaci\u00f3n perfecta entre entrenamiento y pruebas, as\u00ed como la neuroarquitectura adecuada. Sin embargo, se basan \u00fanicamente en resultados fuera de Internet, como la precisi\u00f3n y el recuerdo. El modelo se sigue optimizando fuera de Internet mediante pruebas A\/B que permiten determinar la repercusi\u00f3n del modelo en resultados sobre usuarios y empresas en Internet.<\/span><\/p>\n<p><span style=\"font-weight: 400\">El enfoque de RIO es completamente diferente. Optimiza todos los pasos de este proceso en conjunto y usa resultados reales de rendimiento de producci\u00f3n para perfeccionar los componentes fuera de Internet. Este nivel de optimizaci\u00f3n integral nos permite obtener un rendimiento significativamente mejor y realizar cambios a partir de las pruebas de forma m\u00e1s r\u00e1pida. En lugar de tener que hacer el trabajo fuera de Internet y, a continuaci\u00f3n, aplicarlo a la producci\u00f3n para comprobar que todo funciona como estaba previsto, el sistema en Internet atiende el reto real.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">RIO nos permite centrar nuestro modelo de aprendizaje en infracciones de nuestra pol\u00edtica sobre lenguaje que incita al odio que nuestros modelos de producci\u00f3n anteriores no llegaban a detectar.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Mediante los datos de entrenamiento adecuados de RIO, podemos usar modelos innovadores de comprensi\u00f3n del contenido para crear clasificadores eficaces. En los \u00faltimos a\u00f1os, los investigadores han mejorado de forma radical el rendimiento de los modelos de lenguaje usando Transformer, un mecanismo para ense\u00f1ar a la IA sobre qu\u00e9 partes del texto tiene que prestar atenci\u00f3n. Sin embargo, los modelos de Transformer m\u00e1s avanzados e innovadores pueden tener miles de millones de par\u00e1metros. Su gran complejidad computacional, que se suele expresar normalmente como O(N^2), implica que no son suficientemente eficaces para implementarse en la producci\u00f3n a escala y funcionar casi en tiempo real para detectar el lenguaje que incita al odio.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para aumentar la eficacia de los modelos de Transformer, los investigadores de Facebook AI han desarrollado una nueva arquitectura llamada <\/span><a href=\"https:\/\/arxiv.org\/abs\/2006.04768\"><span style=\"font-weight: 400\">Linformer<\/span><\/a><span style=\"font-weight: 400\">. La misma proporciona una forma mucho m\u00e1s eficaz de usar modelos innovadores masivos para entender el contenido. Ahora usamos RIO y Linformer en producci\u00f3n para analizar miles de millones de elementos de contenido de Facebook e Instagram en diferentes regiones de todo el mundo. Hemos compartido<\/span><a href=\"https:\/\/arxiv.org\/abs\/2006.04768\"> <span style=\"font-weight: 400\">nuestro trabajo<\/span><\/a><span style=\"font-weight: 400\"> y el<\/span><a href=\"https:\/\/github.com\/pytorch\/fairseq\/tree\/master\/examples\/linformer\"> <span style=\"font-weight: 400\">c\u00f3digo de Linformer<\/span><\/a><span style=\"font-weight: 400\"> con la comunidad de investigaci\u00f3n en materia de IA de forma que podamos contar con los avances de las dem\u00e1s partes y acelerar el progreso para todos.<\/span><\/p>\n<h3><strong>Comprensi\u00f3n autosupervisada, integral y multimodal<\/strong><\/h3>\n<p><span style=\"font-weight: 400\">RIO y Linformer nos ayudan a entrenar nuestros sistemas de forma m\u00e1s eficaz y a usar modelos avanzados de comprensi\u00f3n del contenido. Sin embargo, el lenguaje que incita al odio o la incitaci\u00f3n a la violencia pueden ser algo m\u00e1s complejo que un simple fragmento de texto. En algunos de los ejemplos m\u00e1s dif\u00edciles, vemos que una parte del contenido ofensivo se expresa a trav\u00e9s de una imagen o un video, mientras que la otra parte se expresa en texto. Si se analizan por separado, es posible que estas partes sean benignas. Sin embargo, juntas es cuando resultan ofensivas.<\/span><\/p>\n<h5><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-22185\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-3_Political_HS_Meme-3_Final.jpg?resize=890%2C501\" alt=\"\" width=\"890\" height=\"501\" srcset=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-3_Political_HS_Meme-3_Final.jpg?w=1920 1920w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-3_Political_HS_Meme-3_Final.jpg?w=600 600w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-3_Political_HS_Meme-3_Final.jpg?w=300 300w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-3_Political_HS_Meme-3_Final.jpg?w=768 768w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-3_Political_HS_Meme-3_Final.jpg?w=1024 1024w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-3_Political_HS_Meme-3_Final.jpg?w=1536 1536w, https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-3_Political_HS_Meme-3_Final.jpg?w=800 800w\" sizes=\"auto, (max-width: 890px) 100vw, 890px\" \/><i><span style=\"font-weight: 400\">Para identificar este meme como lenguaje que incita al odio, la IA debe comprender la imagen y el texto en conjunto.<\/span><\/i><\/h5>\n<p><span style=\"font-weight: 400\">Como se muestra en los ejemplos anteriores, estas situaciones requieren una comprensi\u00f3n integral del contenido en cuesti\u00f3n. A fin de hacerlo posible, hemos creado las Inserciones de Integridad de la Publicaci\u00f3n en Conjunto (WPIE, por sus siglas en ingl\u00e9s), una representaci\u00f3n universal pre-entrenada del contenido para evitar problemas de integridad. El funcionamiento de las WPIE consiste en entender los distintos tipos de infracci\u00f3n, las modalidades e incluso el momento de publicaci\u00f3n del contenido. Nuestra \u00faltima versi\u00f3n est\u00e1 entrenada con m\u00e1s infracciones y m\u00e1s datos en general. El sistema usa la p\u00e9rdida focal para mejorar el rendimiento en diferentes modalidades, como texto e imagen. Este enfoque evita que los ejemplos f\u00e1ciles de clasificar saturen el detector durante el entrenamiento. Adem\u00e1s, la fusi\u00f3n de gradientes registra una combinaci\u00f3n \u00f3ptima de modalidades en funci\u00f3n de su comportamiento de sobreajuste.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Tambi\u00e9n, usamos aprendizaje autosupervisado de las publicaciones para crear una representaci\u00f3n universal pre-entrenada del contenido para evitar problemas de integridad. Asimismo, hemos implementado<\/span><a href=\"https:\/\/ai.facebook.com\/blog\/-xlm-r-state-of-the-art-cross-lingual-understanding-through-self-supervision\/\"> <span style=\"font-weight: 400\">XLM-R<\/span><\/a><span style=\"font-weight: 400\">, un modelo que aprovecha nuestra innovadora<\/span><a href=\"https:\/\/ai.facebook.com\/blog\/roberta-an-optimized-method-for-pretraining-self-supervised-nlp-systems\/\"> <span style=\"font-weight: 400\">arquitectura de IA RoBERTa<\/span><\/a><span style=\"font-weight: 400\">, a fin de mejorar nuestros clasificadores de lenguaje que incita al odio en diversos idiomas tanto en Facebook como en Instagram. XLM-R ahora tambi\u00e9n forma parte de nuestro sistema para expandir el Centro de Informaci\u00f3n sobre COVID-19 a nivel internacional.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Tenemos mucho trabajo por delante. El reto de detectar el lenguaje que incita al odio no es solo complicado, sino que no deja de evolucionar. Un elemento nuevo de lenguaje que incita al odio puede no parecerse a los ejemplos anteriores porque hace referencia a una tendencia nueva o a una noticia reciente. Hemos creado herramientas como RIO y las WPIE para que puedan adaptarse tanto a los retos futuros como a los actuales. Con una IA m\u00e1s flexible y adaptativa, estamos seguros de que podremos seguir consiguiendo avances reales. <\/span><\/p>\n","protected":false},"excerpt":{"rendered":"Uno de los principales objetivos de Facebook en lo que respecta a la Inteligencia Artificial (IA) es implementar tecnolog\u00eda innovadora de aprendizaje autom\u00e1tico que proteja a las personas del contenido da\u00f1ino. Miles de millones de usuarios usan nuestras plataformas, motivo por el que confiamos en la IA para ampliar nuestra capacidad de revisi\u00f3n de contenido y automatizar las decisiones cuando sea posible. Nuestro objetivo es detectar de forma r\u00e1pida y precisa el lenguaje que incita al odio, la informaci\u00f3n err\u00f3nea y todas las dem\u00e1s formas de contenido que infringen nuestras pol\u00edticas en todos los idiomas y comunidades del mundo.\u00a0 Para alcanzar nuestro objetivo, necesitaremos muchos m\u00e1s avances t\u00e9cnicos en materia de IA. A pesar de esto, hemos conseguido mejoras reales y actualmente nuestros sistemas automatizados se usan como primera opci\u00f3n para revisar m\u00e1s contenido por cualquier tipo de infracci\u00f3n. Nuestra inversi\u00f3n y mejora continua se ven reflejadas en el Informe de Cumplimiento de nuestras Normas Comunitarias que hemos publicado hoy. La IA ya detecta de forma proactiva 94,7% del lenguaje que incita al odio y que eliminamos de Facebook, una mejora en comparaci\u00f3n con 80,5% de hace un a\u00f1o y con el 24% de 2017.\u00a0 Esto ha sido posible gracias a los avances en nuestras herramientas de detecci\u00f3n automatizadas, como la implementaci\u00f3n de XLM, el m\u00e9todo de Facebook AI para entrenar sistemas de lenguaje en varios idiomas sin depender de conjuntos de datos etiquetados de forma manual. Recientemente, hemos incorporado nuevos sistemas que han mejorado nuestra capacidad para detectar lenguaje que incita al odio. Entre ellos se encuentra el optimizador de integridad reforzada, un sistema que aprende de ejemplos y resultados del mundo real y nuestra arquitectura de IA de Linformer, que nos permite usar modelos innovadores de comprensi\u00f3n del lenguaje que antes eran demasiado grandes y dif\u00edciles de gestionar para funcionar a gran escala.\u00a0 Por supuesto, el lenguaje que incita al odio no es el \u00fanico contenido que tenemos que detectar. Tambi\u00e9n, contamos con nuestra nueva tecnolog\u00eda de IA para combatir informaci\u00f3n falsa, como lo es SimSearchNet, un instrumento de comparaci\u00f3n de im\u00e1genes que analizamos a profundidad hace unos meses para la detecci\u00f3n de ultra falsificaciones que puede aprender y adaptarse con el tiempo. En conjunto, todas estas innovaciones permiten que nuestros sistemas de IA puedan comprender mucho mejor el contenido que procesan. Ahora mismo, est\u00e1n m\u00e1s sensibilizadas con el contenido que las personas comparten en nuestras plataforma, de forma que se puedan adaptar r\u00e1pidamente cuando aparezca un nuevo meme o foto y estos se viralicen. Estos retos son complejos, tienen muchos matices y est\u00e1n en constante evoluci\u00f3n. Es crucial no solo detectar los problemas, sino tambi\u00e9n evitar los errores, ya que clasificar contenido por equivocaci\u00f3n, como la informaci\u00f3n err\u00f3nea o el lenguaje que incita al odio, puede coartar la capacidad de las personas de expresarse en nuestra plataforma. La mejora continua necesitar\u00e1 no solo una mejor tecnolog\u00eda, sino tambi\u00e9n excelencia operativa y colaboraciones eficaces con expertos externos.\u00a0 Aunque constantemente mejoramos nuestras herramientas de IA, est\u00e1n lejos de ser perfectas. Sabemos que queda trabajo por hacer y estamos dise\u00f1ando y probando nuevos sistemas que nos ayudar\u00e1n a proteger mejor a las personas que usan nuestras plataformas. Aprendizaje integral y nuevos modelos eficaces para detectar el lenguaje que incita al odio La detecci\u00f3n de cierto lenguaje que incita al odio no tiene demasiada complicaci\u00f3n para la IA ni para los humanos. Los insultos y los s\u00edmbolos que incitan al odio representan ataques obvios a la raza o la religi\u00f3n de una persona. Sin embargo, a menudo el lenguaje que incita al odio es m\u00e1s complejo. La combinaci\u00f3n de texto e im\u00e1genes dificulta la tarea de la IA para determinar si existe una intenci\u00f3n de ofender, incluso en los casos en los que resultar\u00eda obvio para un humano. El lenguaje que incita al odio tambi\u00e9n puede disfrazarse con sarcasmo o argot, o con im\u00e1genes aparentemente inofensivas que se perciben de forma diferente seg\u00fan la cultura, la regi\u00f3n o el idioma.\u00a0 Para manejar mejor estos retos, hemos dise\u00f1ado e implementado un nuevo marco de aprendizaje reforzado que conocemos como \u201cOptimizador de Integridad Reforzada\u201d (RIO, por sus siglas en ingl\u00e9s). En lugar de depender de un conjunto de datos est\u00e1tico (y, por lo tanto, limitado) fuera de la Internet, RIO usa datos de Internet, del mundo real, de nuestros sistemas de producci\u00f3n para optimizar los modelos de IA que detectan el lenguaje que incita al odio. RIO funciona durante todo el ciclo de vida de desarrollo del aprendizaje autom\u00e1tico, desde el muestreo de datos hasta las pruebas A\/B. En los sistemas de IA tradicionales, los ingenieros optimizan estos pasos en dos procedimientos independientes: la optimizaci\u00f3n fuera de Internet y la experimentaci\u00f3n en Internet. Fuera de Internet, los ingenieros pueden usar diversas herramientas que les ayudar\u00e1n a elegir la combinaci\u00f3n perfecta entre entrenamiento y pruebas, as\u00ed como la neuroarquitectura adecuada. Sin embargo, se basan \u00fanicamente en resultados fuera de Internet, como la precisi\u00f3n y el recuerdo. El modelo se sigue optimizando fuera de Internet mediante pruebas A\/B que permiten determinar la repercusi\u00f3n del modelo en resultados sobre usuarios y empresas en Internet. El enfoque de RIO es completamente diferente. Optimiza todos los pasos de este proceso en conjunto y usa resultados reales de rendimiento de producci\u00f3n para perfeccionar los componentes fuera de Internet. Este nivel de optimizaci\u00f3n integral nos permite obtener un rendimiento significativamente mejor y realizar cambios a partir de las pruebas de forma m\u00e1s r\u00e1pida. En lugar de tener que hacer el trabajo fuera de Internet y, a continuaci\u00f3n, aplicarlo a la producci\u00f3n para comprobar que todo funciona como estaba previsto, el sistema en Internet atiende el reto real.\u00a0 RIO nos permite centrar nuestro modelo de aprendizaje en infracciones de nuestra pol\u00edtica sobre lenguaje que incita al odio que nuestros modelos de producci\u00f3n anteriores no llegaban a detectar.\u00a0 Mediante los datos de entrenamiento adecuados de RIO, podemos usar modelos innovadores de comprensi\u00f3n del contenido para crear clasificadores eficaces. En los \u00faltimos a\u00f1os, los investigadores han mejorado de forma radical el rendimiento de los modelos de lenguaje usando Transformer, un mecanismo para ense\u00f1ar a la IA sobre qu\u00e9 partes del texto tiene que prestar atenci\u00f3n. Sin embargo, los modelos de Transformer m\u00e1s avanzados e innovadores pueden tener miles de millones de par\u00e1metros. Su gran complejidad computacional, que se suele expresar normalmente como O(N^2), implica que no son suficientemente eficaces para implementarse en la producci\u00f3n a escala y funcionar casi en tiempo real para detectar el lenguaje que incita al odio.\u00a0 Para aumentar la eficacia de los modelos de Transformer, los investigadores de Facebook AI han desarrollado una nueva arquitectura llamada Linformer. La misma proporciona una forma mucho m\u00e1s eficaz de usar modelos innovadores masivos para entender el contenido. Ahora usamos RIO y Linformer en producci\u00f3n para analizar miles de millones de elementos de contenido de Facebook e Instagram en diferentes regiones de todo el mundo. Hemos compartido nuestro trabajo y el c\u00f3digo de Linformer con la comunidad de investigaci\u00f3n en materia de IA de forma que podamos contar con los avances de las dem\u00e1s partes y acelerar el progreso para todos. Comprensi\u00f3n autosupervisada, integral y multimodal RIO y Linformer nos ayudan a entrenar nuestros sistemas de forma m\u00e1s eficaz y a usar modelos avanzados de comprensi\u00f3n del contenido. Sin embargo, el lenguaje que incita al odio o la incitaci\u00f3n a la violencia pueden ser algo m\u00e1s complejo que un simple fragmento de texto. En algunos de los ejemplos m\u00e1s dif\u00edciles, vemos que una parte del contenido ofensivo se expresa a trav\u00e9s de una imagen o un video, mientras que la otra parte se expresa en texto. Si se analizan por separado, es posible que estas partes sean benignas. Sin embargo, juntas es cuando resultan ofensivas. Para identificar este meme como lenguaje que incita al odio, la IA debe comprender la imagen y el texto en conjunto. Como se muestra en los ejemplos anteriores, estas situaciones requieren una comprensi\u00f3n integral del contenido en cuesti\u00f3n. A fin de hacerlo posible, hemos creado las Inserciones de Integridad de la Publicaci\u00f3n en Conjunto (WPIE, por sus siglas en ingl\u00e9s), una representaci\u00f3n universal pre-entrenada del contenido para evitar problemas de integridad. El funcionamiento de las WPIE consiste en entender los distintos tipos de infracci\u00f3n, las modalidades e incluso el momento de publicaci\u00f3n del contenido. Nuestra \u00faltima versi\u00f3n est\u00e1 entrenada con m\u00e1s infracciones y m\u00e1s datos en general. El sistema usa la p\u00e9rdida focal para mejorar el rendimiento en diferentes modalidades, como texto e imagen. Este enfoque evita que los ejemplos f\u00e1ciles de clasificar saturen el detector durante el entrenamiento. Adem\u00e1s, la fusi\u00f3n de gradientes registra una combinaci\u00f3n \u00f3ptima de modalidades en funci\u00f3n de su comportamiento de sobreajuste. Tambi\u00e9n, usamos aprendizaje autosupervisado de las publicaciones para crear una representaci\u00f3n universal pre-entrenada del contenido para evitar problemas de integridad. Asimismo, hemos implementado XLM-R, un modelo que aprovecha nuestra innovadora arquitectura de IA RoBERTa, a fin de mejorar nuestros clasificadores de lenguaje que incita al odio en diversos idiomas tanto en Facebook como en Instagram. XLM-R ahora tambi\u00e9n forma parte de nuestro sistema para expandir el Centro de Informaci\u00f3n sobre COVID-19 a nivel internacional.\u00a0 Tenemos mucho trabajo por delante. El reto de detectar el lenguaje que incita al odio no es solo complicado, sino que no deja de evolucionar. Un elemento nuevo de lenguaje que incita al odio puede no parecerse a los ejemplos anteriores porque hace referencia a una tendencia nueva o a una noticia reciente. Hemos creado herramientas como RIO y las WPIE para que puedan adaptarse tanto a los retos futuros como a los actuales. Con una IA m\u00e1s flexible y adaptativa, estamos seguros de que podremos seguir consiguiendo avances reales.","protected":false},"author":164097140,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243948037,243947992,243948083,1],"tags":[243948080],"class_list":["post-22182","post","type-post","status-publish","format-standard","hentry","category-meta","category-politica-publica","category-seguridad-expresion","category-uncategorized","tag-informe-de-cumplimiento-de-normas-comunitarias"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>C\u00f3mo la Inteligencia Artificial es cada vez m\u00e1s eficaz al momento de detectar lenguaje que incita al odio | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"C\u00f3mo la Inteligencia Artificial es cada vez m\u00e1s eficaz al momento de detectar lenguaje que incita al odio | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Uno de los principales objetivos de Facebook en lo que respecta a la Inteligencia Artificial (IA) es implementar tecnolog\u00eda innovadora de aprendizaje autom\u00e1tico que proteja a las personas del contenido da\u00f1ino. Miles de millones de usuarios usan nuestras plataformas, motivo por el que confiamos en la IA para ampliar nuestra capacidad de revisi\u00f3n de contenido y automatizar las decisiones cuando sea posible. Nuestro objetivo es detectar de forma r\u00e1pida y precisa el lenguaje que incita al odio, la informaci\u00f3n err\u00f3nea y todas las dem\u00e1s formas de contenido que infringen nuestras pol\u00edticas en todos los idiomas y comunidades del mundo.\u00a0 Para alcanzar nuestro objetivo, necesitaremos muchos m\u00e1s avances t\u00e9cnicos en materia de IA. A pesar de esto, hemos conseguido mejoras reales y actualmente nuestros sistemas automatizados se usan como primera opci\u00f3n para revisar m\u00e1s contenido por cualquier tipo de infracci\u00f3n. Nuestra inversi\u00f3n y mejora continua se ven reflejadas en el Informe de Cumplimiento de nuestras Normas Comunitarias que hemos publicado hoy. La IA ya detecta de forma proactiva 94,7% del lenguaje que incita al odio y que eliminamos de Facebook, una mejora en comparaci\u00f3n con 80,5% de hace un a\u00f1o y con el 24% de 2017.\u00a0 Esto ha sido posible gracias a los avances en nuestras herramientas de detecci\u00f3n automatizadas, como la implementaci\u00f3n de XLM, el m\u00e9todo de Facebook AI para entrenar sistemas de lenguaje en varios idiomas sin depender de conjuntos de datos etiquetados de forma manual. Recientemente, hemos incorporado nuevos sistemas que han mejorado nuestra capacidad para detectar lenguaje que incita al odio. Entre ellos se encuentra el optimizador de integridad reforzada, un sistema que aprende de ejemplos y resultados del mundo real y nuestra arquitectura de IA de Linformer, que nos permite usar modelos innovadores de comprensi\u00f3n del lenguaje que antes eran demasiado grandes y dif\u00edciles de gestionar para funcionar a gran escala.\u00a0 Por supuesto, el lenguaje que incita al odio no es el \u00fanico contenido que tenemos que detectar. Tambi\u00e9n, contamos con nuestra nueva tecnolog\u00eda de IA para combatir informaci\u00f3n falsa, como lo es SimSearchNet, un instrumento de comparaci\u00f3n de im\u00e1genes que analizamos a profundidad hace unos meses para la detecci\u00f3n de ultra falsificaciones que puede aprender y adaptarse con el tiempo. En conjunto, todas estas innovaciones permiten que nuestros sistemas de IA puedan comprender mucho mejor el contenido que procesan. Ahora mismo, est\u00e1n m\u00e1s sensibilizadas con el contenido que las personas comparten en nuestras plataforma, de forma que se puedan adaptar r\u00e1pidamente cuando aparezca un nuevo meme o foto y estos se viralicen. Estos retos son complejos, tienen muchos matices y est\u00e1n en constante evoluci\u00f3n. Es crucial no solo detectar los problemas, sino tambi\u00e9n evitar los errores, ya que clasificar contenido por equivocaci\u00f3n, como la informaci\u00f3n err\u00f3nea o el lenguaje que incita al odio, puede coartar la capacidad de las personas de expresarse en nuestra plataforma. La mejora continua necesitar\u00e1 no solo una mejor tecnolog\u00eda, sino tambi\u00e9n excelencia operativa y colaboraciones eficaces con expertos externos.\u00a0 Aunque constantemente mejoramos nuestras herramientas de IA, est\u00e1n lejos de ser perfectas. Sabemos que queda trabajo por hacer y estamos dise\u00f1ando y probando nuevos sistemas que nos ayudar\u00e1n a proteger mejor a las personas que usan nuestras plataformas. Aprendizaje integral y nuevos modelos eficaces para detectar el lenguaje que incita al odio La detecci\u00f3n de cierto lenguaje que incita al odio no tiene demasiada complicaci\u00f3n para la IA ni para los humanos. Los insultos y los s\u00edmbolos que incitan al odio representan ataques obvios a la raza o la religi\u00f3n de una persona. Sin embargo, a menudo el lenguaje que incita al odio es m\u00e1s complejo. La combinaci\u00f3n de texto e im\u00e1genes dificulta la tarea de la IA para determinar si existe una intenci\u00f3n de ofender, incluso en los casos en los que resultar\u00eda obvio para un humano. El lenguaje que incita al odio tambi\u00e9n puede disfrazarse con sarcasmo o argot, o con im\u00e1genes aparentemente inofensivas que se perciben de forma diferente seg\u00fan la cultura, la regi\u00f3n o el idioma.\u00a0 Para manejar mejor estos retos, hemos dise\u00f1ado e implementado un nuevo marco de aprendizaje reforzado que conocemos como \u201cOptimizador de Integridad Reforzada\u201d (RIO, por sus siglas en ingl\u00e9s). En lugar de depender de un conjunto de datos est\u00e1tico (y, por lo tanto, limitado) fuera de la Internet, RIO usa datos de Internet, del mundo real, de nuestros sistemas de producci\u00f3n para optimizar los modelos de IA que detectan el lenguaje que incita al odio. RIO funciona durante todo el ciclo de vida de desarrollo del aprendizaje autom\u00e1tico, desde el muestreo de datos hasta las pruebas A\/B. En los sistemas de IA tradicionales, los ingenieros optimizan estos pasos en dos procedimientos independientes: la optimizaci\u00f3n fuera de Internet y la experimentaci\u00f3n en Internet. Fuera de Internet, los ingenieros pueden usar diversas herramientas que les ayudar\u00e1n a elegir la combinaci\u00f3n perfecta entre entrenamiento y pruebas, as\u00ed como la neuroarquitectura adecuada. Sin embargo, se basan \u00fanicamente en resultados fuera de Internet, como la precisi\u00f3n y el recuerdo. El modelo se sigue optimizando fuera de Internet mediante pruebas A\/B que permiten determinar la repercusi\u00f3n del modelo en resultados sobre usuarios y empresas en Internet. El enfoque de RIO es completamente diferente. Optimiza todos los pasos de este proceso en conjunto y usa resultados reales de rendimiento de producci\u00f3n para perfeccionar los componentes fuera de Internet. Este nivel de optimizaci\u00f3n integral nos permite obtener un rendimiento significativamente mejor y realizar cambios a partir de las pruebas de forma m\u00e1s r\u00e1pida. En lugar de tener que hacer el trabajo fuera de Internet y, a continuaci\u00f3n, aplicarlo a la producci\u00f3n para comprobar que todo funciona como estaba previsto, el sistema en Internet atiende el reto real.\u00a0 RIO nos permite centrar nuestro modelo de aprendizaje en infracciones de nuestra pol\u00edtica sobre lenguaje que incita al odio que nuestros modelos de producci\u00f3n anteriores no llegaban a detectar.\u00a0 Mediante los datos de entrenamiento adecuados de RIO, podemos usar modelos innovadores de comprensi\u00f3n del contenido para crear clasificadores eficaces. En los \u00faltimos a\u00f1os, los investigadores han mejorado de forma radical el rendimiento de los modelos de lenguaje usando Transformer, un mecanismo para ense\u00f1ar a la IA sobre qu\u00e9 partes del texto tiene que prestar atenci\u00f3n. Sin embargo, los modelos de Transformer m\u00e1s avanzados e innovadores pueden tener miles de millones de par\u00e1metros. Su gran complejidad computacional, que se suele expresar normalmente como O(N^2), implica que no son suficientemente eficaces para implementarse en la producci\u00f3n a escala y funcionar casi en tiempo real para detectar el lenguaje que incita al odio.\u00a0 Para aumentar la eficacia de los modelos de Transformer, los investigadores de Facebook AI han desarrollado una nueva arquitectura llamada Linformer. La misma proporciona una forma mucho m\u00e1s eficaz de usar modelos innovadores masivos para entender el contenido. Ahora usamos RIO y Linformer en producci\u00f3n para analizar miles de millones de elementos de contenido de Facebook e Instagram en diferentes regiones de todo el mundo. Hemos compartido nuestro trabajo y el c\u00f3digo de Linformer con la comunidad de investigaci\u00f3n en materia de IA de forma que podamos contar con los avances de las dem\u00e1s partes y acelerar el progreso para todos. Comprensi\u00f3n autosupervisada, integral y multimodal RIO y Linformer nos ayudan a entrenar nuestros sistemas de forma m\u00e1s eficaz y a usar modelos avanzados de comprensi\u00f3n del contenido. Sin embargo, el lenguaje que incita al odio o la incitaci\u00f3n a la violencia pueden ser algo m\u00e1s complejo que un simple fragmento de texto. En algunos de los ejemplos m\u00e1s dif\u00edciles, vemos que una parte del contenido ofensivo se expresa a trav\u00e9s de una imagen o un video, mientras que la otra parte se expresa en texto. Si se analizan por separado, es posible que estas partes sean benignas. Sin embargo, juntas es cuando resultan ofensivas. Para identificar este meme como lenguaje que incita al odio, la IA debe comprender la imagen y el texto en conjunto. Como se muestra en los ejemplos anteriores, estas situaciones requieren una comprensi\u00f3n integral del contenido en cuesti\u00f3n. A fin de hacerlo posible, hemos creado las Inserciones de Integridad de la Publicaci\u00f3n en Conjunto (WPIE, por sus siglas en ingl\u00e9s), una representaci\u00f3n universal pre-entrenada del contenido para evitar problemas de integridad. El funcionamiento de las WPIE consiste en entender los distintos tipos de infracci\u00f3n, las modalidades e incluso el momento de publicaci\u00f3n del contenido. Nuestra \u00faltima versi\u00f3n est\u00e1 entrenada con m\u00e1s infracciones y m\u00e1s datos en general. El sistema usa la p\u00e9rdida focal para mejorar el rendimiento en diferentes modalidades, como texto e imagen. Este enfoque evita que los ejemplos f\u00e1ciles de clasificar saturen el detector durante el entrenamiento. Adem\u00e1s, la fusi\u00f3n de gradientes registra una combinaci\u00f3n \u00f3ptima de modalidades en funci\u00f3n de su comportamiento de sobreajuste. Tambi\u00e9n, usamos aprendizaje autosupervisado de las publicaciones para crear una representaci\u00f3n universal pre-entrenada del contenido para evitar problemas de integridad. Asimismo, hemos implementado XLM-R, un modelo que aprovecha nuestra innovadora arquitectura de IA RoBERTa, a fin de mejorar nuestros clasificadores de lenguaje que incita al odio en diversos idiomas tanto en Facebook como en Instagram. XLM-R ahora tambi\u00e9n forma parte de nuestro sistema para expandir el Centro de Informaci\u00f3n sobre COVID-19 a nivel internacional.\u00a0 Tenemos mucho trabajo por delante. El reto de detectar el lenguaje que incita al odio no es solo complicado, sino que no deja de evolucionar. Un elemento nuevo de lenguaje que incita al odio puede no parecerse a los ejemplos anteriores porque hace referencia a una tendencia nueva o a una noticia reciente. Hemos creado herramientas como RIO y las WPIE para que puedan adaptarse tanto a los retos futuros como a los actuales. Con una IA m\u00e1s flexible y adaptativa, estamos seguros de que podremos seguir consiguiendo avances reales.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2020-11-19T18:57:24+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2020-11-19T19:07:39+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg\" \/>\n<meta name=\"author\" content=\"eortiz\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"9 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/\"},\"author\":\"Facebook company\",\"headline\":\"C\u00f3mo la Inteligencia Artificial es cada vez m\u00e1s eficaz al momento de detectar lenguaje que incita al odio\",\"datePublished\":\"2020-11-19T18:57:24+00:00\",\"dateModified\":\"2020-11-19T19:07:39+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/\"},\"wordCount\":1758,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg\",\"keywords\":[\"Informe de Cumplimiento de Normas Comunitarias\"],\"articleSection\":[\"Meta\",\"Pol\u00edtica P\u00fablica\",\"Seguridad &amp; Expresi\u00f3n\",\"Uncategorized\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/\",\"name\":\"C\u00f3mo la Inteligencia Artificial es cada vez m\u00e1s eficaz al momento de detectar lenguaje que incita al odio | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg\",\"datePublished\":\"2020-11-19T18:57:24+00:00\",\"dateModified\":\"2020-11-19T19:07:39+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg?fit=1920%2C653\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg?fit=1920%2C653\",\"width\":1920,\"height\":653},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"C\u00f3mo la Inteligencia Artificial es cada vez m\u00e1s eficaz al momento de detectar lenguaje que incita al odio\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"C\u00f3mo la Inteligencia Artificial es cada vez m\u00e1s eficaz al momento de detectar lenguaje que incita al odio | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/","og_locale":"es_ES","og_type":"article","og_title":"C\u00f3mo la Inteligencia Artificial es cada vez m\u00e1s eficaz al momento de detectar lenguaje que incita al odio | Acerca de Meta","og_description":"Uno de los principales objetivos de Facebook en lo que respecta a la Inteligencia Artificial (IA) es implementar tecnolog\u00eda innovadora de aprendizaje autom\u00e1tico que proteja a las personas del contenido da\u00f1ino. Miles de millones de usuarios usan nuestras plataformas, motivo por el que confiamos en la IA para ampliar nuestra capacidad de revisi\u00f3n de contenido y automatizar las decisiones cuando sea posible. Nuestro objetivo es detectar de forma r\u00e1pida y precisa el lenguaje que incita al odio, la informaci\u00f3n err\u00f3nea y todas las dem\u00e1s formas de contenido que infringen nuestras pol\u00edticas en todos los idiomas y comunidades del mundo.\u00a0 Para alcanzar nuestro objetivo, necesitaremos muchos m\u00e1s avances t\u00e9cnicos en materia de IA. A pesar de esto, hemos conseguido mejoras reales y actualmente nuestros sistemas automatizados se usan como primera opci\u00f3n para revisar m\u00e1s contenido por cualquier tipo de infracci\u00f3n. Nuestra inversi\u00f3n y mejora continua se ven reflejadas en el Informe de Cumplimiento de nuestras Normas Comunitarias que hemos publicado hoy. La IA ya detecta de forma proactiva 94,7% del lenguaje que incita al odio y que eliminamos de Facebook, una mejora en comparaci\u00f3n con 80,5% de hace un a\u00f1o y con el 24% de 2017.\u00a0 Esto ha sido posible gracias a los avances en nuestras herramientas de detecci\u00f3n automatizadas, como la implementaci\u00f3n de XLM, el m\u00e9todo de Facebook AI para entrenar sistemas de lenguaje en varios idiomas sin depender de conjuntos de datos etiquetados de forma manual. Recientemente, hemos incorporado nuevos sistemas que han mejorado nuestra capacidad para detectar lenguaje que incita al odio. Entre ellos se encuentra el optimizador de integridad reforzada, un sistema que aprende de ejemplos y resultados del mundo real y nuestra arquitectura de IA de Linformer, que nos permite usar modelos innovadores de comprensi\u00f3n del lenguaje que antes eran demasiado grandes y dif\u00edciles de gestionar para funcionar a gran escala.\u00a0 Por supuesto, el lenguaje que incita al odio no es el \u00fanico contenido que tenemos que detectar. Tambi\u00e9n, contamos con nuestra nueva tecnolog\u00eda de IA para combatir informaci\u00f3n falsa, como lo es SimSearchNet, un instrumento de comparaci\u00f3n de im\u00e1genes que analizamos a profundidad hace unos meses para la detecci\u00f3n de ultra falsificaciones que puede aprender y adaptarse con el tiempo. En conjunto, todas estas innovaciones permiten que nuestros sistemas de IA puedan comprender mucho mejor el contenido que procesan. Ahora mismo, est\u00e1n m\u00e1s sensibilizadas con el contenido que las personas comparten en nuestras plataforma, de forma que se puedan adaptar r\u00e1pidamente cuando aparezca un nuevo meme o foto y estos se viralicen. Estos retos son complejos, tienen muchos matices y est\u00e1n en constante evoluci\u00f3n. Es crucial no solo detectar los problemas, sino tambi\u00e9n evitar los errores, ya que clasificar contenido por equivocaci\u00f3n, como la informaci\u00f3n err\u00f3nea o el lenguaje que incita al odio, puede coartar la capacidad de las personas de expresarse en nuestra plataforma. La mejora continua necesitar\u00e1 no solo una mejor tecnolog\u00eda, sino tambi\u00e9n excelencia operativa y colaboraciones eficaces con expertos externos.\u00a0 Aunque constantemente mejoramos nuestras herramientas de IA, est\u00e1n lejos de ser perfectas. Sabemos que queda trabajo por hacer y estamos dise\u00f1ando y probando nuevos sistemas que nos ayudar\u00e1n a proteger mejor a las personas que usan nuestras plataformas. Aprendizaje integral y nuevos modelos eficaces para detectar el lenguaje que incita al odio La detecci\u00f3n de cierto lenguaje que incita al odio no tiene demasiada complicaci\u00f3n para la IA ni para los humanos. Los insultos y los s\u00edmbolos que incitan al odio representan ataques obvios a la raza o la religi\u00f3n de una persona. Sin embargo, a menudo el lenguaje que incita al odio es m\u00e1s complejo. La combinaci\u00f3n de texto e im\u00e1genes dificulta la tarea de la IA para determinar si existe una intenci\u00f3n de ofender, incluso en los casos en los que resultar\u00eda obvio para un humano. El lenguaje que incita al odio tambi\u00e9n puede disfrazarse con sarcasmo o argot, o con im\u00e1genes aparentemente inofensivas que se perciben de forma diferente seg\u00fan la cultura, la regi\u00f3n o el idioma.\u00a0 Para manejar mejor estos retos, hemos dise\u00f1ado e implementado un nuevo marco de aprendizaje reforzado que conocemos como \u201cOptimizador de Integridad Reforzada\u201d (RIO, por sus siglas en ingl\u00e9s). En lugar de depender de un conjunto de datos est\u00e1tico (y, por lo tanto, limitado) fuera de la Internet, RIO usa datos de Internet, del mundo real, de nuestros sistemas de producci\u00f3n para optimizar los modelos de IA que detectan el lenguaje que incita al odio. RIO funciona durante todo el ciclo de vida de desarrollo del aprendizaje autom\u00e1tico, desde el muestreo de datos hasta las pruebas A\/B. En los sistemas de IA tradicionales, los ingenieros optimizan estos pasos en dos procedimientos independientes: la optimizaci\u00f3n fuera de Internet y la experimentaci\u00f3n en Internet. Fuera de Internet, los ingenieros pueden usar diversas herramientas que les ayudar\u00e1n a elegir la combinaci\u00f3n perfecta entre entrenamiento y pruebas, as\u00ed como la neuroarquitectura adecuada. Sin embargo, se basan \u00fanicamente en resultados fuera de Internet, como la precisi\u00f3n y el recuerdo. El modelo se sigue optimizando fuera de Internet mediante pruebas A\/B que permiten determinar la repercusi\u00f3n del modelo en resultados sobre usuarios y empresas en Internet. El enfoque de RIO es completamente diferente. Optimiza todos los pasos de este proceso en conjunto y usa resultados reales de rendimiento de producci\u00f3n para perfeccionar los componentes fuera de Internet. Este nivel de optimizaci\u00f3n integral nos permite obtener un rendimiento significativamente mejor y realizar cambios a partir de las pruebas de forma m\u00e1s r\u00e1pida. En lugar de tener que hacer el trabajo fuera de Internet y, a continuaci\u00f3n, aplicarlo a la producci\u00f3n para comprobar que todo funciona como estaba previsto, el sistema en Internet atiende el reto real.\u00a0 RIO nos permite centrar nuestro modelo de aprendizaje en infracciones de nuestra pol\u00edtica sobre lenguaje que incita al odio que nuestros modelos de producci\u00f3n anteriores no llegaban a detectar.\u00a0 Mediante los datos de entrenamiento adecuados de RIO, podemos usar modelos innovadores de comprensi\u00f3n del contenido para crear clasificadores eficaces. En los \u00faltimos a\u00f1os, los investigadores han mejorado de forma radical el rendimiento de los modelos de lenguaje usando Transformer, un mecanismo para ense\u00f1ar a la IA sobre qu\u00e9 partes del texto tiene que prestar atenci\u00f3n. Sin embargo, los modelos de Transformer m\u00e1s avanzados e innovadores pueden tener miles de millones de par\u00e1metros. Su gran complejidad computacional, que se suele expresar normalmente como O(N^2), implica que no son suficientemente eficaces para implementarse en la producci\u00f3n a escala y funcionar casi en tiempo real para detectar el lenguaje que incita al odio.\u00a0 Para aumentar la eficacia de los modelos de Transformer, los investigadores de Facebook AI han desarrollado una nueva arquitectura llamada Linformer. La misma proporciona una forma mucho m\u00e1s eficaz de usar modelos innovadores masivos para entender el contenido. Ahora usamos RIO y Linformer en producci\u00f3n para analizar miles de millones de elementos de contenido de Facebook e Instagram en diferentes regiones de todo el mundo. Hemos compartido nuestro trabajo y el c\u00f3digo de Linformer con la comunidad de investigaci\u00f3n en materia de IA de forma que podamos contar con los avances de las dem\u00e1s partes y acelerar el progreso para todos. Comprensi\u00f3n autosupervisada, integral y multimodal RIO y Linformer nos ayudan a entrenar nuestros sistemas de forma m\u00e1s eficaz y a usar modelos avanzados de comprensi\u00f3n del contenido. Sin embargo, el lenguaje que incita al odio o la incitaci\u00f3n a la violencia pueden ser algo m\u00e1s complejo que un simple fragmento de texto. En algunos de los ejemplos m\u00e1s dif\u00edciles, vemos que una parte del contenido ofensivo se expresa a trav\u00e9s de una imagen o un video, mientras que la otra parte se expresa en texto. Si se analizan por separado, es posible que estas partes sean benignas. Sin embargo, juntas es cuando resultan ofensivas. Para identificar este meme como lenguaje que incita al odio, la IA debe comprender la imagen y el texto en conjunto. Como se muestra en los ejemplos anteriores, estas situaciones requieren una comprensi\u00f3n integral del contenido en cuesti\u00f3n. A fin de hacerlo posible, hemos creado las Inserciones de Integridad de la Publicaci\u00f3n en Conjunto (WPIE, por sus siglas en ingl\u00e9s), una representaci\u00f3n universal pre-entrenada del contenido para evitar problemas de integridad. El funcionamiento de las WPIE consiste en entender los distintos tipos de infracci\u00f3n, las modalidades e incluso el momento de publicaci\u00f3n del contenido. Nuestra \u00faltima versi\u00f3n est\u00e1 entrenada con m\u00e1s infracciones y m\u00e1s datos en general. El sistema usa la p\u00e9rdida focal para mejorar el rendimiento en diferentes modalidades, como texto e imagen. Este enfoque evita que los ejemplos f\u00e1ciles de clasificar saturen el detector durante el entrenamiento. Adem\u00e1s, la fusi\u00f3n de gradientes registra una combinaci\u00f3n \u00f3ptima de modalidades en funci\u00f3n de su comportamiento de sobreajuste. Tambi\u00e9n, usamos aprendizaje autosupervisado de las publicaciones para crear una representaci\u00f3n universal pre-entrenada del contenido para evitar problemas de integridad. Asimismo, hemos implementado XLM-R, un modelo que aprovecha nuestra innovadora arquitectura de IA RoBERTa, a fin de mejorar nuestros clasificadores de lenguaje que incita al odio en diversos idiomas tanto en Facebook como en Instagram. XLM-R ahora tambi\u00e9n forma parte de nuestro sistema para expandir el Centro de Informaci\u00f3n sobre COVID-19 a nivel internacional.\u00a0 Tenemos mucho trabajo por delante. El reto de detectar el lenguaje que incita al odio no es solo complicado, sino que no deja de evolucionar. Un elemento nuevo de lenguaje que incita al odio puede no parecerse a los ejemplos anteriores porque hace referencia a una tendencia nueva o a una noticia reciente. Hemos creado herramientas como RIO y las WPIE para que puedan adaptarse tanto a los retos futuros como a los actuales. Con una IA m\u00e1s flexible y adaptativa, estamos seguros de que podremos seguir consiguiendo avances reales.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/","og_site_name":"Acerca de Meta","article_published_time":"2020-11-19T18:57:24+00:00","article_modified_time":"2020-11-19T19:07:39+00:00","og_image":[{"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg","type":"","width":"","height":""}],"author":"eortiz","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"9 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/"},"author":"Facebook company","headline":"C\u00f3mo la Inteligencia Artificial es cada vez m\u00e1s eficaz al momento de detectar lenguaje que incita al odio","datePublished":"2020-11-19T18:57:24+00:00","dateModified":"2020-11-19T19:07:39+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/"},"wordCount":1758,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg","keywords":["Informe de Cumplimiento de Normas Comunitarias"],"articleSection":["Meta","Pol\u00edtica P\u00fablica","Seguridad &amp; Expresi\u00f3n","Uncategorized"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/","url":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/","name":"C\u00f3mo la Inteligencia Artificial es cada vez m\u00e1s eficaz al momento de detectar lenguaje que incita al odio | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg","datePublished":"2020-11-19T18:57:24+00:00","dateModified":"2020-11-19T19:07:39+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg?fit=1920%2C653","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2020\/11\/1-2_HS_Removal_Quotes_1.jpg?fit=1920%2C653","width":1920,"height":653},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/11\/como-la-inteligencia-artificial-es-cada-vez-mas-eficaz-al-momento-de-detectar-lenguaje-que-incita-al-odio\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"C\u00f3mo la Inteligencia Artificial es cada vez m\u00e1s eficaz al momento de detectar lenguaje que incita al odio"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/22182","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/164097140"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=22182"}],"version-history":[{"count":4,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/22182\/revisions"}],"predecessor-version":[{"id":22199,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/22182\/revisions\/22199"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=22182"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=22182"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=22182"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}