{"id":6702,"date":"2018-11-15T12:24:28","date_gmt":"2018-11-15T18:24:28","guid":{"rendered":"http:\/\/ltam.newsroom.fb.com\/?p=6702"},"modified":"2019-11-04T13:15:13","modified_gmt":"2019-11-04T19:15:13","slug":"como-aplicamos-nuestras-normas-comunitarias","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/","title":{"rendered":"Como aplicamos nuestras Normas Comunitarias"},"content":{"rendered":"<p><em>Por <a href=\"https:\/\/www.facebook.com\/guyro\">Guy Rosen<\/a>, Vicepresidente de Producto.<\/em><\/p>\n<p>Las personas s\u00f3lo se sentir\u00e1n c\u00f3modas compartiendo sus experiencias e ideas en Facebook si se sienten seguras. Por eso es que en los \u00faltimos dos a\u00f1os invertimos fuerte tanto en tecnolog\u00eda como en recursos humanos para ser m\u00e1s eficientes a la hora de remover contenido abusivo de nuestros servicios. En abril, <a href=\"https:\/\/about.fb.com\/ltam\/2018\/04\/publicando-mas-detalles-sobre-nuestras-normas-comunitarias-y-expandiendo-la-funcion-de-apelacion\/\">publicamos<\/a> por primera vez las gu\u00edas internas que emplean los equipos de revisi\u00f3n para aplicar nuestras <a href=\"https:\/\/www.facebook.com\/communitystandards\/\">Normas Comunitarias<\/a>, para que la gente pueda entender mejor qu\u00e9 est\u00e1 permitido y qu\u00e9 no en Facebook, y porqu\u00e9. Y en mayo divulgamos n\u00fameros sobre el contenido que hab\u00eda violado las normas para que las personas puedan juzgar por s\u00ed mismas c\u00f3mo lo est\u00e1bamos haciendo.<\/p>\n<p>Hoy publicamos nuestro segundo <a href=\"https:\/\/transparency.facebook.com\/community-standards-enforcement\">Reporte sobre Cumplimiento de las Normas Comunitarias<\/a>. Esta segunda entrega muestra la aplicaci\u00f3n de nuestras pol\u00edticas contra la desnudez en adultos y actividad sexual, cuentas falsas, discurso de odio, spam, propaganda terrorista, y la violencia contenido gr\u00e1fico, para el semestre entre abril y septiembre de 2018. El informe incluye dos nuevas categor\u00edas: bullying y acoso, y desnudo infantil y explotaci\u00f3n sexual de menores.<\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-6706\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/11\/fb-transparency-report-data-snapshot-110818_online_es_la-1.png?resize=960%2C742\" alt=\"\" width=\"960\" height=\"742\" \/><\/p>\n<h5><b>Detectando contenido abusivo<\/b><\/h5>\n<p>Estamos mejorando en la identificaci\u00f3n activa del contenido que vulnera nuestras pol\u00edticas antes de que sea reportado, espec\u00edficamente para discurso de odio y violencia gr\u00e1fica. Pero a\u00fan hay \u00e1reas en las que tenemos trabajo por hacer.<\/p>\n<ul>\n<li>Desde nuestro \u00faltimo reporte, la cantidad de discurso de odio que detectamos activamente m\u00e1s que se duplic\u00f3 hasta llegar a un 52%, desde un 24% previo. La mayor\u00eda de las publicaciones que eliminamos en esta categor\u00eda fue antes de que nadie lo reportara. Este trabajo tiene una importancia central para nosotros y continuaremos invirtiendo para mejorar nuestro trabajo en aquellos lugares donde a\u00fan est\u00e1 en su etapa inicial: los idiomas menos utilizados.<\/li>\n<li>La detecci\u00f3n activa de publicaciones que incluyen violencia gr\u00e1fica aument\u00f3 25 puntos porcentuales, pasando de un 72 a un 97%.<\/li>\n<\/ul>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-6717\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/11\/es02-hate_speech_blog_es_es-edit-1.png?resize=960%2C685\" alt=\"\" width=\"960\" height=\"685\" \/><\/p>\n<p>&nbsp;<\/p>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-full wp-image-6708\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/11\/graphic_violence_blog_es_la-1.png?resize=960%2C723\" alt=\"\" width=\"960\" height=\"723\" \/><\/p>\n<h5><b>Remoci\u00f3n de contenido y de cuentas<\/b><\/h5>\n<p>No s\u00f3lo hemos mejorado en la tarea de hallar contenido malicioso, tambi\u00e9n a la hora de removerlo. En el tercer trimestre del 2018 eliminamos 15,4 millones de piezas de contenido que conten\u00edan violencia gr\u00e1fica, m\u00e1s de 10 veces el volumen del cuarto trimestre del 2017. Este incremento respondi\u00f3 a las mejoras constantes en nuestra tecnolog\u00eda, que nos permite aplicar autom\u00e1ticamente la misma acci\u00f3n sobre contenido id\u00e9ntico o extremadamente similar. Adem\u00e1s, como anunciamos la semanas pasada, hubo un aumento significativo en la cantidad de contenido asociado al terrorismo que removimos en el segundo trimestre del 2018. Expandimos el uso de nuestro sistema de comparaci\u00f3n de medios &#8211; una tecnolog\u00eda que detecta fotos muy similares a otras que ya est\u00e1n en nuestra base de datos de material violatorio &#8211; para eliminar im\u00e1genes viejas de propaganda terrorista. Parte de este aumento obedece a la correcci\u00f3n de un bug que nos imped\u00eda remover ciertos contenidos que iban contra nuestras normas.<\/p>\n<p>Tambi\u00e9n aument\u00f3 la cantidad de cuentas falsas que retiramos de la plataforma en el segundo y el tercer trimestre del 2018, en comparaci\u00f3n con los mismos per\u00edodos del a\u00f1o anterior: 800 millones y 754 millones, respectivamente. La mayor\u00eda de ellas fueron creadas para para diseminar spam con el objetivo de ganar dinero, generando cuentas a granel. Gracias a que fuimos capaces de eliminar la mayor\u00eda de esas cuentas apenas minutos despu\u00e9s de que fueran registradas, la presencia de cuentas falsas en Facebook permaneci\u00f3 estable entre un 3 y 4% de los usuarios activos, como informamos en nuestro <a href=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/11\/Q3-2018-Earnings-Presentation.pdf\">balance<\/a> del tercer trimestre.<\/p>\n<h5><b>Nuevas categor\u00edas<\/b><\/h5>\n<p>Los datos de las dos nuevas categor\u00edas que estamos agregando en este reporte &#8211; bullying y asedio, y desnudo infantil y explotaci\u00f3n sexual de menores &#8211; servir\u00e1n como punto de partida para tambi\u00e9n poder medir nuestro progreso a lo largo del tiempo en relaci\u00f3n a este tipo de violaci\u00f3n.<\/p>\n<p>Bullying y asedio suelen ser ataques personales que se producen en un determinado contexto, por lo que en muchas ocasiones es necesario que una persona reporte este comportamiento antes de que podamos identificarlo y eliminarlo. Esto lleva a una tasa m\u00e1s baja de detecci\u00f3n activa que en otro tipo de abusos. En el \u00faltimo trimestre, eliminamos 2,1 millones de piezas de contenido que violaban nuestras pol\u00edticas de bullying y asedio, un 15% antes de que fuera informado. Descubrimos este contenido mientras busc\u00e1bamos activamente otras violaciones. El hecho de que las v\u00edctimas tengan que reportar este tipo de contenido antes de que podamos actuar puede ser irritante. Estamos determinados a mejorar nuestro entendimiento de estos abusos para poder detectarlos mejor en forma activa.<\/p>\n<p>Nuestras <a href=\"https:\/\/www.facebook.com\/communitystandards\/\">Normas Comunitarias<\/a> prohiben la explotaci\u00f3n de menores. Pero para evitar potenciales abusos removemos contenido no sexual como fotos inocentes de ni\u00f1os en la ba\u00f1era, que insertadas en un contexto diferente podr\u00edan f\u00e1cilmente ser usadas maliciosamente. S\u00f3lo en el \u00faltimo trimestre, eliminamos 8,7 millones de piezas de contenido que vulneraba nuestras normas, un 99% del cual fue removido antes de ser reportado. Recientemente <a href=\"https:\/\/about.fb.com\/ltam\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/\">anunciamos<\/a> una nueva tecnolog\u00eda para luchar contra la explotaci\u00f3n sexual en Facebook, que conf\u00edo en que nos ayudar\u00e1 a identificar m\u00e1s contenido malicioso con mayor rapidez.<\/p>\n<p>Sabemos que tenemos mucho m\u00e1s trabajo por delante para prevenir abusos en Facebook. Y la Inteligencia Artificial continuar\u00e1 ayud\u00e1ndonos a detectar y eliminar contenido abusivo de nuestra plataforma. Poder medir nuestro progreso es tambi\u00e9n crucial, porque mantiene a nuestros equipos enfocados en los desaf\u00edos que enfrentamos. Para evaluar nuestra metodolog\u00eda hemos estado trabajando con la organizaci\u00f3n <a href=\"https:\/\/law.yale.edu\/yls-today\/news\/justice-collaboratory-lead-facebook-data-transparency-advisory-group\">Data Transparency Advisory Group (DTAG)<\/a>, especializada en gobernanza corporativa. Seguiremos trabajando este tipo de informaci\u00f3n para que nuestros datos sean m\u00e1s precisos y significativos con el tiempo.<\/p>\n<p>Puedes ver m\u00e1s informaci\u00f3n sobre este reporte y sobre el de Solicitudes de las Autoridades y Remociones de Propiedad Intelectual <a href=\"https:\/\/transparency.facebook.com\/\">aqu\u00ed<\/a>. Ambos estudios estar\u00e1n disponibles en m\u00e1s de 15 idiomas a principios de 2019.<\/p>\n","protected":false},"excerpt":{"rendered":"Por Guy Rosen, Vicepresidente de Producto. Las personas s\u00f3lo se sentir\u00e1n c\u00f3modas compartiendo sus experiencias e ideas en Facebook si se sienten seguras. Por eso es que en los \u00faltimos dos a\u00f1os invertimos fuerte tanto en tecnolog\u00eda como en recursos humanos para ser m\u00e1s eficientes a la hora de remover contenido abusivo de nuestros servicios. En abril, publicamos por primera vez las gu\u00edas internas que emplean los equipos de revisi\u00f3n para aplicar nuestras Normas Comunitarias, para que la gente pueda entender mejor qu\u00e9 est\u00e1 permitido y qu\u00e9 no en Facebook, y porqu\u00e9. Y en mayo divulgamos n\u00fameros sobre el contenido que hab\u00eda violado las normas para que las personas puedan juzgar por s\u00ed mismas c\u00f3mo lo est\u00e1bamos haciendo. Hoy publicamos nuestro segundo Reporte sobre Cumplimiento de las Normas Comunitarias. Esta segunda entrega muestra la aplicaci\u00f3n de nuestras pol\u00edticas contra la desnudez en adultos y actividad sexual, cuentas falsas, discurso de odio, spam, propaganda terrorista, y la violencia contenido gr\u00e1fico, para el semestre entre abril y septiembre de 2018. El informe incluye dos nuevas categor\u00edas: bullying y acoso, y desnudo infantil y explotaci\u00f3n sexual de menores. Detectando contenido abusivo Estamos mejorando en la identificaci\u00f3n activa del contenido que vulnera nuestras pol\u00edticas antes de que sea reportado, espec\u00edficamente para discurso de odio y violencia gr\u00e1fica. Pero a\u00fan hay \u00e1reas en las que tenemos trabajo por hacer. Desde nuestro \u00faltimo reporte, la cantidad de discurso de odio que detectamos activamente m\u00e1s que se duplic\u00f3 hasta llegar a un 52%, desde un 24% previo. La mayor\u00eda de las publicaciones que eliminamos en esta categor\u00eda fue antes de que nadie lo reportara. Este trabajo tiene una importancia central para nosotros y continuaremos invirtiendo para mejorar nuestro trabajo en aquellos lugares donde a\u00fan est\u00e1 en su etapa inicial: los idiomas menos utilizados. La detecci\u00f3n activa de publicaciones que incluyen violencia gr\u00e1fica aument\u00f3 25 puntos porcentuales, pasando de un 72 a un 97%. &nbsp; Remoci\u00f3n de contenido y de cuentas No s\u00f3lo hemos mejorado en la tarea de hallar contenido malicioso, tambi\u00e9n a la hora de removerlo. En el tercer trimestre del 2018 eliminamos 15,4 millones de piezas de contenido que conten\u00edan violencia gr\u00e1fica, m\u00e1s de 10 veces el volumen del cuarto trimestre del 2017. Este incremento respondi\u00f3 a las mejoras constantes en nuestra tecnolog\u00eda, que nos permite aplicar autom\u00e1ticamente la misma acci\u00f3n sobre contenido id\u00e9ntico o extremadamente similar. Adem\u00e1s, como anunciamos la semanas pasada, hubo un aumento significativo en la cantidad de contenido asociado al terrorismo que removimos en el segundo trimestre del 2018. Expandimos el uso de nuestro sistema de comparaci\u00f3n de medios &#8211; una tecnolog\u00eda que detecta fotos muy similares a otras que ya est\u00e1n en nuestra base de datos de material violatorio &#8211; para eliminar im\u00e1genes viejas de propaganda terrorista. Parte de este aumento obedece a la correcci\u00f3n de un bug que nos imped\u00eda remover ciertos contenidos que iban contra nuestras normas. Tambi\u00e9n aument\u00f3 la cantidad de cuentas falsas que retiramos de la plataforma en el segundo y el tercer trimestre del 2018, en comparaci\u00f3n con los mismos per\u00edodos del a\u00f1o anterior: 800 millones y 754 millones, respectivamente. La mayor\u00eda de ellas fueron creadas para para diseminar spam con el objetivo de ganar dinero, generando cuentas a granel. Gracias a que fuimos capaces de eliminar la mayor\u00eda de esas cuentas apenas minutos despu\u00e9s de que fueran registradas, la presencia de cuentas falsas en Facebook permaneci\u00f3 estable entre un 3 y 4% de los usuarios activos, como informamos en nuestro balance del tercer trimestre. Nuevas categor\u00edas Los datos de las dos nuevas categor\u00edas que estamos agregando en este reporte &#8211; bullying y asedio, y desnudo infantil y explotaci\u00f3n sexual de menores &#8211; servir\u00e1n como punto de partida para tambi\u00e9n poder medir nuestro progreso a lo largo del tiempo en relaci\u00f3n a este tipo de violaci\u00f3n. Bullying y asedio suelen ser ataques personales que se producen en un determinado contexto, por lo que en muchas ocasiones es necesario que una persona reporte este comportamiento antes de que podamos identificarlo y eliminarlo. Esto lleva a una tasa m\u00e1s baja de detecci\u00f3n activa que en otro tipo de abusos. En el \u00faltimo trimestre, eliminamos 2,1 millones de piezas de contenido que violaban nuestras pol\u00edticas de bullying y asedio, un 15% antes de que fuera informado. Descubrimos este contenido mientras busc\u00e1bamos activamente otras violaciones. El hecho de que las v\u00edctimas tengan que reportar este tipo de contenido antes de que podamos actuar puede ser irritante. Estamos determinados a mejorar nuestro entendimiento de estos abusos para poder detectarlos mejor en forma activa. Nuestras Normas Comunitarias prohiben la explotaci\u00f3n de menores. Pero para evitar potenciales abusos removemos contenido no sexual como fotos inocentes de ni\u00f1os en la ba\u00f1era, que insertadas en un contexto diferente podr\u00edan f\u00e1cilmente ser usadas maliciosamente. S\u00f3lo en el \u00faltimo trimestre, eliminamos 8,7 millones de piezas de contenido que vulneraba nuestras normas, un 99% del cual fue removido antes de ser reportado. Recientemente anunciamos una nueva tecnolog\u00eda para luchar contra la explotaci\u00f3n sexual en Facebook, que conf\u00edo en que nos ayudar\u00e1 a identificar m\u00e1s contenido malicioso con mayor rapidez. Sabemos que tenemos mucho m\u00e1s trabajo por delante para prevenir abusos en Facebook. Y la Inteligencia Artificial continuar\u00e1 ayud\u00e1ndonos a detectar y eliminar contenido abusivo de nuestra plataforma. Poder medir nuestro progreso es tambi\u00e9n crucial, porque mantiene a nuestros equipos enfocados en los desaf\u00edos que enfrentamos. Para evaluar nuestra metodolog\u00eda hemos estado trabajando con la organizaci\u00f3n Data Transparency Advisory Group (DTAG), especializada en gobernanza corporativa. Seguiremos trabajando este tipo de informaci\u00f3n para que nuestros datos sean m\u00e1s precisos y significativos con el tiempo. Puedes ver m\u00e1s informaci\u00f3n sobre este reporte y sobre el de Solicitudes de las Autoridades y Remociones de Propiedad Intelectual aqu\u00ed. Ambos estudios estar\u00e1n disponibles en m\u00e1s de 15 idiomas a principios de 2019.","protected":false},"author":95829248,"featured_media":6709,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[54],"tags":[243947952,243947972],"class_list":["post-6702","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-general","tag-normas-comunitarias","tag-transparencia"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Como aplicamos nuestras Normas Comunitarias | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Como aplicamos nuestras Normas Comunitarias | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Por Guy Rosen, Vicepresidente de Producto. Las personas s\u00f3lo se sentir\u00e1n c\u00f3modas compartiendo sus experiencias e ideas en Facebook si se sienten seguras. Por eso es que en los \u00faltimos dos a\u00f1os invertimos fuerte tanto en tecnolog\u00eda como en recursos humanos para ser m\u00e1s eficientes a la hora de remover contenido abusivo de nuestros servicios. En abril, publicamos por primera vez las gu\u00edas internas que emplean los equipos de revisi\u00f3n para aplicar nuestras Normas Comunitarias, para que la gente pueda entender mejor qu\u00e9 est\u00e1 permitido y qu\u00e9 no en Facebook, y porqu\u00e9. Y en mayo divulgamos n\u00fameros sobre el contenido que hab\u00eda violado las normas para que las personas puedan juzgar por s\u00ed mismas c\u00f3mo lo est\u00e1bamos haciendo. Hoy publicamos nuestro segundo Reporte sobre Cumplimiento de las Normas Comunitarias. Esta segunda entrega muestra la aplicaci\u00f3n de nuestras pol\u00edticas contra la desnudez en adultos y actividad sexual, cuentas falsas, discurso de odio, spam, propaganda terrorista, y la violencia contenido gr\u00e1fico, para el semestre entre abril y septiembre de 2018. El informe incluye dos nuevas categor\u00edas: bullying y acoso, y desnudo infantil y explotaci\u00f3n sexual de menores. Detectando contenido abusivo Estamos mejorando en la identificaci\u00f3n activa del contenido que vulnera nuestras pol\u00edticas antes de que sea reportado, espec\u00edficamente para discurso de odio y violencia gr\u00e1fica. Pero a\u00fan hay \u00e1reas en las que tenemos trabajo por hacer. Desde nuestro \u00faltimo reporte, la cantidad de discurso de odio que detectamos activamente m\u00e1s que se duplic\u00f3 hasta llegar a un 52%, desde un 24% previo. La mayor\u00eda de las publicaciones que eliminamos en esta categor\u00eda fue antes de que nadie lo reportara. Este trabajo tiene una importancia central para nosotros y continuaremos invirtiendo para mejorar nuestro trabajo en aquellos lugares donde a\u00fan est\u00e1 en su etapa inicial: los idiomas menos utilizados. La detecci\u00f3n activa de publicaciones que incluyen violencia gr\u00e1fica aument\u00f3 25 puntos porcentuales, pasando de un 72 a un 97%. &nbsp; Remoci\u00f3n de contenido y de cuentas No s\u00f3lo hemos mejorado en la tarea de hallar contenido malicioso, tambi\u00e9n a la hora de removerlo. En el tercer trimestre del 2018 eliminamos 15,4 millones de piezas de contenido que conten\u00edan violencia gr\u00e1fica, m\u00e1s de 10 veces el volumen del cuarto trimestre del 2017. Este incremento respondi\u00f3 a las mejoras constantes en nuestra tecnolog\u00eda, que nos permite aplicar autom\u00e1ticamente la misma acci\u00f3n sobre contenido id\u00e9ntico o extremadamente similar. Adem\u00e1s, como anunciamos la semanas pasada, hubo un aumento significativo en la cantidad de contenido asociado al terrorismo que removimos en el segundo trimestre del 2018. Expandimos el uso de nuestro sistema de comparaci\u00f3n de medios &#8211; una tecnolog\u00eda que detecta fotos muy similares a otras que ya est\u00e1n en nuestra base de datos de material violatorio &#8211; para eliminar im\u00e1genes viejas de propaganda terrorista. Parte de este aumento obedece a la correcci\u00f3n de un bug que nos imped\u00eda remover ciertos contenidos que iban contra nuestras normas. Tambi\u00e9n aument\u00f3 la cantidad de cuentas falsas que retiramos de la plataforma en el segundo y el tercer trimestre del 2018, en comparaci\u00f3n con los mismos per\u00edodos del a\u00f1o anterior: 800 millones y 754 millones, respectivamente. La mayor\u00eda de ellas fueron creadas para para diseminar spam con el objetivo de ganar dinero, generando cuentas a granel. Gracias a que fuimos capaces de eliminar la mayor\u00eda de esas cuentas apenas minutos despu\u00e9s de que fueran registradas, la presencia de cuentas falsas en Facebook permaneci\u00f3 estable entre un 3 y 4% de los usuarios activos, como informamos en nuestro balance del tercer trimestre. Nuevas categor\u00edas Los datos de las dos nuevas categor\u00edas que estamos agregando en este reporte &#8211; bullying y asedio, y desnudo infantil y explotaci\u00f3n sexual de menores &#8211; servir\u00e1n como punto de partida para tambi\u00e9n poder medir nuestro progreso a lo largo del tiempo en relaci\u00f3n a este tipo de violaci\u00f3n. Bullying y asedio suelen ser ataques personales que se producen en un determinado contexto, por lo que en muchas ocasiones es necesario que una persona reporte este comportamiento antes de que podamos identificarlo y eliminarlo. Esto lleva a una tasa m\u00e1s baja de detecci\u00f3n activa que en otro tipo de abusos. En el \u00faltimo trimestre, eliminamos 2,1 millones de piezas de contenido que violaban nuestras pol\u00edticas de bullying y asedio, un 15% antes de que fuera informado. Descubrimos este contenido mientras busc\u00e1bamos activamente otras violaciones. El hecho de que las v\u00edctimas tengan que reportar este tipo de contenido antes de que podamos actuar puede ser irritante. Estamos determinados a mejorar nuestro entendimiento de estos abusos para poder detectarlos mejor en forma activa. Nuestras Normas Comunitarias prohiben la explotaci\u00f3n de menores. Pero para evitar potenciales abusos removemos contenido no sexual como fotos inocentes de ni\u00f1os en la ba\u00f1era, que insertadas en un contexto diferente podr\u00edan f\u00e1cilmente ser usadas maliciosamente. S\u00f3lo en el \u00faltimo trimestre, eliminamos 8,7 millones de piezas de contenido que vulneraba nuestras normas, un 99% del cual fue removido antes de ser reportado. Recientemente anunciamos una nueva tecnolog\u00eda para luchar contra la explotaci\u00f3n sexual en Facebook, que conf\u00edo en que nos ayudar\u00e1 a identificar m\u00e1s contenido malicioso con mayor rapidez. Sabemos que tenemos mucho m\u00e1s trabajo por delante para prevenir abusos en Facebook. Y la Inteligencia Artificial continuar\u00e1 ayud\u00e1ndonos a detectar y eliminar contenido abusivo de nuestra plataforma. Poder medir nuestro progreso es tambi\u00e9n crucial, porque mantiene a nuestros equipos enfocados en los desaf\u00edos que enfrentamos. Para evaluar nuestra metodolog\u00eda hemos estado trabajando con la organizaci\u00f3n Data Transparency Advisory Group (DTAG), especializada en gobernanza corporativa. Seguiremos trabajando este tipo de informaci\u00f3n para que nuestros datos sean m\u00e1s precisos y significativos con el tiempo. Puedes ver m\u00e1s informaci\u00f3n sobre este reporte y sobre el de Solicitudes de las Autoridades y Remociones de Propiedad Intelectual aqu\u00ed. Ambos estudios estar\u00e1n disponibles en m\u00e1s de 15 idiomas a principios de 2019.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2018-11-15T18:24:28+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2019-11-04T19:15:13+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/11\/transparency-report-header-2x.png?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"camilagfb\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/\"},\"author\":\"Facebook company\",\"headline\":\"Como aplicamos nuestras Normas Comunitarias\",\"datePublished\":\"2018-11-15T18:24:28+00:00\",\"dateModified\":\"2019-11-04T19:15:13+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/\"},\"wordCount\":1028,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/11\/transparency-report-header-2x.png?fit=1920%2C1080\",\"keywords\":[\"Normas Comunitarias\",\"Transparencia\"],\"articleSection\":[\"General\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/\",\"name\":\"Como aplicamos nuestras Normas Comunitarias | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/11\/transparency-report-header-2x.png?fit=1920%2C1080\",\"datePublished\":\"2018-11-15T18:24:28+00:00\",\"dateModified\":\"2019-11-04T19:15:13+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/11\/transparency-report-header-2x.png?fit=1920%2C1080\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/11\/transparency-report-header-2x.png?fit=1920%2C1080\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Como aplicamos nuestras Normas Comunitarias\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Como aplicamos nuestras Normas Comunitarias | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/","og_locale":"es_ES","og_type":"article","og_title":"Como aplicamos nuestras Normas Comunitarias | Acerca de Meta","og_description":"Por Guy Rosen, Vicepresidente de Producto. Las personas s\u00f3lo se sentir\u00e1n c\u00f3modas compartiendo sus experiencias e ideas en Facebook si se sienten seguras. Por eso es que en los \u00faltimos dos a\u00f1os invertimos fuerte tanto en tecnolog\u00eda como en recursos humanos para ser m\u00e1s eficientes a la hora de remover contenido abusivo de nuestros servicios. En abril, publicamos por primera vez las gu\u00edas internas que emplean los equipos de revisi\u00f3n para aplicar nuestras Normas Comunitarias, para que la gente pueda entender mejor qu\u00e9 est\u00e1 permitido y qu\u00e9 no en Facebook, y porqu\u00e9. Y en mayo divulgamos n\u00fameros sobre el contenido que hab\u00eda violado las normas para que las personas puedan juzgar por s\u00ed mismas c\u00f3mo lo est\u00e1bamos haciendo. Hoy publicamos nuestro segundo Reporte sobre Cumplimiento de las Normas Comunitarias. Esta segunda entrega muestra la aplicaci\u00f3n de nuestras pol\u00edticas contra la desnudez en adultos y actividad sexual, cuentas falsas, discurso de odio, spam, propaganda terrorista, y la violencia contenido gr\u00e1fico, para el semestre entre abril y septiembre de 2018. El informe incluye dos nuevas categor\u00edas: bullying y acoso, y desnudo infantil y explotaci\u00f3n sexual de menores. Detectando contenido abusivo Estamos mejorando en la identificaci\u00f3n activa del contenido que vulnera nuestras pol\u00edticas antes de que sea reportado, espec\u00edficamente para discurso de odio y violencia gr\u00e1fica. Pero a\u00fan hay \u00e1reas en las que tenemos trabajo por hacer. Desde nuestro \u00faltimo reporte, la cantidad de discurso de odio que detectamos activamente m\u00e1s que se duplic\u00f3 hasta llegar a un 52%, desde un 24% previo. La mayor\u00eda de las publicaciones que eliminamos en esta categor\u00eda fue antes de que nadie lo reportara. Este trabajo tiene una importancia central para nosotros y continuaremos invirtiendo para mejorar nuestro trabajo en aquellos lugares donde a\u00fan est\u00e1 en su etapa inicial: los idiomas menos utilizados. La detecci\u00f3n activa de publicaciones que incluyen violencia gr\u00e1fica aument\u00f3 25 puntos porcentuales, pasando de un 72 a un 97%. &nbsp; Remoci\u00f3n de contenido y de cuentas No s\u00f3lo hemos mejorado en la tarea de hallar contenido malicioso, tambi\u00e9n a la hora de removerlo. En el tercer trimestre del 2018 eliminamos 15,4 millones de piezas de contenido que conten\u00edan violencia gr\u00e1fica, m\u00e1s de 10 veces el volumen del cuarto trimestre del 2017. Este incremento respondi\u00f3 a las mejoras constantes en nuestra tecnolog\u00eda, que nos permite aplicar autom\u00e1ticamente la misma acci\u00f3n sobre contenido id\u00e9ntico o extremadamente similar. Adem\u00e1s, como anunciamos la semanas pasada, hubo un aumento significativo en la cantidad de contenido asociado al terrorismo que removimos en el segundo trimestre del 2018. Expandimos el uso de nuestro sistema de comparaci\u00f3n de medios &#8211; una tecnolog\u00eda que detecta fotos muy similares a otras que ya est\u00e1n en nuestra base de datos de material violatorio &#8211; para eliminar im\u00e1genes viejas de propaganda terrorista. Parte de este aumento obedece a la correcci\u00f3n de un bug que nos imped\u00eda remover ciertos contenidos que iban contra nuestras normas. Tambi\u00e9n aument\u00f3 la cantidad de cuentas falsas que retiramos de la plataforma en el segundo y el tercer trimestre del 2018, en comparaci\u00f3n con los mismos per\u00edodos del a\u00f1o anterior: 800 millones y 754 millones, respectivamente. La mayor\u00eda de ellas fueron creadas para para diseminar spam con el objetivo de ganar dinero, generando cuentas a granel. Gracias a que fuimos capaces de eliminar la mayor\u00eda de esas cuentas apenas minutos despu\u00e9s de que fueran registradas, la presencia de cuentas falsas en Facebook permaneci\u00f3 estable entre un 3 y 4% de los usuarios activos, como informamos en nuestro balance del tercer trimestre. Nuevas categor\u00edas Los datos de las dos nuevas categor\u00edas que estamos agregando en este reporte &#8211; bullying y asedio, y desnudo infantil y explotaci\u00f3n sexual de menores &#8211; servir\u00e1n como punto de partida para tambi\u00e9n poder medir nuestro progreso a lo largo del tiempo en relaci\u00f3n a este tipo de violaci\u00f3n. Bullying y asedio suelen ser ataques personales que se producen en un determinado contexto, por lo que en muchas ocasiones es necesario que una persona reporte este comportamiento antes de que podamos identificarlo y eliminarlo. Esto lleva a una tasa m\u00e1s baja de detecci\u00f3n activa que en otro tipo de abusos. En el \u00faltimo trimestre, eliminamos 2,1 millones de piezas de contenido que violaban nuestras pol\u00edticas de bullying y asedio, un 15% antes de que fuera informado. Descubrimos este contenido mientras busc\u00e1bamos activamente otras violaciones. El hecho de que las v\u00edctimas tengan que reportar este tipo de contenido antes de que podamos actuar puede ser irritante. Estamos determinados a mejorar nuestro entendimiento de estos abusos para poder detectarlos mejor en forma activa. Nuestras Normas Comunitarias prohiben la explotaci\u00f3n de menores. Pero para evitar potenciales abusos removemos contenido no sexual como fotos inocentes de ni\u00f1os en la ba\u00f1era, que insertadas en un contexto diferente podr\u00edan f\u00e1cilmente ser usadas maliciosamente. S\u00f3lo en el \u00faltimo trimestre, eliminamos 8,7 millones de piezas de contenido que vulneraba nuestras normas, un 99% del cual fue removido antes de ser reportado. Recientemente anunciamos una nueva tecnolog\u00eda para luchar contra la explotaci\u00f3n sexual en Facebook, que conf\u00edo en que nos ayudar\u00e1 a identificar m\u00e1s contenido malicioso con mayor rapidez. Sabemos que tenemos mucho m\u00e1s trabajo por delante para prevenir abusos en Facebook. Y la Inteligencia Artificial continuar\u00e1 ayud\u00e1ndonos a detectar y eliminar contenido abusivo de nuestra plataforma. Poder medir nuestro progreso es tambi\u00e9n crucial, porque mantiene a nuestros equipos enfocados en los desaf\u00edos que enfrentamos. Para evaluar nuestra metodolog\u00eda hemos estado trabajando con la organizaci\u00f3n Data Transparency Advisory Group (DTAG), especializada en gobernanza corporativa. Seguiremos trabajando este tipo de informaci\u00f3n para que nuestros datos sean m\u00e1s precisos y significativos con el tiempo. Puedes ver m\u00e1s informaci\u00f3n sobre este reporte y sobre el de Solicitudes de las Autoridades y Remociones de Propiedad Intelectual aqu\u00ed. Ambos estudios estar\u00e1n disponibles en m\u00e1s de 15 idiomas a principios de 2019.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/","og_site_name":"Acerca de Meta","article_published_time":"2018-11-15T18:24:28+00:00","article_modified_time":"2019-11-04T19:15:13+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/11\/transparency-report-header-2x.png?resize=1024,576","type":"image\/png"}],"author":"camilagfb","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"5 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/"},"author":"Facebook company","headline":"Como aplicamos nuestras Normas Comunitarias","datePublished":"2018-11-15T18:24:28+00:00","dateModified":"2019-11-04T19:15:13+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/"},"wordCount":1028,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/11\/transparency-report-header-2x.png?fit=1920%2C1080","keywords":["Normas Comunitarias","Transparencia"],"articleSection":["General"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/","url":"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/","name":"Como aplicamos nuestras Normas Comunitarias | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/11\/transparency-report-header-2x.png?fit=1920%2C1080","datePublished":"2018-11-15T18:24:28+00:00","dateModified":"2019-11-04T19:15:13+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/11\/transparency-report-header-2x.png?fit=1920%2C1080","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/11\/transparency-report-header-2x.png?fit=1920%2C1080","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/11\/como-aplicamos-nuestras-normas-comunitarias\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Como aplicamos nuestras Normas Comunitarias"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/11\/transparency-report-header-2x.png?fit=1920%2C1080","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6702","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/95829248"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=6702"}],"version-history":[{"count":5,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6702\/revisions"}],"predecessor-version":[{"id":7606,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6702\/revisions\/7606"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media\/6709"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=6702"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=6702"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=6702"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}