{"id":6405,"date":"2018-05-15T09:20:29","date_gmt":"2018-05-15T14:20:29","guid":{"rendered":"http:\/\/ltam.newsroom.fb.com\/?p=6405"},"modified":"2019-11-04T13:16:57","modified_gmt":"2019-11-04T19:16:57","slug":"preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/","title":{"rendered":"Preguntas Dif\u00edciles: \u00bfC\u00f3mo medimos nuestros esfuerzos para mantener el contenido inapropiado fuera de Facebook?"},"content":{"rendered":"<p><em>Por <a href=\"https:\/\/www.facebook.com\/alexschultz\">Alex Schultz<\/a>, Vicepresidente de Anal\u00edtica<\/em><\/p>\n<p>Una medici\u00f3n correcta ayuda a las organizaciones a tomar decisiones inteligentes en lugar de basarse simplemente en cuestiones anecd\u00f3ticas o en la intuici\u00f3n. Parafraseando al conocido consultor de gesti\u00f3n Peter Drucker: lo que se mide, puede mejorarse. Es un axioma con el que gu\u00eda nuestro trabajo cuando se trata de la seguridad en Facebook.<\/p>\n<p>Construimos Facebook para que sea un lugar donde las personas puedan discutir abiertamente diferentes ideas, incluso aquellas que puedan ser consideradas pol\u00e9micas u ofensivas. Pero tambi\u00e9n queremos asegurarnos de que nuestro servicio sea seguro para todos. Algunas veces es un equilibrio dif\u00edcil de conseguir. El mes pasado, <a href=\"https:\/\/about.fb.com\/ltam\/2018\/04\/publicando-mas-detalles-sobre-nuestras-normas-comunitarias-y-expandiendo-la-funcion-de-apelacion\/\">publicamos<\/a> por primera vez las orientaciones que nuestro equipo de revisi\u00f3n usa para decidir qu\u00e9 puede ser publicado en Facebook y qu\u00e9 no. Y hoy, tambi\u00e9n por primera vez, estamos <a href=\"https:\/\/about-fb-preprod.go-vip.net\/newsroom-ltam\/?p=6400&amp;preview=true\">compartiendo<\/a> los datos que usamos internamente para medir nuestra efectividad en el cumplimiento de estos est\u00e1ndares. Es un trabajo en constante evoluci\u00f3n y es probable que cambiemos nuestra metodolog\u00eda a medida que aprendamos m\u00e1s sobre lo que es importante y lo que funciona mejor.<\/p>\n<p>El <a href=\"https:\/\/transparency.facebook.com\/\">informe<\/a> que estamos publicando hoy brinda una descripci\u00f3n detallada de nuestros procesos internos y metodolog\u00eda de datos. Es un intento por dar a conocer c\u00f3mo trabaja Facebook para eliminar el contenido inapropiado de nuestro sitio, para que ustedes puedan sacar sus propias conclusiones. Y est\u00e1 dise\u00f1ado para facilitar que acad\u00e9micos, legisladores y grupos de nuestra comunidad nos den su opini\u00f3n para que podamos mejorar con el tiempo.<\/p>\n<p>No podemos cambiar el hecho de que la gente siempre intentar\u00e1 publicar contenido inapropiado en Facebook, ya sea que se trate de discursos de odio, propaganda terrorista o im\u00e1genes de explotaci\u00f3n infantil. Pero podemos tratar de controlar cu\u00e1ntas veces es visto el contenido que infringe nuestras Normas Comunitarias. Como jefe de an\u00e1lisis de datos, dirijo el equipo que es responsable por medir nuestro trabajo en esta \u00e1rea, para que la compa\u00f1\u00eda pueda comprender mejor qu\u00e9 tan efectivos somos en hacer cumplir nuestras pol\u00edticas.<\/p>\n<p><b>Impacto total<\/b><\/p>\n<p>La medida m\u00e1s importante que utilizamos es impacto: el da\u00f1o que ocasiona cualquier contenido inapropiado cuando es publicado en Facebook. Nuestra f\u00f3rmula para abordar eso es bastante simple. Medimos con qu\u00e9 frecuencia es visto el contenido (\u00abvisualizaciones\u00bb) y qu\u00e9 tan grave es el impacto que tienen, tanto individualmente como en la comunidad en general:<\/p>\n<p><i>Impacto total = visualizaciones de contenido inapropiado x impacto de contenido inapropiado por visualizaci\u00f3n<\/i><\/p>\n<p>Las visualizaciones son relativamente f\u00e1ciles de contar. Simplemente medimos la cantidad de veces que las personas ven algo. Pero es mucho m\u00e1s dif\u00edcil medir el impacto con precisi\u00f3n. Por ejemplo, \u00bfQu\u00e9 tan negativo es el impacto sobre alguien que ve un discurso de odio, en comparaci\u00f3n con alguien que ve violencia gr\u00e1fica? \u00bfY cu\u00e1l es la diferencia porcentual? \u00bfC\u00f3mo se compara la gravedad de la propaganda terrorista con las im\u00e1genes de ni\u00f1os sexualmente abusados?<\/p>\n<p>La respuesta es que no podemos comparar num\u00e9ricamente su impacto. Pero lo que s\u00ed podemos hacer es categorizar y priorizar los diferentes tipos de da\u00f1os que ocasionan. Probablemente est\u00e9s pensando que va a ser subjetivo. Y tienes raz\u00f3n, hay un elemento de subjetividad involucrado en c\u00f3mo hacemos esto. Pero la priorizaci\u00f3n nos ayuda a dedicar recursos m\u00e1s r\u00e1pidamente al contenido que consideramos m\u00e1s inminentemente peligroso.<\/p>\n<p>Por ejemplo: supongamos que alguien publica una imagen desnuda en Facebook. Eso va en contra de nuestras pol\u00edticas y trabajar\u00edamos para eliminarlo. De hecho, nuestros filtros para detectar desnudos son actualmente muy efectivos. Pero supongamos que esa imagen fue publicada por un hombre que busca vengarse de la mujer que rompi\u00f3 con \u00e9l. En ese caso considerar\u00edamos que la imagen tendr\u00eda un mayor impacto negativo y la escalar\u00edamos en nuestra lista de retiros, algo similar a c\u00f3mo funciona la priorizaci\u00f3n de casos en una sala de emergencias. Cada paciente importa, pero los casos m\u00e1s cr\u00edticos tienen prioridad.<\/p>\n<p><b>\u00bfCon qu\u00e9 frecuencia se ve contenido inapropiado en Facebook?<\/b><\/p>\n<p>Dentro de cada categor\u00eda espec\u00edfica de abuso, ya sean cuentas falsas, incitaci\u00f3n al odio, desnudez, etc, nos interesa saber con qu\u00e9 frecuencia el contenido que infringe nuestras normas es realmente visto, en relaci\u00f3n con la cantidad total de veces que se ve cualquier otro material en Facebook. Esto es lo que llamamos prevalencia. Es una medida de la frecuencia con que se ve algo y no de cu\u00e1nto tiempo permanece activo en Facebook. Si se ve un discurso de odio un mill\u00f3n de veces en 10 minutos, es mucho peor que una pieza vista 10 veces en 30 minutos.<\/p>\n<p>Para calcular esa m\u00e9trica tomamos una muestra de contenido en Facebook y determinamos qu\u00e9 proporci\u00f3n de ese tipo de contenido no deber\u00eda estar presente en la plataforma. Puedes encontrar m\u00e1s informaci\u00f3n sobre esto en nuestra <a href=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/05\/understanding_the_community_standards_enforcement_report.pdf\">gu\u00eda<\/a> sobre estos datos. Como estamos buscando la prevalencia nos enfocamos en la cantidad de contenido que se ve, no en cu\u00e1nto contenido infringe nuestras normas. En otras palabras, no tratamos todo el contenido por igual: esto significa que una publicaci\u00f3n vista un mill\u00f3n de veces tiene un mill\u00f3n de veces m\u00e1s de probabilidades de ser analizada.<\/p>\n<p>Algunas personas creen que debemos publicar m\u00e9tricas sobre cu\u00e1nto tiempo le lleva a Facebook eliminar contenido como publicaciones o im\u00e1genes que violan nuestras normas. Pero no creemos que el tiempo sea la mejor medida para controlar eficazmente nuestro servicio. Tambi\u00e9n es importante recordar que cometemos errores. A veces se debe a que eliminamos contenido que en realidad no viola nuestras Normas Comunitarias (los llamados falsos positivos). Otras veces es porque no eliminamos contenido que deber\u00edamos retirar de la plataforma. Cualquier error puede da\u00f1ar a personas reales y eso nos motiva a hacerlo mejor.<\/p>\n<p>Facebook est\u00e1 haciendo una gran inversi\u00f3n en personal para revisar el contenido que es reportado. Pero como <a href=\"https:\/\/about.fb.com\/ltam\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/\">explic\u00f3<\/a> nuestro vicepresidente <a href=\"https:\/\/about.fb.com\/ltam\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/\">Guy Rosen<\/a> hace dos semanas, nuevas tecnolog\u00edas como <i>machine learning<\/i>, la visi\u00f3n por computadora y la inteligencia artificial nos ayudan a encontrar una mayor cantidad de contenido inapropiado, de forma m\u00e1s r\u00e1pida -mucho m\u00e1s r\u00e1pida-, y a una escala muy superior a la humana. De hecho, la inteligencia artificial nos permite sacar contenido inapropiado de Facebook incluso antes de que sea reportado. Es por eso que ahora medimos la frecuencia con la que Facebook se\u00f1ala el contenido antes de que sea informado. Mejorar esa tasa a lo largo del tiempo es fundamental, pues reduce directamente el impacto negativo que el contenido inapropiado tiene sobre los usuarios de Facebook.<\/p>\n<p><b>Encontrar el bien<\/b><\/p>\n<p>Como gay, experiment\u00e9 lo mejor y lo peor que nuestro servicio, y las personas que lo usan, pueden ofrecer. Facebook me ayud\u00f3 a encontrar una comunidad cuando me sent\u00eda s\u00f3lo y aislado. Y nuestra configuraci\u00f3n de privacidad me ayud\u00f3 a compartir cosas con mis amigos y controlar cu\u00e1nto quer\u00eda mostrar. Al mismo tiempo, a medida que me di a conocer en Facebook me expuse a muchos abusos que a veces me deprimieron y asustaron.<\/p>\n<p>Este tipo de vivencias personales nos hacen querer asegurarnos de que las experiencias de las personas en Facebook sean positivas. Espero que este informe, el blog y la gu\u00eda te muestren nuestro trabajo en ese sentido y sirvan para abrir una conversaci\u00f3n sobre c\u00f3mo podemos mejorar. Porque lo que se mide, puede mejorarse.<\/p>\n","protected":false},"excerpt":{"rendered":"Por Alex Schultz, Vicepresidente de Anal\u00edtica Una medici\u00f3n correcta ayuda a las organizaciones a tomar decisiones inteligentes en lugar de basarse simplemente en cuestiones anecd\u00f3ticas o en la intuici\u00f3n. Parafraseando al conocido consultor de gesti\u00f3n Peter Drucker: lo que se mide, puede mejorarse. Es un axioma con el que gu\u00eda nuestro trabajo cuando se trata de la seguridad en Facebook. Construimos Facebook para que sea un lugar donde las personas puedan discutir abiertamente diferentes ideas, incluso aquellas que puedan ser consideradas pol\u00e9micas u ofensivas. Pero tambi\u00e9n queremos asegurarnos de que nuestro servicio sea seguro para todos. Algunas veces es un equilibrio dif\u00edcil de conseguir. El mes pasado, publicamos por primera vez las orientaciones que nuestro equipo de revisi\u00f3n usa para decidir qu\u00e9 puede ser publicado en Facebook y qu\u00e9 no. Y hoy, tambi\u00e9n por primera vez, estamos compartiendo los datos que usamos internamente para medir nuestra efectividad en el cumplimiento de estos est\u00e1ndares. Es un trabajo en constante evoluci\u00f3n y es probable que cambiemos nuestra metodolog\u00eda a medida que aprendamos m\u00e1s sobre lo que es importante y lo que funciona mejor. El informe que estamos publicando hoy brinda una descripci\u00f3n detallada de nuestros procesos internos y metodolog\u00eda de datos. Es un intento por dar a conocer c\u00f3mo trabaja Facebook para eliminar el contenido inapropiado de nuestro sitio, para que ustedes puedan sacar sus propias conclusiones. Y est\u00e1 dise\u00f1ado para facilitar que acad\u00e9micos, legisladores y grupos de nuestra comunidad nos den su opini\u00f3n para que podamos mejorar con el tiempo. No podemos cambiar el hecho de que la gente siempre intentar\u00e1 publicar contenido inapropiado en Facebook, ya sea que se trate de discursos de odio, propaganda terrorista o im\u00e1genes de explotaci\u00f3n infantil. Pero podemos tratar de controlar cu\u00e1ntas veces es visto el contenido que infringe nuestras Normas Comunitarias. Como jefe de an\u00e1lisis de datos, dirijo el equipo que es responsable por medir nuestro trabajo en esta \u00e1rea, para que la compa\u00f1\u00eda pueda comprender mejor qu\u00e9 tan efectivos somos en hacer cumplir nuestras pol\u00edticas. Impacto total La medida m\u00e1s importante que utilizamos es impacto: el da\u00f1o que ocasiona cualquier contenido inapropiado cuando es publicado en Facebook. Nuestra f\u00f3rmula para abordar eso es bastante simple. Medimos con qu\u00e9 frecuencia es visto el contenido (\u00abvisualizaciones\u00bb) y qu\u00e9 tan grave es el impacto que tienen, tanto individualmente como en la comunidad en general: Impacto total = visualizaciones de contenido inapropiado x impacto de contenido inapropiado por visualizaci\u00f3n Las visualizaciones son relativamente f\u00e1ciles de contar. Simplemente medimos la cantidad de veces que las personas ven algo. Pero es mucho m\u00e1s dif\u00edcil medir el impacto con precisi\u00f3n. Por ejemplo, \u00bfQu\u00e9 tan negativo es el impacto sobre alguien que ve un discurso de odio, en comparaci\u00f3n con alguien que ve violencia gr\u00e1fica? \u00bfY cu\u00e1l es la diferencia porcentual? \u00bfC\u00f3mo se compara la gravedad de la propaganda terrorista con las im\u00e1genes de ni\u00f1os sexualmente abusados? La respuesta es que no podemos comparar num\u00e9ricamente su impacto. Pero lo que s\u00ed podemos hacer es categorizar y priorizar los diferentes tipos de da\u00f1os que ocasionan. Probablemente est\u00e9s pensando que va a ser subjetivo. Y tienes raz\u00f3n, hay un elemento de subjetividad involucrado en c\u00f3mo hacemos esto. Pero la priorizaci\u00f3n nos ayuda a dedicar recursos m\u00e1s r\u00e1pidamente al contenido que consideramos m\u00e1s inminentemente peligroso. Por ejemplo: supongamos que alguien publica una imagen desnuda en Facebook. Eso va en contra de nuestras pol\u00edticas y trabajar\u00edamos para eliminarlo. De hecho, nuestros filtros para detectar desnudos son actualmente muy efectivos. Pero supongamos que esa imagen fue publicada por un hombre que busca vengarse de la mujer que rompi\u00f3 con \u00e9l. En ese caso considerar\u00edamos que la imagen tendr\u00eda un mayor impacto negativo y la escalar\u00edamos en nuestra lista de retiros, algo similar a c\u00f3mo funciona la priorizaci\u00f3n de casos en una sala de emergencias. Cada paciente importa, pero los casos m\u00e1s cr\u00edticos tienen prioridad. \u00bfCon qu\u00e9 frecuencia se ve contenido inapropiado en Facebook? Dentro de cada categor\u00eda espec\u00edfica de abuso, ya sean cuentas falsas, incitaci\u00f3n al odio, desnudez, etc, nos interesa saber con qu\u00e9 frecuencia el contenido que infringe nuestras normas es realmente visto, en relaci\u00f3n con la cantidad total de veces que se ve cualquier otro material en Facebook. Esto es lo que llamamos prevalencia. Es una medida de la frecuencia con que se ve algo y no de cu\u00e1nto tiempo permanece activo en Facebook. Si se ve un discurso de odio un mill\u00f3n de veces en 10 minutos, es mucho peor que una pieza vista 10 veces en 30 minutos. Para calcular esa m\u00e9trica tomamos una muestra de contenido en Facebook y determinamos qu\u00e9 proporci\u00f3n de ese tipo de contenido no deber\u00eda estar presente en la plataforma. Puedes encontrar m\u00e1s informaci\u00f3n sobre esto en nuestra gu\u00eda sobre estos datos. Como estamos buscando la prevalencia nos enfocamos en la cantidad de contenido que se ve, no en cu\u00e1nto contenido infringe nuestras normas. En otras palabras, no tratamos todo el contenido por igual: esto significa que una publicaci\u00f3n vista un mill\u00f3n de veces tiene un mill\u00f3n de veces m\u00e1s de probabilidades de ser analizada. Algunas personas creen que debemos publicar m\u00e9tricas sobre cu\u00e1nto tiempo le lleva a Facebook eliminar contenido como publicaciones o im\u00e1genes que violan nuestras normas. Pero no creemos que el tiempo sea la mejor medida para controlar eficazmente nuestro servicio. Tambi\u00e9n es importante recordar que cometemos errores. A veces se debe a que eliminamos contenido que en realidad no viola nuestras Normas Comunitarias (los llamados falsos positivos). Otras veces es porque no eliminamos contenido que deber\u00edamos retirar de la plataforma. Cualquier error puede da\u00f1ar a personas reales y eso nos motiva a hacerlo mejor. Facebook est\u00e1 haciendo una gran inversi\u00f3n en personal para revisar el contenido que es reportado. Pero como explic\u00f3 nuestro vicepresidente Guy Rosen hace dos semanas, nuevas tecnolog\u00edas como machine learning, la visi\u00f3n por computadora y la inteligencia artificial nos ayudan a encontrar una mayor cantidad de contenido inapropiado, de forma m\u00e1s r\u00e1pida -mucho m\u00e1s r\u00e1pida-, y a una escala muy superior a la humana. De hecho, la inteligencia artificial nos permite sacar contenido inapropiado de Facebook incluso antes de que sea reportado. Es por eso que ahora medimos la frecuencia con la que Facebook se\u00f1ala el contenido antes de que sea informado. Mejorar esa tasa a lo largo del tiempo es fundamental, pues reduce directamente el impacto negativo que el contenido inapropiado tiene sobre los usuarios de Facebook. Encontrar el bien Como gay, experiment\u00e9 lo mejor y lo peor que nuestro servicio, y las personas que lo usan, pueden ofrecer. Facebook me ayud\u00f3 a encontrar una comunidad cuando me sent\u00eda s\u00f3lo y aislado. Y nuestra configuraci\u00f3n de privacidad me ayud\u00f3 a compartir cosas con mis amigos y controlar cu\u00e1nto quer\u00eda mostrar. Al mismo tiempo, a medida que me di a conocer en Facebook me expuse a muchos abusos que a veces me deprimieron y asustaron. Este tipo de vivencias personales nos hacen querer asegurarnos de que las experiencias de las personas en Facebook sean positivas. Espero que este informe, el blog y la gu\u00eda te muestren nuestro trabajo en ese sentido y sirvan para abrir una conversaci\u00f3n sobre c\u00f3mo podemos mejorar. Porque lo que se mide, puede mejorarse.","protected":false},"author":128816270,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243947919],"tags":[],"class_list":["post-6405","post","type-post","status-publish","format-standard","hentry","category-preguntas-dificiles"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Preguntas Dif\u00edciles: \u00bfC\u00f3mo medimos nuestros esfuerzos para mantener el contenido inapropiado fuera de Facebook? | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Preguntas Dif\u00edciles: \u00bfC\u00f3mo medimos nuestros esfuerzos para mantener el contenido inapropiado fuera de Facebook? | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Por Alex Schultz, Vicepresidente de Anal\u00edtica Una medici\u00f3n correcta ayuda a las organizaciones a tomar decisiones inteligentes en lugar de basarse simplemente en cuestiones anecd\u00f3ticas o en la intuici\u00f3n. Parafraseando al conocido consultor de gesti\u00f3n Peter Drucker: lo que se mide, puede mejorarse. Es un axioma con el que gu\u00eda nuestro trabajo cuando se trata de la seguridad en Facebook. Construimos Facebook para que sea un lugar donde las personas puedan discutir abiertamente diferentes ideas, incluso aquellas que puedan ser consideradas pol\u00e9micas u ofensivas. Pero tambi\u00e9n queremos asegurarnos de que nuestro servicio sea seguro para todos. Algunas veces es un equilibrio dif\u00edcil de conseguir. El mes pasado, publicamos por primera vez las orientaciones que nuestro equipo de revisi\u00f3n usa para decidir qu\u00e9 puede ser publicado en Facebook y qu\u00e9 no. Y hoy, tambi\u00e9n por primera vez, estamos compartiendo los datos que usamos internamente para medir nuestra efectividad en el cumplimiento de estos est\u00e1ndares. Es un trabajo en constante evoluci\u00f3n y es probable que cambiemos nuestra metodolog\u00eda a medida que aprendamos m\u00e1s sobre lo que es importante y lo que funciona mejor. El informe que estamos publicando hoy brinda una descripci\u00f3n detallada de nuestros procesos internos y metodolog\u00eda de datos. Es un intento por dar a conocer c\u00f3mo trabaja Facebook para eliminar el contenido inapropiado de nuestro sitio, para que ustedes puedan sacar sus propias conclusiones. Y est\u00e1 dise\u00f1ado para facilitar que acad\u00e9micos, legisladores y grupos de nuestra comunidad nos den su opini\u00f3n para que podamos mejorar con el tiempo. No podemos cambiar el hecho de que la gente siempre intentar\u00e1 publicar contenido inapropiado en Facebook, ya sea que se trate de discursos de odio, propaganda terrorista o im\u00e1genes de explotaci\u00f3n infantil. Pero podemos tratar de controlar cu\u00e1ntas veces es visto el contenido que infringe nuestras Normas Comunitarias. Como jefe de an\u00e1lisis de datos, dirijo el equipo que es responsable por medir nuestro trabajo en esta \u00e1rea, para que la compa\u00f1\u00eda pueda comprender mejor qu\u00e9 tan efectivos somos en hacer cumplir nuestras pol\u00edticas. Impacto total La medida m\u00e1s importante que utilizamos es impacto: el da\u00f1o que ocasiona cualquier contenido inapropiado cuando es publicado en Facebook. Nuestra f\u00f3rmula para abordar eso es bastante simple. Medimos con qu\u00e9 frecuencia es visto el contenido (\u00abvisualizaciones\u00bb) y qu\u00e9 tan grave es el impacto que tienen, tanto individualmente como en la comunidad en general: Impacto total = visualizaciones de contenido inapropiado x impacto de contenido inapropiado por visualizaci\u00f3n Las visualizaciones son relativamente f\u00e1ciles de contar. Simplemente medimos la cantidad de veces que las personas ven algo. Pero es mucho m\u00e1s dif\u00edcil medir el impacto con precisi\u00f3n. Por ejemplo, \u00bfQu\u00e9 tan negativo es el impacto sobre alguien que ve un discurso de odio, en comparaci\u00f3n con alguien que ve violencia gr\u00e1fica? \u00bfY cu\u00e1l es la diferencia porcentual? \u00bfC\u00f3mo se compara la gravedad de la propaganda terrorista con las im\u00e1genes de ni\u00f1os sexualmente abusados? La respuesta es que no podemos comparar num\u00e9ricamente su impacto. Pero lo que s\u00ed podemos hacer es categorizar y priorizar los diferentes tipos de da\u00f1os que ocasionan. Probablemente est\u00e9s pensando que va a ser subjetivo. Y tienes raz\u00f3n, hay un elemento de subjetividad involucrado en c\u00f3mo hacemos esto. Pero la priorizaci\u00f3n nos ayuda a dedicar recursos m\u00e1s r\u00e1pidamente al contenido que consideramos m\u00e1s inminentemente peligroso. Por ejemplo: supongamos que alguien publica una imagen desnuda en Facebook. Eso va en contra de nuestras pol\u00edticas y trabajar\u00edamos para eliminarlo. De hecho, nuestros filtros para detectar desnudos son actualmente muy efectivos. Pero supongamos que esa imagen fue publicada por un hombre que busca vengarse de la mujer que rompi\u00f3 con \u00e9l. En ese caso considerar\u00edamos que la imagen tendr\u00eda un mayor impacto negativo y la escalar\u00edamos en nuestra lista de retiros, algo similar a c\u00f3mo funciona la priorizaci\u00f3n de casos en una sala de emergencias. Cada paciente importa, pero los casos m\u00e1s cr\u00edticos tienen prioridad. \u00bfCon qu\u00e9 frecuencia se ve contenido inapropiado en Facebook? Dentro de cada categor\u00eda espec\u00edfica de abuso, ya sean cuentas falsas, incitaci\u00f3n al odio, desnudez, etc, nos interesa saber con qu\u00e9 frecuencia el contenido que infringe nuestras normas es realmente visto, en relaci\u00f3n con la cantidad total de veces que se ve cualquier otro material en Facebook. Esto es lo que llamamos prevalencia. Es una medida de la frecuencia con que se ve algo y no de cu\u00e1nto tiempo permanece activo en Facebook. Si se ve un discurso de odio un mill\u00f3n de veces en 10 minutos, es mucho peor que una pieza vista 10 veces en 30 minutos. Para calcular esa m\u00e9trica tomamos una muestra de contenido en Facebook y determinamos qu\u00e9 proporci\u00f3n de ese tipo de contenido no deber\u00eda estar presente en la plataforma. Puedes encontrar m\u00e1s informaci\u00f3n sobre esto en nuestra gu\u00eda sobre estos datos. Como estamos buscando la prevalencia nos enfocamos en la cantidad de contenido que se ve, no en cu\u00e1nto contenido infringe nuestras normas. En otras palabras, no tratamos todo el contenido por igual: esto significa que una publicaci\u00f3n vista un mill\u00f3n de veces tiene un mill\u00f3n de veces m\u00e1s de probabilidades de ser analizada. Algunas personas creen que debemos publicar m\u00e9tricas sobre cu\u00e1nto tiempo le lleva a Facebook eliminar contenido como publicaciones o im\u00e1genes que violan nuestras normas. Pero no creemos que el tiempo sea la mejor medida para controlar eficazmente nuestro servicio. Tambi\u00e9n es importante recordar que cometemos errores. A veces se debe a que eliminamos contenido que en realidad no viola nuestras Normas Comunitarias (los llamados falsos positivos). Otras veces es porque no eliminamos contenido que deber\u00edamos retirar de la plataforma. Cualquier error puede da\u00f1ar a personas reales y eso nos motiva a hacerlo mejor. Facebook est\u00e1 haciendo una gran inversi\u00f3n en personal para revisar el contenido que es reportado. Pero como explic\u00f3 nuestro vicepresidente Guy Rosen hace dos semanas, nuevas tecnolog\u00edas como machine learning, la visi\u00f3n por computadora y la inteligencia artificial nos ayudan a encontrar una mayor cantidad de contenido inapropiado, de forma m\u00e1s r\u00e1pida -mucho m\u00e1s r\u00e1pida-, y a una escala muy superior a la humana. De hecho, la inteligencia artificial nos permite sacar contenido inapropiado de Facebook incluso antes de que sea reportado. Es por eso que ahora medimos la frecuencia con la que Facebook se\u00f1ala el contenido antes de que sea informado. Mejorar esa tasa a lo largo del tiempo es fundamental, pues reduce directamente el impacto negativo que el contenido inapropiado tiene sobre los usuarios de Facebook. Encontrar el bien Como gay, experiment\u00e9 lo mejor y lo peor que nuestro servicio, y las personas que lo usan, pueden ofrecer. Facebook me ayud\u00f3 a encontrar una comunidad cuando me sent\u00eda s\u00f3lo y aislado. Y nuestra configuraci\u00f3n de privacidad me ayud\u00f3 a compartir cosas con mis amigos y controlar cu\u00e1nto quer\u00eda mostrar. Al mismo tiempo, a medida que me di a conocer en Facebook me expuse a muchos abusos que a veces me deprimieron y asustaron. Este tipo de vivencias personales nos hacen querer asegurarnos de que las experiencias de las personas en Facebook sean positivas. Espero que este informe, el blog y la gu\u00eda te muestren nuestro trabajo en ese sentido y sirvan para abrir una conversaci\u00f3n sobre c\u00f3mo podemos mejorar. Porque lo que se mide, puede mejorarse.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2018-05-15T14:20:29+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2019-11-04T19:16:57+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"acp1103\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"6 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/\"},\"author\":\"Facebook company\",\"headline\":\"Preguntas Dif\u00edciles: \u00bfC\u00f3mo medimos nuestros esfuerzos para mantener el contenido inapropiado fuera de Facebook?\",\"datePublished\":\"2018-05-15T14:20:29+00:00\",\"dateModified\":\"2019-11-04T19:16:57+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/\"},\"wordCount\":1299,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"articleSection\":[\"Preguntas Dif\u00edciles\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/\",\"name\":\"Preguntas Dif\u00edciles: \u00bfC\u00f3mo medimos nuestros esfuerzos para mantener el contenido inapropiado fuera de Facebook? | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"datePublished\":\"2018-05-15T14:20:29+00:00\",\"dateModified\":\"2019-11-04T19:16:57+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Preguntas Dif\u00edciles: \u00bfC\u00f3mo medimos nuestros esfuerzos para mantener el contenido inapropiado fuera de Facebook?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Preguntas Dif\u00edciles: \u00bfC\u00f3mo medimos nuestros esfuerzos para mantener el contenido inapropiado fuera de Facebook? | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/","og_locale":"es_ES","og_type":"article","og_title":"Preguntas Dif\u00edciles: \u00bfC\u00f3mo medimos nuestros esfuerzos para mantener el contenido inapropiado fuera de Facebook? | Acerca de Meta","og_description":"Por Alex Schultz, Vicepresidente de Anal\u00edtica Una medici\u00f3n correcta ayuda a las organizaciones a tomar decisiones inteligentes en lugar de basarse simplemente en cuestiones anecd\u00f3ticas o en la intuici\u00f3n. Parafraseando al conocido consultor de gesti\u00f3n Peter Drucker: lo que se mide, puede mejorarse. Es un axioma con el que gu\u00eda nuestro trabajo cuando se trata de la seguridad en Facebook. Construimos Facebook para que sea un lugar donde las personas puedan discutir abiertamente diferentes ideas, incluso aquellas que puedan ser consideradas pol\u00e9micas u ofensivas. Pero tambi\u00e9n queremos asegurarnos de que nuestro servicio sea seguro para todos. Algunas veces es un equilibrio dif\u00edcil de conseguir. El mes pasado, publicamos por primera vez las orientaciones que nuestro equipo de revisi\u00f3n usa para decidir qu\u00e9 puede ser publicado en Facebook y qu\u00e9 no. Y hoy, tambi\u00e9n por primera vez, estamos compartiendo los datos que usamos internamente para medir nuestra efectividad en el cumplimiento de estos est\u00e1ndares. Es un trabajo en constante evoluci\u00f3n y es probable que cambiemos nuestra metodolog\u00eda a medida que aprendamos m\u00e1s sobre lo que es importante y lo que funciona mejor. El informe que estamos publicando hoy brinda una descripci\u00f3n detallada de nuestros procesos internos y metodolog\u00eda de datos. Es un intento por dar a conocer c\u00f3mo trabaja Facebook para eliminar el contenido inapropiado de nuestro sitio, para que ustedes puedan sacar sus propias conclusiones. Y est\u00e1 dise\u00f1ado para facilitar que acad\u00e9micos, legisladores y grupos de nuestra comunidad nos den su opini\u00f3n para que podamos mejorar con el tiempo. No podemos cambiar el hecho de que la gente siempre intentar\u00e1 publicar contenido inapropiado en Facebook, ya sea que se trate de discursos de odio, propaganda terrorista o im\u00e1genes de explotaci\u00f3n infantil. Pero podemos tratar de controlar cu\u00e1ntas veces es visto el contenido que infringe nuestras Normas Comunitarias. Como jefe de an\u00e1lisis de datos, dirijo el equipo que es responsable por medir nuestro trabajo en esta \u00e1rea, para que la compa\u00f1\u00eda pueda comprender mejor qu\u00e9 tan efectivos somos en hacer cumplir nuestras pol\u00edticas. Impacto total La medida m\u00e1s importante que utilizamos es impacto: el da\u00f1o que ocasiona cualquier contenido inapropiado cuando es publicado en Facebook. Nuestra f\u00f3rmula para abordar eso es bastante simple. Medimos con qu\u00e9 frecuencia es visto el contenido (\u00abvisualizaciones\u00bb) y qu\u00e9 tan grave es el impacto que tienen, tanto individualmente como en la comunidad en general: Impacto total = visualizaciones de contenido inapropiado x impacto de contenido inapropiado por visualizaci\u00f3n Las visualizaciones son relativamente f\u00e1ciles de contar. Simplemente medimos la cantidad de veces que las personas ven algo. Pero es mucho m\u00e1s dif\u00edcil medir el impacto con precisi\u00f3n. Por ejemplo, \u00bfQu\u00e9 tan negativo es el impacto sobre alguien que ve un discurso de odio, en comparaci\u00f3n con alguien que ve violencia gr\u00e1fica? \u00bfY cu\u00e1l es la diferencia porcentual? \u00bfC\u00f3mo se compara la gravedad de la propaganda terrorista con las im\u00e1genes de ni\u00f1os sexualmente abusados? La respuesta es que no podemos comparar num\u00e9ricamente su impacto. Pero lo que s\u00ed podemos hacer es categorizar y priorizar los diferentes tipos de da\u00f1os que ocasionan. Probablemente est\u00e9s pensando que va a ser subjetivo. Y tienes raz\u00f3n, hay un elemento de subjetividad involucrado en c\u00f3mo hacemos esto. Pero la priorizaci\u00f3n nos ayuda a dedicar recursos m\u00e1s r\u00e1pidamente al contenido que consideramos m\u00e1s inminentemente peligroso. Por ejemplo: supongamos que alguien publica una imagen desnuda en Facebook. Eso va en contra de nuestras pol\u00edticas y trabajar\u00edamos para eliminarlo. De hecho, nuestros filtros para detectar desnudos son actualmente muy efectivos. Pero supongamos que esa imagen fue publicada por un hombre que busca vengarse de la mujer que rompi\u00f3 con \u00e9l. En ese caso considerar\u00edamos que la imagen tendr\u00eda un mayor impacto negativo y la escalar\u00edamos en nuestra lista de retiros, algo similar a c\u00f3mo funciona la priorizaci\u00f3n de casos en una sala de emergencias. Cada paciente importa, pero los casos m\u00e1s cr\u00edticos tienen prioridad. \u00bfCon qu\u00e9 frecuencia se ve contenido inapropiado en Facebook? Dentro de cada categor\u00eda espec\u00edfica de abuso, ya sean cuentas falsas, incitaci\u00f3n al odio, desnudez, etc, nos interesa saber con qu\u00e9 frecuencia el contenido que infringe nuestras normas es realmente visto, en relaci\u00f3n con la cantidad total de veces que se ve cualquier otro material en Facebook. Esto es lo que llamamos prevalencia. Es una medida de la frecuencia con que se ve algo y no de cu\u00e1nto tiempo permanece activo en Facebook. Si se ve un discurso de odio un mill\u00f3n de veces en 10 minutos, es mucho peor que una pieza vista 10 veces en 30 minutos. Para calcular esa m\u00e9trica tomamos una muestra de contenido en Facebook y determinamos qu\u00e9 proporci\u00f3n de ese tipo de contenido no deber\u00eda estar presente en la plataforma. Puedes encontrar m\u00e1s informaci\u00f3n sobre esto en nuestra gu\u00eda sobre estos datos. Como estamos buscando la prevalencia nos enfocamos en la cantidad de contenido que se ve, no en cu\u00e1nto contenido infringe nuestras normas. En otras palabras, no tratamos todo el contenido por igual: esto significa que una publicaci\u00f3n vista un mill\u00f3n de veces tiene un mill\u00f3n de veces m\u00e1s de probabilidades de ser analizada. Algunas personas creen que debemos publicar m\u00e9tricas sobre cu\u00e1nto tiempo le lleva a Facebook eliminar contenido como publicaciones o im\u00e1genes que violan nuestras normas. Pero no creemos que el tiempo sea la mejor medida para controlar eficazmente nuestro servicio. Tambi\u00e9n es importante recordar que cometemos errores. A veces se debe a que eliminamos contenido que en realidad no viola nuestras Normas Comunitarias (los llamados falsos positivos). Otras veces es porque no eliminamos contenido que deber\u00edamos retirar de la plataforma. Cualquier error puede da\u00f1ar a personas reales y eso nos motiva a hacerlo mejor. Facebook est\u00e1 haciendo una gran inversi\u00f3n en personal para revisar el contenido que es reportado. Pero como explic\u00f3 nuestro vicepresidente Guy Rosen hace dos semanas, nuevas tecnolog\u00edas como machine learning, la visi\u00f3n por computadora y la inteligencia artificial nos ayudan a encontrar una mayor cantidad de contenido inapropiado, de forma m\u00e1s r\u00e1pida -mucho m\u00e1s r\u00e1pida-, y a una escala muy superior a la humana. De hecho, la inteligencia artificial nos permite sacar contenido inapropiado de Facebook incluso antes de que sea reportado. Es por eso que ahora medimos la frecuencia con la que Facebook se\u00f1ala el contenido antes de que sea informado. Mejorar esa tasa a lo largo del tiempo es fundamental, pues reduce directamente el impacto negativo que el contenido inapropiado tiene sobre los usuarios de Facebook. Encontrar el bien Como gay, experiment\u00e9 lo mejor y lo peor que nuestro servicio, y las personas que lo usan, pueden ofrecer. Facebook me ayud\u00f3 a encontrar una comunidad cuando me sent\u00eda s\u00f3lo y aislado. Y nuestra configuraci\u00f3n de privacidad me ayud\u00f3 a compartir cosas con mis amigos y controlar cu\u00e1nto quer\u00eda mostrar. Al mismo tiempo, a medida que me di a conocer en Facebook me expuse a muchos abusos que a veces me deprimieron y asustaron. Este tipo de vivencias personales nos hacen querer asegurarnos de que las experiencias de las personas en Facebook sean positivas. Espero que este informe, el blog y la gu\u00eda te muestren nuestro trabajo en ese sentido y sirvan para abrir una conversaci\u00f3n sobre c\u00f3mo podemos mejorar. Porque lo que se mide, puede mejorarse.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/","og_site_name":"Acerca de Meta","article_published_time":"2018-05-15T14:20:29+00:00","article_modified_time":"2019-11-04T19:16:57+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"acp1103","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"6 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/"},"author":"Facebook company","headline":"Preguntas Dif\u00edciles: \u00bfC\u00f3mo medimos nuestros esfuerzos para mantener el contenido inapropiado fuera de Facebook?","datePublished":"2018-05-15T14:20:29+00:00","dateModified":"2019-11-04T19:16:57+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/"},"wordCount":1299,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"articleSection":["Preguntas Dif\u00edciles"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/","url":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/","name":"Preguntas Dif\u00edciles: \u00bfC\u00f3mo medimos nuestros esfuerzos para mantener el contenido inapropiado fuera de Facebook? | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"datePublished":"2018-05-15T14:20:29+00:00","dateModified":"2019-11-04T19:16:57+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/"]}],"author":"Acerca de Meta"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Preguntas Dif\u00edciles: \u00bfC\u00f3mo medimos nuestros esfuerzos para mantener el contenido inapropiado fuera de Facebook?"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6405","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/128816270"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=6405"}],"version-history":[{"count":4,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6405\/revisions"}],"predecessor-version":[{"id":7683,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6405\/revisions\/7683"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=6405"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=6405"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=6405"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}