{"id":6485,"date":"2018-07-17T17:43:23","date_gmt":"2018-07-17T22:43:23","guid":{"rendered":"http:\/\/ltam.newsroom.fb.com\/?p=6485"},"modified":"2019-11-04T13:16:21","modified_gmt":"2019-11-04T19:16:21","slug":"trabajando-para-mantener-a-facebook-como-un-lugar-seguro","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/","title":{"rendered":"Trabajando para mantener a Facebook como un lugar seguro"},"content":{"rendered":"<p><em>Por <a href=\"https:\/\/www.facebook.com\/mbickert1\">Monika Bickert<\/a>, vicepresidenta de Gesti\u00f3n de Pol\u00edtica Global<\/em><\/p>\n<p><b><i>Versi\u00f3n actualizada el 17 de Julio de 2018:<\/i><\/b><\/p>\n<p>Luego de la transmisi\u00f3n del programa, queremos brindarles m\u00e1s informaci\u00f3n sobre un par de cuestiones importantes planteadas por Channel 4 News.<\/p>\n<p><b>Verificaci\u00f3n Cruzada<\/b><\/p>\n<p>Queremos dejar en claro que eliminamos contenido de Facebook, sin importar qui\u00e9n lo publique, cuando viola nuestras Normas Comunitarias. No hay protecciones especiales para ning\u00fan grupo, ya sea de derecha o de izquierda. &#8216;Verificaci\u00f3n cruzada&#8217; &#8211; el sistema descrito en <i>Dispatches<\/i> &#8211; simplemente significa que algunos contenidos de ciertas P\u00e1ginas o Perfiles reciben una segunda revisi\u00f3n para aseguranos que hemos aplicado nuestras pol\u00edticas correctamente.<\/p>\n<p>Esto, normalmente se aplica a las p\u00e1ginas o los contenidos de alto perfil que se visitan regularmente en Facebook para que no se eliminen por error contenidos de ellas y dejarlos en la plataforma. Muchas p\u00e1ginas de organizaciones de medios, desde Channel 4 hasta The BBC y The Verge, son verificadas de esta manera. Tambi\u00e9n es posible que hagamos verificaciones cruzadas en reportes sobre contenido publicado por celebridades, gobiernos o p\u00e1ginas donde hemos cometido errores en el pasado. Por ejemplo, hemos aplicado la verificaci\u00f3n cruzada a la cuenta de un activista de derechos civiles estadounidense para evitar borrar por error el contenido de \u00e9l que crea conciencia sobre el discurso de odio que estaba enfrentando.<\/p>\n<p>Para que quede claro, la comprobaci\u00f3n cruzada de algo en Facebook no protege el perfil, la P\u00e1gina o el contenido que se eliminar\u00e1. Simplemente se hace para asegurarnos de que nuestra decisi\u00f3n sea la correcta.<\/p>\n<p>Gran Breta\u00f1a Primero fue una p\u00e1gina de Verificaci\u00f3n Cruzada. Pero el concepto de que se proteg\u00eda el contenido est\u00e1 mal. De hecho, eliminamos Britain First de Facebook en marzo porque sus P\u00e1ginas violaron reiteradamente nuestras Normas Comunitarias.<\/p>\n<p><b>Menores<\/b><\/p>\n<p>No permitimos que personas menores de 13 a\u00f1os tengan una cuenta de Facebook. Si alguien es reportado como menor de 13 a\u00f1os, el revisor mirar\u00e1 el contenido de su perfil (texto y fotos) para tratar de determinar su edad. Si se cree que la persona es menor de 13 a\u00f1os, la cuenta quedar\u00e1 en suspenso y la persona no podr\u00e1 usar Facebook hasta que proporcione evidencia de su edad. Desde la emisi\u00f3n del programa, hemos estado trabajando en la actualizaci\u00f3n de la gu\u00eda para que los revisores puedan suspender cualquier cuenta que encuentren si tienen una fuerte indicaci\u00f3n de que es menor de edad, incluso si la cuenta fue reportada por otro motivo.<\/p>\n<p><b><i>Publicaci\u00f3n original del 16 de Julio de 2018: <\/i><\/b><\/p>\n<p>Las personas alrededor del mundo usan Facebook para conectarse con amigos y familiares y compartir abiertamente diferentes ideas. Pero solo lo har\u00e1n si se sienten seguras. Es por eso que tenemos reglas claras para determinar qu\u00e9 es aceptable y procesos establecidos para aplicarlas. Trabajamos intensamente en nuestras pol\u00edticas y procesos, pero no siempre lo hacemos bien.<\/p>\n<p>Esta semana, un informe de televisi\u00f3n en Channel 4 en el Reino Unido ha planteado preguntas importantes sobre esa \u00e1rea de Facebook, incluida la orientaci\u00f3n brindada durante las sesiones de capacitaci\u00f3n en Dubl\u00edn. Est\u00e1 claro que parte de lo que sali\u00f3 en el programa no refleja las reglas y los valores de Facebook ni tampoco los altos est\u00e1ndares a los que aspiramos.<\/p>\n<p>Tomamos este reporte muy seriamente y agradecemos a los periodistas que nos revelaron este problema. Hemos investigado lo que sucedi\u00f3 para evitar que pueda pasar de nuevo. Solicitamos de inmediato que todos los formadores en Dubl\u00edn realicen una sesi\u00f3n de reentrenamiento y haremos lo mismo a nivel mundial. Tambi\u00e9n revisamos las dudas planteadas por el reporte y corregimos los errores que encontramos.<\/p>\n<p>Entregamos esa informaci\u00f3n al equipo de Channel 4, sin dejar de se\u00f1alar nuestras disidencias con partes del reporte. Nuestro Vicepresidente de Pol\u00edticas P\u00fablicas, Richard Allan, tambi\u00e9n respondi\u00f3 las preguntas de un periodista de la emisora en una entrevista televisada. Nuestra respuesta escrita y una transcripci\u00f3n de la entrevista se pueden encontrar en su totalidad <a href=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/07\/letter-to-firecrest-films-10-07-181.pdf\">aqu\u00ed<\/a> y <a href=\"https:\/\/about-fb-preprod.go-vip.net\/wp-content\/uploads\/2018\/07\/interview-dispatches-with-fb-richard-allan.pdf\">aqu\u00ed<\/a>.<\/p>\n<p>Fue sugerido que hacer la vista gorda frente al contenido inapropiado forma parte de nuestros intereses comerciales, pero eso no es verdad. Crear un entorno seguro donde personas de todo el mundo puedan compartir y conectarse es fundamental para el \u00e9xito a largo plazo de Facebook. Si nuestros servicios no son seguros, las personas no compartir\u00e1n sus asuntos y con el tiempo dejar\u00e1n de usarlos. Tampoco los anunciantes quieren que sus marcas est\u00e9n asociadas con contenido perturbador o problem\u00e1tico.<\/p>\n<p><b>C\u00f3mo creamos y hacemos cumplir nuestras pol\u00edticas<\/b><\/p>\n<p>M\u00e1s de 1.400 millones de personas usan Facebook todos los d\u00edas en todo el mundo. Publican en docenas de idiomas diferentes: desde fotograf\u00edas y actualizaciones de su estado hasta videos en vivo. Decidir qu\u00e9 contenido se mantiene y qu\u00e9 contenido es limitado implica un juicio cr\u00edtico sobre cuestiones complejas, que van desde la intimidaci\u00f3n y el discurso de odio hasta el terrorismo y los cr\u00edmenes de guerra. Es por eso que desarrollamos nuestros <a href=\"https:\/\/www.facebook.com\/communitystandards\/\">Est\u00e1ndares Comunitarios<\/a> con aportes de especialistas externos, incluidos acad\u00e9micos, ONGs y abogados de todo el planeta. Organizamos tres foros de Facebook en Europa en mayo, donde pudimos escuchar a defensores de los derechos humanos y de la libertad de expresi\u00f3n, as\u00ed como tambi\u00e9n a expertos en contraterrorismo y seguridad infantil.<\/p>\n<p>Estos Est\u00e1ndares Comunitarios est\u00e1n disponibles p\u00fablicamente desde hace mucho tiempo, y este a\u00f1o, por primera vez, publicamos detalladamente las pautas internas que usan nuestros equipos de revisi\u00f3n para hacerlos cumplir.<br \/>\nPara ayudarnos a administrar y revisar el contenido, trabajamos con varias compa\u00f1\u00edas en todo el mundo, incluida CPL, la empresa que aparece en el programa. Esos equipos revisan los informes las 24 horas del d\u00eda, los siete d\u00edas de la semana, en todas las zonas horarias y en docenas de idiomas. Cuando es necesario, escalan las decisiones para especialistas de Facebook que tienen un profundo conocimiento del pa\u00eds. Para los tipos de contenido espec\u00edficos y altamente problem\u00e1ticos, como el abuso infantil, las decisiones finales las toman empleados de Facebook.<\/p>\n<p>Revisar los informes de forma r\u00e1pida y precisa es esencial para mantener a las personas segurasen la plataforma. Es por eso que este a\u00f1o duplicamos nuestros equipos de seguridad a 20.000 personas, incluyendo m\u00e1s de 7.500 revisores de contenido. Tambi\u00e9n estamos <a href=\"https:\/\/newsroom.fb.com\/news\/2018\/05\/removing-content-using-ai\/\">invirtiendo fuertemente en nuevas tecnolog\u00edas<\/a> para ayudar a lidiar con el contenido m\u00e1s sesnsible de manera m\u00e1s efectiva. Por ejemplo, ahora usamos la tecnolog\u00eda para ayudar a direccionar los informes a los revisores que tengan la experiencia adecuada para ese asunto, evitar las duplicaciones y detectar y eliminar la propaganda terrorista y las im\u00e1genes de abuso sexual infantil, incluso antes de que se hayan reportado.<\/p>\n<p>Estamos mejorando constantemente nuestros Est\u00e1ndares Comunitarios y hemos invertido significativamente en hacerlos cumplir de manera efectiva. \u00c9sta es una tarea compleja y tenemos mucho trabajo por hacer. Pero nos comprometemos a hacerlo bien para que Facebook sea un lugar seguro para las personas y sus amigos.<\/p>\n<p><b>Descargas:<\/b><\/p>\n<p><a href=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/07\/letter-to-firecrest-films-10-07-181.pdf\">Carta a Firecrest Films<\/a><br \/>\n<a href=\"https:\/\/about-fb-preprod.go-vip.net\/wp-content\/uploads\/2018\/07\/interview-dispatches-with-fb-richard-allan.pdf\">Transcripci\u00f3n de la entrevista con Richard Allan, de Facebook<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Por Monika Bickert, vicepresidenta de Gesti\u00f3n de Pol\u00edtica Global Versi\u00f3n actualizada el 17 de Julio de 2018: Luego de la transmisi\u00f3n del programa, queremos brindarles m\u00e1s informaci\u00f3n sobre un par de cuestiones importantes planteadas por Channel 4 News. Verificaci\u00f3n Cruzada Queremos dejar en claro que eliminamos contenido de Facebook, sin importar qui\u00e9n lo publique, cuando viola nuestras Normas Comunitarias. No hay protecciones especiales para ning\u00fan grupo, ya sea de derecha o de izquierda. &#8216;Verificaci\u00f3n cruzada&#8217; &#8211; el sistema descrito en Dispatches &#8211; simplemente significa que algunos contenidos de ciertas P\u00e1ginas o Perfiles reciben una segunda revisi\u00f3n para aseguranos que hemos aplicado nuestras pol\u00edticas correctamente. Esto, normalmente se aplica a las p\u00e1ginas o los contenidos de alto perfil que se visitan regularmente en Facebook para que no se eliminen por error contenidos de ellas y dejarlos en la plataforma. Muchas p\u00e1ginas de organizaciones de medios, desde Channel 4 hasta The BBC y The Verge, son verificadas de esta manera. Tambi\u00e9n es posible que hagamos verificaciones cruzadas en reportes sobre contenido publicado por celebridades, gobiernos o p\u00e1ginas donde hemos cometido errores en el pasado. Por ejemplo, hemos aplicado la verificaci\u00f3n cruzada a la cuenta de un activista de derechos civiles estadounidense para evitar borrar por error el contenido de \u00e9l que crea conciencia sobre el discurso de odio que estaba enfrentando. Para que quede claro, la comprobaci\u00f3n cruzada de algo en Facebook no protege el perfil, la P\u00e1gina o el contenido que se eliminar\u00e1. Simplemente se hace para asegurarnos de que nuestra decisi\u00f3n sea la correcta. Gran Breta\u00f1a Primero fue una p\u00e1gina de Verificaci\u00f3n Cruzada. Pero el concepto de que se proteg\u00eda el contenido est\u00e1 mal. De hecho, eliminamos Britain First de Facebook en marzo porque sus P\u00e1ginas violaron reiteradamente nuestras Normas Comunitarias. Menores No permitimos que personas menores de 13 a\u00f1os tengan una cuenta de Facebook. Si alguien es reportado como menor de 13 a\u00f1os, el revisor mirar\u00e1 el contenido de su perfil (texto y fotos) para tratar de determinar su edad. Si se cree que la persona es menor de 13 a\u00f1os, la cuenta quedar\u00e1 en suspenso y la persona no podr\u00e1 usar Facebook hasta que proporcione evidencia de su edad. Desde la emisi\u00f3n del programa, hemos estado trabajando en la actualizaci\u00f3n de la gu\u00eda para que los revisores puedan suspender cualquier cuenta que encuentren si tienen una fuerte indicaci\u00f3n de que es menor de edad, incluso si la cuenta fue reportada por otro motivo. Publicaci\u00f3n original del 16 de Julio de 2018: Las personas alrededor del mundo usan Facebook para conectarse con amigos y familiares y compartir abiertamente diferentes ideas. Pero solo lo har\u00e1n si se sienten seguras. Es por eso que tenemos reglas claras para determinar qu\u00e9 es aceptable y procesos establecidos para aplicarlas. Trabajamos intensamente en nuestras pol\u00edticas y procesos, pero no siempre lo hacemos bien. Esta semana, un informe de televisi\u00f3n en Channel 4 en el Reino Unido ha planteado preguntas importantes sobre esa \u00e1rea de Facebook, incluida la orientaci\u00f3n brindada durante las sesiones de capacitaci\u00f3n en Dubl\u00edn. Est\u00e1 claro que parte de lo que sali\u00f3 en el programa no refleja las reglas y los valores de Facebook ni tampoco los altos est\u00e1ndares a los que aspiramos. Tomamos este reporte muy seriamente y agradecemos a los periodistas que nos revelaron este problema. Hemos investigado lo que sucedi\u00f3 para evitar que pueda pasar de nuevo. Solicitamos de inmediato que todos los formadores en Dubl\u00edn realicen una sesi\u00f3n de reentrenamiento y haremos lo mismo a nivel mundial. Tambi\u00e9n revisamos las dudas planteadas por el reporte y corregimos los errores que encontramos. Entregamos esa informaci\u00f3n al equipo de Channel 4, sin dejar de se\u00f1alar nuestras disidencias con partes del reporte. Nuestro Vicepresidente de Pol\u00edticas P\u00fablicas, Richard Allan, tambi\u00e9n respondi\u00f3 las preguntas de un periodista de la emisora en una entrevista televisada. Nuestra respuesta escrita y una transcripci\u00f3n de la entrevista se pueden encontrar en su totalidad aqu\u00ed y aqu\u00ed. Fue sugerido que hacer la vista gorda frente al contenido inapropiado forma parte de nuestros intereses comerciales, pero eso no es verdad. Crear un entorno seguro donde personas de todo el mundo puedan compartir y conectarse es fundamental para el \u00e9xito a largo plazo de Facebook. Si nuestros servicios no son seguros, las personas no compartir\u00e1n sus asuntos y con el tiempo dejar\u00e1n de usarlos. Tampoco los anunciantes quieren que sus marcas est\u00e9n asociadas con contenido perturbador o problem\u00e1tico. C\u00f3mo creamos y hacemos cumplir nuestras pol\u00edticas M\u00e1s de 1.400 millones de personas usan Facebook todos los d\u00edas en todo el mundo. Publican en docenas de idiomas diferentes: desde fotograf\u00edas y actualizaciones de su estado hasta videos en vivo. Decidir qu\u00e9 contenido se mantiene y qu\u00e9 contenido es limitado implica un juicio cr\u00edtico sobre cuestiones complejas, que van desde la intimidaci\u00f3n y el discurso de odio hasta el terrorismo y los cr\u00edmenes de guerra. Es por eso que desarrollamos nuestros Est\u00e1ndares Comunitarios con aportes de especialistas externos, incluidos acad\u00e9micos, ONGs y abogados de todo el planeta. Organizamos tres foros de Facebook en Europa en mayo, donde pudimos escuchar a defensores de los derechos humanos y de la libertad de expresi\u00f3n, as\u00ed como tambi\u00e9n a expertos en contraterrorismo y seguridad infantil. Estos Est\u00e1ndares Comunitarios est\u00e1n disponibles p\u00fablicamente desde hace mucho tiempo, y este a\u00f1o, por primera vez, publicamos detalladamente las pautas internas que usan nuestros equipos de revisi\u00f3n para hacerlos cumplir. Para ayudarnos a administrar y revisar el contenido, trabajamos con varias compa\u00f1\u00edas en todo el mundo, incluida CPL, la empresa que aparece en el programa. Esos equipos revisan los informes las 24 horas del d\u00eda, los siete d\u00edas de la semana, en todas las zonas horarias y en docenas de idiomas. Cuando es necesario, escalan las decisiones para especialistas de Facebook que tienen un profundo conocimiento del pa\u00eds. Para los tipos de contenido espec\u00edficos y altamente problem\u00e1ticos, como el abuso infantil, las decisiones finales las toman empleados de Facebook. Revisar los informes de forma r\u00e1pida y precisa es esencial para mantener a las personas segurasen la plataforma. Es por eso que este a\u00f1o duplicamos nuestros equipos de seguridad a 20.000 personas, incluyendo m\u00e1s de 7.500 revisores de contenido. Tambi\u00e9n estamos invirtiendo fuertemente en nuevas tecnolog\u00edas para ayudar a lidiar con el contenido m\u00e1s sesnsible de manera m\u00e1s efectiva. Por ejemplo, ahora usamos la tecnolog\u00eda para ayudar a direccionar los informes a los revisores que tengan la experiencia adecuada para ese asunto, evitar las duplicaciones y detectar y eliminar la propaganda terrorista y las im\u00e1genes de abuso sexual infantil, incluso antes de que se hayan reportado. Estamos mejorando constantemente nuestros Est\u00e1ndares Comunitarios y hemos invertido significativamente en hacerlos cumplir de manera efectiva. \u00c9sta es una tarea compleja y tenemos mucho trabajo por hacer. Pero nos comprometemos a hacerlo bien para que Facebook sea un lugar seguro para las personas y sus amigos. Descargas: Carta a Firecrest Films Transcripci\u00f3n de la entrevista con Richard Allan, de Facebook","protected":false},"author":128816270,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[54],"tags":[243930626],"class_list":["post-6485","post","type-post","status-publish","format-standard","hentry","category-general","tag-seguridad"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Trabajando para mantener a Facebook como un lugar seguro | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Trabajando para mantener a Facebook como un lugar seguro | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Por Monika Bickert, vicepresidenta de Gesti\u00f3n de Pol\u00edtica Global Versi\u00f3n actualizada el 17 de Julio de 2018: Luego de la transmisi\u00f3n del programa, queremos brindarles m\u00e1s informaci\u00f3n sobre un par de cuestiones importantes planteadas por Channel 4 News. Verificaci\u00f3n Cruzada Queremos dejar en claro que eliminamos contenido de Facebook, sin importar qui\u00e9n lo publique, cuando viola nuestras Normas Comunitarias. No hay protecciones especiales para ning\u00fan grupo, ya sea de derecha o de izquierda. &#8216;Verificaci\u00f3n cruzada&#8217; &#8211; el sistema descrito en Dispatches &#8211; simplemente significa que algunos contenidos de ciertas P\u00e1ginas o Perfiles reciben una segunda revisi\u00f3n para aseguranos que hemos aplicado nuestras pol\u00edticas correctamente. Esto, normalmente se aplica a las p\u00e1ginas o los contenidos de alto perfil que se visitan regularmente en Facebook para que no se eliminen por error contenidos de ellas y dejarlos en la plataforma. Muchas p\u00e1ginas de organizaciones de medios, desde Channel 4 hasta The BBC y The Verge, son verificadas de esta manera. Tambi\u00e9n es posible que hagamos verificaciones cruzadas en reportes sobre contenido publicado por celebridades, gobiernos o p\u00e1ginas donde hemos cometido errores en el pasado. Por ejemplo, hemos aplicado la verificaci\u00f3n cruzada a la cuenta de un activista de derechos civiles estadounidense para evitar borrar por error el contenido de \u00e9l que crea conciencia sobre el discurso de odio que estaba enfrentando. Para que quede claro, la comprobaci\u00f3n cruzada de algo en Facebook no protege el perfil, la P\u00e1gina o el contenido que se eliminar\u00e1. Simplemente se hace para asegurarnos de que nuestra decisi\u00f3n sea la correcta. Gran Breta\u00f1a Primero fue una p\u00e1gina de Verificaci\u00f3n Cruzada. Pero el concepto de que se proteg\u00eda el contenido est\u00e1 mal. De hecho, eliminamos Britain First de Facebook en marzo porque sus P\u00e1ginas violaron reiteradamente nuestras Normas Comunitarias. Menores No permitimos que personas menores de 13 a\u00f1os tengan una cuenta de Facebook. Si alguien es reportado como menor de 13 a\u00f1os, el revisor mirar\u00e1 el contenido de su perfil (texto y fotos) para tratar de determinar su edad. Si se cree que la persona es menor de 13 a\u00f1os, la cuenta quedar\u00e1 en suspenso y la persona no podr\u00e1 usar Facebook hasta que proporcione evidencia de su edad. Desde la emisi\u00f3n del programa, hemos estado trabajando en la actualizaci\u00f3n de la gu\u00eda para que los revisores puedan suspender cualquier cuenta que encuentren si tienen una fuerte indicaci\u00f3n de que es menor de edad, incluso si la cuenta fue reportada por otro motivo. Publicaci\u00f3n original del 16 de Julio de 2018: Las personas alrededor del mundo usan Facebook para conectarse con amigos y familiares y compartir abiertamente diferentes ideas. Pero solo lo har\u00e1n si se sienten seguras. Es por eso que tenemos reglas claras para determinar qu\u00e9 es aceptable y procesos establecidos para aplicarlas. Trabajamos intensamente en nuestras pol\u00edticas y procesos, pero no siempre lo hacemos bien. Esta semana, un informe de televisi\u00f3n en Channel 4 en el Reino Unido ha planteado preguntas importantes sobre esa \u00e1rea de Facebook, incluida la orientaci\u00f3n brindada durante las sesiones de capacitaci\u00f3n en Dubl\u00edn. Est\u00e1 claro que parte de lo que sali\u00f3 en el programa no refleja las reglas y los valores de Facebook ni tampoco los altos est\u00e1ndares a los que aspiramos. Tomamos este reporte muy seriamente y agradecemos a los periodistas que nos revelaron este problema. Hemos investigado lo que sucedi\u00f3 para evitar que pueda pasar de nuevo. Solicitamos de inmediato que todos los formadores en Dubl\u00edn realicen una sesi\u00f3n de reentrenamiento y haremos lo mismo a nivel mundial. Tambi\u00e9n revisamos las dudas planteadas por el reporte y corregimos los errores que encontramos. Entregamos esa informaci\u00f3n al equipo de Channel 4, sin dejar de se\u00f1alar nuestras disidencias con partes del reporte. Nuestro Vicepresidente de Pol\u00edticas P\u00fablicas, Richard Allan, tambi\u00e9n respondi\u00f3 las preguntas de un periodista de la emisora en una entrevista televisada. Nuestra respuesta escrita y una transcripci\u00f3n de la entrevista se pueden encontrar en su totalidad aqu\u00ed y aqu\u00ed. Fue sugerido que hacer la vista gorda frente al contenido inapropiado forma parte de nuestros intereses comerciales, pero eso no es verdad. Crear un entorno seguro donde personas de todo el mundo puedan compartir y conectarse es fundamental para el \u00e9xito a largo plazo de Facebook. Si nuestros servicios no son seguros, las personas no compartir\u00e1n sus asuntos y con el tiempo dejar\u00e1n de usarlos. Tampoco los anunciantes quieren que sus marcas est\u00e9n asociadas con contenido perturbador o problem\u00e1tico. C\u00f3mo creamos y hacemos cumplir nuestras pol\u00edticas M\u00e1s de 1.400 millones de personas usan Facebook todos los d\u00edas en todo el mundo. Publican en docenas de idiomas diferentes: desde fotograf\u00edas y actualizaciones de su estado hasta videos en vivo. Decidir qu\u00e9 contenido se mantiene y qu\u00e9 contenido es limitado implica un juicio cr\u00edtico sobre cuestiones complejas, que van desde la intimidaci\u00f3n y el discurso de odio hasta el terrorismo y los cr\u00edmenes de guerra. Es por eso que desarrollamos nuestros Est\u00e1ndares Comunitarios con aportes de especialistas externos, incluidos acad\u00e9micos, ONGs y abogados de todo el planeta. Organizamos tres foros de Facebook en Europa en mayo, donde pudimos escuchar a defensores de los derechos humanos y de la libertad de expresi\u00f3n, as\u00ed como tambi\u00e9n a expertos en contraterrorismo y seguridad infantil. Estos Est\u00e1ndares Comunitarios est\u00e1n disponibles p\u00fablicamente desde hace mucho tiempo, y este a\u00f1o, por primera vez, publicamos detalladamente las pautas internas que usan nuestros equipos de revisi\u00f3n para hacerlos cumplir. Para ayudarnos a administrar y revisar el contenido, trabajamos con varias compa\u00f1\u00edas en todo el mundo, incluida CPL, la empresa que aparece en el programa. Esos equipos revisan los informes las 24 horas del d\u00eda, los siete d\u00edas de la semana, en todas las zonas horarias y en docenas de idiomas. Cuando es necesario, escalan las decisiones para especialistas de Facebook que tienen un profundo conocimiento del pa\u00eds. Para los tipos de contenido espec\u00edficos y altamente problem\u00e1ticos, como el abuso infantil, las decisiones finales las toman empleados de Facebook. Revisar los informes de forma r\u00e1pida y precisa es esencial para mantener a las personas segurasen la plataforma. Es por eso que este a\u00f1o duplicamos nuestros equipos de seguridad a 20.000 personas, incluyendo m\u00e1s de 7.500 revisores de contenido. Tambi\u00e9n estamos invirtiendo fuertemente en nuevas tecnolog\u00edas para ayudar a lidiar con el contenido m\u00e1s sesnsible de manera m\u00e1s efectiva. Por ejemplo, ahora usamos la tecnolog\u00eda para ayudar a direccionar los informes a los revisores que tengan la experiencia adecuada para ese asunto, evitar las duplicaciones y detectar y eliminar la propaganda terrorista y las im\u00e1genes de abuso sexual infantil, incluso antes de que se hayan reportado. Estamos mejorando constantemente nuestros Est\u00e1ndares Comunitarios y hemos invertido significativamente en hacerlos cumplir de manera efectiva. \u00c9sta es una tarea compleja y tenemos mucho trabajo por hacer. Pero nos comprometemos a hacerlo bien para que Facebook sea un lugar seguro para las personas y sus amigos. Descargas: Carta a Firecrest Films Transcripci\u00f3n de la entrevista con Richard Allan, de Facebook\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2018-07-17T22:43:23+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2019-11-04T19:16:21+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"acp1103\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"6 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/\"},\"author\":\"Facebook company\",\"headline\":\"Trabajando para mantener a Facebook como un lugar seguro\",\"datePublished\":\"2018-07-17T22:43:23+00:00\",\"dateModified\":\"2019-11-04T19:16:21+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/\"},\"wordCount\":1226,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"keywords\":[\"Seguridad\"],\"articleSection\":[\"General\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/\",\"name\":\"Trabajando para mantener a Facebook como un lugar seguro | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"datePublished\":\"2018-07-17T22:43:23+00:00\",\"dateModified\":\"2019-11-04T19:16:21+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Trabajando para mantener a Facebook como un lugar seguro\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Trabajando para mantener a Facebook como un lugar seguro | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/","og_locale":"es_ES","og_type":"article","og_title":"Trabajando para mantener a Facebook como un lugar seguro | Acerca de Meta","og_description":"Por Monika Bickert, vicepresidenta de Gesti\u00f3n de Pol\u00edtica Global Versi\u00f3n actualizada el 17 de Julio de 2018: Luego de la transmisi\u00f3n del programa, queremos brindarles m\u00e1s informaci\u00f3n sobre un par de cuestiones importantes planteadas por Channel 4 News. Verificaci\u00f3n Cruzada Queremos dejar en claro que eliminamos contenido de Facebook, sin importar qui\u00e9n lo publique, cuando viola nuestras Normas Comunitarias. No hay protecciones especiales para ning\u00fan grupo, ya sea de derecha o de izquierda. &#8216;Verificaci\u00f3n cruzada&#8217; &#8211; el sistema descrito en Dispatches &#8211; simplemente significa que algunos contenidos de ciertas P\u00e1ginas o Perfiles reciben una segunda revisi\u00f3n para aseguranos que hemos aplicado nuestras pol\u00edticas correctamente. Esto, normalmente se aplica a las p\u00e1ginas o los contenidos de alto perfil que se visitan regularmente en Facebook para que no se eliminen por error contenidos de ellas y dejarlos en la plataforma. Muchas p\u00e1ginas de organizaciones de medios, desde Channel 4 hasta The BBC y The Verge, son verificadas de esta manera. Tambi\u00e9n es posible que hagamos verificaciones cruzadas en reportes sobre contenido publicado por celebridades, gobiernos o p\u00e1ginas donde hemos cometido errores en el pasado. Por ejemplo, hemos aplicado la verificaci\u00f3n cruzada a la cuenta de un activista de derechos civiles estadounidense para evitar borrar por error el contenido de \u00e9l que crea conciencia sobre el discurso de odio que estaba enfrentando. Para que quede claro, la comprobaci\u00f3n cruzada de algo en Facebook no protege el perfil, la P\u00e1gina o el contenido que se eliminar\u00e1. Simplemente se hace para asegurarnos de que nuestra decisi\u00f3n sea la correcta. Gran Breta\u00f1a Primero fue una p\u00e1gina de Verificaci\u00f3n Cruzada. Pero el concepto de que se proteg\u00eda el contenido est\u00e1 mal. De hecho, eliminamos Britain First de Facebook en marzo porque sus P\u00e1ginas violaron reiteradamente nuestras Normas Comunitarias. Menores No permitimos que personas menores de 13 a\u00f1os tengan una cuenta de Facebook. Si alguien es reportado como menor de 13 a\u00f1os, el revisor mirar\u00e1 el contenido de su perfil (texto y fotos) para tratar de determinar su edad. Si se cree que la persona es menor de 13 a\u00f1os, la cuenta quedar\u00e1 en suspenso y la persona no podr\u00e1 usar Facebook hasta que proporcione evidencia de su edad. Desde la emisi\u00f3n del programa, hemos estado trabajando en la actualizaci\u00f3n de la gu\u00eda para que los revisores puedan suspender cualquier cuenta que encuentren si tienen una fuerte indicaci\u00f3n de que es menor de edad, incluso si la cuenta fue reportada por otro motivo. Publicaci\u00f3n original del 16 de Julio de 2018: Las personas alrededor del mundo usan Facebook para conectarse con amigos y familiares y compartir abiertamente diferentes ideas. Pero solo lo har\u00e1n si se sienten seguras. Es por eso que tenemos reglas claras para determinar qu\u00e9 es aceptable y procesos establecidos para aplicarlas. Trabajamos intensamente en nuestras pol\u00edticas y procesos, pero no siempre lo hacemos bien. Esta semana, un informe de televisi\u00f3n en Channel 4 en el Reino Unido ha planteado preguntas importantes sobre esa \u00e1rea de Facebook, incluida la orientaci\u00f3n brindada durante las sesiones de capacitaci\u00f3n en Dubl\u00edn. Est\u00e1 claro que parte de lo que sali\u00f3 en el programa no refleja las reglas y los valores de Facebook ni tampoco los altos est\u00e1ndares a los que aspiramos. Tomamos este reporte muy seriamente y agradecemos a los periodistas que nos revelaron este problema. Hemos investigado lo que sucedi\u00f3 para evitar que pueda pasar de nuevo. Solicitamos de inmediato que todos los formadores en Dubl\u00edn realicen una sesi\u00f3n de reentrenamiento y haremos lo mismo a nivel mundial. Tambi\u00e9n revisamos las dudas planteadas por el reporte y corregimos los errores que encontramos. Entregamos esa informaci\u00f3n al equipo de Channel 4, sin dejar de se\u00f1alar nuestras disidencias con partes del reporte. Nuestro Vicepresidente de Pol\u00edticas P\u00fablicas, Richard Allan, tambi\u00e9n respondi\u00f3 las preguntas de un periodista de la emisora en una entrevista televisada. Nuestra respuesta escrita y una transcripci\u00f3n de la entrevista se pueden encontrar en su totalidad aqu\u00ed y aqu\u00ed. Fue sugerido que hacer la vista gorda frente al contenido inapropiado forma parte de nuestros intereses comerciales, pero eso no es verdad. Crear un entorno seguro donde personas de todo el mundo puedan compartir y conectarse es fundamental para el \u00e9xito a largo plazo de Facebook. Si nuestros servicios no son seguros, las personas no compartir\u00e1n sus asuntos y con el tiempo dejar\u00e1n de usarlos. Tampoco los anunciantes quieren que sus marcas est\u00e9n asociadas con contenido perturbador o problem\u00e1tico. C\u00f3mo creamos y hacemos cumplir nuestras pol\u00edticas M\u00e1s de 1.400 millones de personas usan Facebook todos los d\u00edas en todo el mundo. Publican en docenas de idiomas diferentes: desde fotograf\u00edas y actualizaciones de su estado hasta videos en vivo. Decidir qu\u00e9 contenido se mantiene y qu\u00e9 contenido es limitado implica un juicio cr\u00edtico sobre cuestiones complejas, que van desde la intimidaci\u00f3n y el discurso de odio hasta el terrorismo y los cr\u00edmenes de guerra. Es por eso que desarrollamos nuestros Est\u00e1ndares Comunitarios con aportes de especialistas externos, incluidos acad\u00e9micos, ONGs y abogados de todo el planeta. Organizamos tres foros de Facebook en Europa en mayo, donde pudimos escuchar a defensores de los derechos humanos y de la libertad de expresi\u00f3n, as\u00ed como tambi\u00e9n a expertos en contraterrorismo y seguridad infantil. Estos Est\u00e1ndares Comunitarios est\u00e1n disponibles p\u00fablicamente desde hace mucho tiempo, y este a\u00f1o, por primera vez, publicamos detalladamente las pautas internas que usan nuestros equipos de revisi\u00f3n para hacerlos cumplir. Para ayudarnos a administrar y revisar el contenido, trabajamos con varias compa\u00f1\u00edas en todo el mundo, incluida CPL, la empresa que aparece en el programa. Esos equipos revisan los informes las 24 horas del d\u00eda, los siete d\u00edas de la semana, en todas las zonas horarias y en docenas de idiomas. Cuando es necesario, escalan las decisiones para especialistas de Facebook que tienen un profundo conocimiento del pa\u00eds. Para los tipos de contenido espec\u00edficos y altamente problem\u00e1ticos, como el abuso infantil, las decisiones finales las toman empleados de Facebook. Revisar los informes de forma r\u00e1pida y precisa es esencial para mantener a las personas segurasen la plataforma. Es por eso que este a\u00f1o duplicamos nuestros equipos de seguridad a 20.000 personas, incluyendo m\u00e1s de 7.500 revisores de contenido. Tambi\u00e9n estamos invirtiendo fuertemente en nuevas tecnolog\u00edas para ayudar a lidiar con el contenido m\u00e1s sesnsible de manera m\u00e1s efectiva. Por ejemplo, ahora usamos la tecnolog\u00eda para ayudar a direccionar los informes a los revisores que tengan la experiencia adecuada para ese asunto, evitar las duplicaciones y detectar y eliminar la propaganda terrorista y las im\u00e1genes de abuso sexual infantil, incluso antes de que se hayan reportado. Estamos mejorando constantemente nuestros Est\u00e1ndares Comunitarios y hemos invertido significativamente en hacerlos cumplir de manera efectiva. \u00c9sta es una tarea compleja y tenemos mucho trabajo por hacer. Pero nos comprometemos a hacerlo bien para que Facebook sea un lugar seguro para las personas y sus amigos. Descargas: Carta a Firecrest Films Transcripci\u00f3n de la entrevista con Richard Allan, de Facebook","og_url":"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/","og_site_name":"Acerca de Meta","article_published_time":"2018-07-17T22:43:23+00:00","article_modified_time":"2019-11-04T19:16:21+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"acp1103","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"6 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/"},"author":"Facebook company","headline":"Trabajando para mantener a Facebook como un lugar seguro","datePublished":"2018-07-17T22:43:23+00:00","dateModified":"2019-11-04T19:16:21+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/"},"wordCount":1226,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"keywords":["Seguridad"],"articleSection":["General"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/","url":"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/","name":"Trabajando para mantener a Facebook como un lugar seguro | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"datePublished":"2018-07-17T22:43:23+00:00","dateModified":"2019-11-04T19:16:21+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/"]}],"author":"Acerca de Meta"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/07\/trabajando-para-mantener-a-facebook-como-un-lugar-seguro\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Trabajando para mantener a Facebook como un lugar seguro"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6485","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/128816270"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=6485"}],"version-history":[{"count":4,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6485\/revisions"}],"predecessor-version":[{"id":7655,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6485\/revisions\/7655"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=6485"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=6485"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=6485"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}