{"id":6697,"date":"2018-10-24T08:06:16","date_gmt":"2018-10-24T13:06:16","guid":{"rendered":"http:\/\/ltam.newsroom.fb.com\/?p=6697"},"modified":"2018-10-24T08:06:16","modified_gmt":"2018-10-24T13:06:16","slug":"nueva-tecnologia-contra-la-explotacion-infantil","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/","title":{"rendered":"Nueva tecnolog\u00eda contra la explotaci\u00f3n infantil"},"content":{"rendered":"<p><i>Por Antigone Davis, Jefe Global de Seguridad<\/i><\/p>\n<p>Una de nuestras responsabilidades fundamentales es que los ni\u00f1os est\u00e9n seguros en Facebook. No toleramos ning\u00fan comportamiento o contenido que se aproveche de ellos y desarrollamos programas de seguridad y recursos educativos junto a m\u00e1s de 400 organizaciones en todo el mundo para ayudar a que Internet sea un lugar m\u00e1s seguro para los menores. Hace a\u00f1os que empleamos tecnolog\u00eda de reconocimiento fotogr\u00e1fico para evitar que las personas compartan im\u00e1genes de explotaci\u00f3n infantil que ya fueron identificadas y se puedan denunciar violaciones en el <a href=\"http:\/\/www.missingkids.com\/home\">Centro Nacional para Ni\u00f1os Desaparecidos y Explotados (NCMEC)<\/a>. Tambi\u00e9n, exigimos que los ni\u00f1os tengan al menos 13 a\u00f1os para usar nuestros servicios y limitamos la cantidad de personas con las que los adolescentes pueden interactuar.<\/p>\n<p>Hoy estamos compartiendo parte del trabajo que hicimos durante el a\u00f1o pasado para desarrollar nuevas tecnolog\u00edas en la lucha contra la explotaci\u00f3n infantil. Adem\u00e1s del reconocimiento fotogr\u00e1fico, utilizamos inteligencia artificial para detectar im\u00e1genes nuevas de desnudez infantil y contenido abusivo cuando es subido. Usamos esas herramientas -y otras- para identificar m\u00e1s r\u00e1pidamente ese tipo de material, reportarlo al NCMEC y a las cuentas involucradas en interacciones potencialmente inapropiadas con ni\u00f1os, y eliminarlas para evitar da\u00f1os adicionales.<\/p>\n<div class=\"fb-video\" data-allowfullscreen=\"true\" data-href=\"https:\/\/www.facebook.com\/facebook\/videos\/409069096292549\/\" style=\"background-color: #fff; display: inline-block;\"><\/div>\n<p>Nuestras <a href=\"https:\/\/www.facebook.com\/communitystandards\/\">Normas Comunitarias<\/a> proh\u00edben la explotaci\u00f3n infantil y tambi\u00e9n tomamos medidas en relaci\u00f3n con el contenido que no es sexual, como fotos aparentemente benignas de ni\u00f1os en la ba\u00f1era, para evitar incluso cualquier potencial de abuso. Con este enfoque integral, solo en el \u00faltimo trimestre, eliminamos 8,7 millones de piezas de contenido en Facebook que violaban las pol\u00edticas de desnudez o de explotaci\u00f3n sexual de ni\u00f1os, de las cuales el 99 por ciento fueron retiradas antes de ser siquiera reportadas. Tambi\u00e9n eliminamos las cuentas que promueven este tipo de contenido. Tenemos equipos especialmente capacitados en asuntos legales, seguridad en l\u00ednea, an\u00e1lisis e investigaciones forenses, que revisan el contenido e informan los hallazgos al NCMEC. A su vez, el NCMEC investiga y trabaja con las agencias policiales de todo el mundo para ayudar a las v\u00edctimas. Estamos ayudando a la organizaci\u00f3n a desarrollar un nuevo software que sirva para priorizar los reportes que comparte con la polic\u00eda para abordar los casos m\u00e1s graves primero.<\/p>\n<p>Tambi\u00e9n colaboramos con expertos en seguridad, ONGs y otras empresas para eliminar y prevenir la explotaci\u00f3n sexual de ni\u00f1os a trav\u00e9s de tecnolog\u00edas en l\u00ednea. Por ejemplo, trabajamos con la <a href=\"http:\/\/www.technologycoalition.org\/\">Coalici\u00f3n Tecnol\u00f3gica<\/a> para erradicar la explotaci\u00f3n infantil en l\u00ednea, la <a href=\"https:\/\/www.iwf.org.uk\/become-a-member?gclid=EAIaIQobChMI-sfDjaaJ3gIV1qqWCh1_WweKEAAYASAAEgIirPD_BwE\">Internet Watch Fundation<\/a> y <a href=\"https:\/\/www.weprotect.org\/\">WePROTECT Global Alliance<\/a>. Y el pr\u00f3ximo mes, Facebook se unir\u00e1 a Microsoft y otros socios de la industria para comenzar a crear herramientas para compa\u00f1\u00edas m\u00e1s peque\u00f1as que sirvan para evitar el grooming online. M\u00e1s informaci\u00f3n sobre nuestro trabajo <a href=\"https:\/\/www.facebook.com\/safety\">https:\/\/www.facebook.com\/safety<\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"Por Antigone Davis, Jefe Global de Seguridad Una de nuestras responsabilidades fundamentales es que los ni\u00f1os est\u00e9n seguros en Facebook. No toleramos ning\u00fan comportamiento o contenido que se aproveche de ellos y desarrollamos programas de seguridad y recursos educativos junto a m\u00e1s de 400 organizaciones en todo el mundo para ayudar a que Internet sea un lugar m\u00e1s seguro para los menores. Hace a\u00f1os que empleamos tecnolog\u00eda de reconocimiento fotogr\u00e1fico para evitar que las personas compartan im\u00e1genes de explotaci\u00f3n infantil que ya fueron identificadas y se puedan denunciar violaciones en el Centro Nacional para Ni\u00f1os Desaparecidos y Explotados (NCMEC). Tambi\u00e9n, exigimos que los ni\u00f1os tengan al menos 13 a\u00f1os para usar nuestros servicios y limitamos la cantidad de personas con las que los adolescentes pueden interactuar. Hoy estamos compartiendo parte del trabajo que hicimos durante el a\u00f1o pasado para desarrollar nuevas tecnolog\u00edas en la lucha contra la explotaci\u00f3n infantil. Adem\u00e1s del reconocimiento fotogr\u00e1fico, utilizamos inteligencia artificial para detectar im\u00e1genes nuevas de desnudez infantil y contenido abusivo cuando es subido. Usamos esas herramientas -y otras- para identificar m\u00e1s r\u00e1pidamente ese tipo de material, reportarlo al NCMEC y a las cuentas involucradas en interacciones potencialmente inapropiadas con ni\u00f1os, y eliminarlas para evitar da\u00f1os adicionales. Nuestras Normas Comunitarias proh\u00edben la explotaci\u00f3n infantil y tambi\u00e9n tomamos medidas en relaci\u00f3n con el contenido que no es sexual, como fotos aparentemente benignas de ni\u00f1os en la ba\u00f1era, para evitar incluso cualquier potencial de abuso. Con este enfoque integral, solo en el \u00faltimo trimestre, eliminamos 8,7 millones de piezas de contenido en Facebook que violaban las pol\u00edticas de desnudez o de explotaci\u00f3n sexual de ni\u00f1os, de las cuales el 99 por ciento fueron retiradas antes de ser siquiera reportadas. Tambi\u00e9n eliminamos las cuentas que promueven este tipo de contenido. Tenemos equipos especialmente capacitados en asuntos legales, seguridad en l\u00ednea, an\u00e1lisis e investigaciones forenses, que revisan el contenido e informan los hallazgos al NCMEC. A su vez, el NCMEC investiga y trabaja con las agencias policiales de todo el mundo para ayudar a las v\u00edctimas. Estamos ayudando a la organizaci\u00f3n a desarrollar un nuevo software que sirva para priorizar los reportes que comparte con la polic\u00eda para abordar los casos m\u00e1s graves primero. Tambi\u00e9n colaboramos con expertos en seguridad, ONGs y otras empresas para eliminar y prevenir la explotaci\u00f3n sexual de ni\u00f1os a trav\u00e9s de tecnolog\u00edas en l\u00ednea. Por ejemplo, trabajamos con la Coalici\u00f3n Tecnol\u00f3gica para erradicar la explotaci\u00f3n infantil en l\u00ednea, la Internet Watch Fundation y WePROTECT Global Alliance. Y el pr\u00f3ximo mes, Facebook se unir\u00e1 a Microsoft y otros socios de la industria para comenzar a crear herramientas para compa\u00f1\u00edas m\u00e1s peque\u00f1as que sirvan para evitar el grooming online. M\u00e1s informaci\u00f3n sobre nuestro trabajo <a href=\"https:\/\/www.facebook.com\/safety\" rel=\"nofollow\">https:\/\/www.facebook.com\/safety<\/a>.","protected":false},"author":128816270,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[30660046],"tags":[],"class_list":["post-6697","post","type-post","status-publish","format-standard","hentry","category-noticias-de-la-empresa"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Nueva tecnolog\u00eda contra la explotaci\u00f3n infantil | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Nueva tecnolog\u00eda contra la explotaci\u00f3n infantil | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Por Antigone Davis, Jefe Global de Seguridad Una de nuestras responsabilidades fundamentales es que los ni\u00f1os est\u00e9n seguros en Facebook. No toleramos ning\u00fan comportamiento o contenido que se aproveche de ellos y desarrollamos programas de seguridad y recursos educativos junto a m\u00e1s de 400 organizaciones en todo el mundo para ayudar a que Internet sea un lugar m\u00e1s seguro para los menores. Hace a\u00f1os que empleamos tecnolog\u00eda de reconocimiento fotogr\u00e1fico para evitar que las personas compartan im\u00e1genes de explotaci\u00f3n infantil que ya fueron identificadas y se puedan denunciar violaciones en el Centro Nacional para Ni\u00f1os Desaparecidos y Explotados (NCMEC). Tambi\u00e9n, exigimos que los ni\u00f1os tengan al menos 13 a\u00f1os para usar nuestros servicios y limitamos la cantidad de personas con las que los adolescentes pueden interactuar. Hoy estamos compartiendo parte del trabajo que hicimos durante el a\u00f1o pasado para desarrollar nuevas tecnolog\u00edas en la lucha contra la explotaci\u00f3n infantil. Adem\u00e1s del reconocimiento fotogr\u00e1fico, utilizamos inteligencia artificial para detectar im\u00e1genes nuevas de desnudez infantil y contenido abusivo cuando es subido. Usamos esas herramientas -y otras- para identificar m\u00e1s r\u00e1pidamente ese tipo de material, reportarlo al NCMEC y a las cuentas involucradas en interacciones potencialmente inapropiadas con ni\u00f1os, y eliminarlas para evitar da\u00f1os adicionales. Nuestras Normas Comunitarias proh\u00edben la explotaci\u00f3n infantil y tambi\u00e9n tomamos medidas en relaci\u00f3n con el contenido que no es sexual, como fotos aparentemente benignas de ni\u00f1os en la ba\u00f1era, para evitar incluso cualquier potencial de abuso. Con este enfoque integral, solo en el \u00faltimo trimestre, eliminamos 8,7 millones de piezas de contenido en Facebook que violaban las pol\u00edticas de desnudez o de explotaci\u00f3n sexual de ni\u00f1os, de las cuales el 99 por ciento fueron retiradas antes de ser siquiera reportadas. Tambi\u00e9n eliminamos las cuentas que promueven este tipo de contenido. Tenemos equipos especialmente capacitados en asuntos legales, seguridad en l\u00ednea, an\u00e1lisis e investigaciones forenses, que revisan el contenido e informan los hallazgos al NCMEC. A su vez, el NCMEC investiga y trabaja con las agencias policiales de todo el mundo para ayudar a las v\u00edctimas. Estamos ayudando a la organizaci\u00f3n a desarrollar un nuevo software que sirva para priorizar los reportes que comparte con la polic\u00eda para abordar los casos m\u00e1s graves primero. Tambi\u00e9n colaboramos con expertos en seguridad, ONGs y otras empresas para eliminar y prevenir la explotaci\u00f3n sexual de ni\u00f1os a trav\u00e9s de tecnolog\u00edas en l\u00ednea. Por ejemplo, trabajamos con la Coalici\u00f3n Tecnol\u00f3gica para erradicar la explotaci\u00f3n infantil en l\u00ednea, la Internet Watch Fundation y WePROTECT Global Alliance. Y el pr\u00f3ximo mes, Facebook se unir\u00e1 a Microsoft y otros socios de la industria para comenzar a crear herramientas para compa\u00f1\u00edas m\u00e1s peque\u00f1as que sirvan para evitar el grooming online. M\u00e1s informaci\u00f3n sobre nuestro trabajo https:\/\/www.facebook.com\/safety.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2018-10-24T13:06:16+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"acp1103\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/\"},\"author\":\"Facebook company\",\"headline\":\"Nueva tecnolog\u00eda contra la explotaci\u00f3n infantil\",\"datePublished\":\"2018-10-24T13:06:16+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/\"},\"wordCount\":521,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"articleSection\":[\"Noticias de la Empresa\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/\",\"name\":\"Nueva tecnolog\u00eda contra la explotaci\u00f3n infantil | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"datePublished\":\"2018-10-24T13:06:16+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Nueva tecnolog\u00eda contra la explotaci\u00f3n infantil\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Nueva tecnolog\u00eda contra la explotaci\u00f3n infantil | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/","og_locale":"es_ES","og_type":"article","og_title":"Nueva tecnolog\u00eda contra la explotaci\u00f3n infantil | Acerca de Meta","og_description":"Por Antigone Davis, Jefe Global de Seguridad Una de nuestras responsabilidades fundamentales es que los ni\u00f1os est\u00e9n seguros en Facebook. No toleramos ning\u00fan comportamiento o contenido que se aproveche de ellos y desarrollamos programas de seguridad y recursos educativos junto a m\u00e1s de 400 organizaciones en todo el mundo para ayudar a que Internet sea un lugar m\u00e1s seguro para los menores. Hace a\u00f1os que empleamos tecnolog\u00eda de reconocimiento fotogr\u00e1fico para evitar que las personas compartan im\u00e1genes de explotaci\u00f3n infantil que ya fueron identificadas y se puedan denunciar violaciones en el Centro Nacional para Ni\u00f1os Desaparecidos y Explotados (NCMEC). Tambi\u00e9n, exigimos que los ni\u00f1os tengan al menos 13 a\u00f1os para usar nuestros servicios y limitamos la cantidad de personas con las que los adolescentes pueden interactuar. Hoy estamos compartiendo parte del trabajo que hicimos durante el a\u00f1o pasado para desarrollar nuevas tecnolog\u00edas en la lucha contra la explotaci\u00f3n infantil. Adem\u00e1s del reconocimiento fotogr\u00e1fico, utilizamos inteligencia artificial para detectar im\u00e1genes nuevas de desnudez infantil y contenido abusivo cuando es subido. Usamos esas herramientas -y otras- para identificar m\u00e1s r\u00e1pidamente ese tipo de material, reportarlo al NCMEC y a las cuentas involucradas en interacciones potencialmente inapropiadas con ni\u00f1os, y eliminarlas para evitar da\u00f1os adicionales. Nuestras Normas Comunitarias proh\u00edben la explotaci\u00f3n infantil y tambi\u00e9n tomamos medidas en relaci\u00f3n con el contenido que no es sexual, como fotos aparentemente benignas de ni\u00f1os en la ba\u00f1era, para evitar incluso cualquier potencial de abuso. Con este enfoque integral, solo en el \u00faltimo trimestre, eliminamos 8,7 millones de piezas de contenido en Facebook que violaban las pol\u00edticas de desnudez o de explotaci\u00f3n sexual de ni\u00f1os, de las cuales el 99 por ciento fueron retiradas antes de ser siquiera reportadas. Tambi\u00e9n eliminamos las cuentas que promueven este tipo de contenido. Tenemos equipos especialmente capacitados en asuntos legales, seguridad en l\u00ednea, an\u00e1lisis e investigaciones forenses, que revisan el contenido e informan los hallazgos al NCMEC. A su vez, el NCMEC investiga y trabaja con las agencias policiales de todo el mundo para ayudar a las v\u00edctimas. Estamos ayudando a la organizaci\u00f3n a desarrollar un nuevo software que sirva para priorizar los reportes que comparte con la polic\u00eda para abordar los casos m\u00e1s graves primero. Tambi\u00e9n colaboramos con expertos en seguridad, ONGs y otras empresas para eliminar y prevenir la explotaci\u00f3n sexual de ni\u00f1os a trav\u00e9s de tecnolog\u00edas en l\u00ednea. Por ejemplo, trabajamos con la Coalici\u00f3n Tecnol\u00f3gica para erradicar la explotaci\u00f3n infantil en l\u00ednea, la Internet Watch Fundation y WePROTECT Global Alliance. Y el pr\u00f3ximo mes, Facebook se unir\u00e1 a Microsoft y otros socios de la industria para comenzar a crear herramientas para compa\u00f1\u00edas m\u00e1s peque\u00f1as que sirvan para evitar el grooming online. M\u00e1s informaci\u00f3n sobre nuestro trabajo https:\/\/www.facebook.com\/safety.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/","og_site_name":"Acerca de Meta","article_published_time":"2018-10-24T13:06:16+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"acp1103","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"3 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/"},"author":"Facebook company","headline":"Nueva tecnolog\u00eda contra la explotaci\u00f3n infantil","datePublished":"2018-10-24T13:06:16+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/"},"wordCount":521,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"articleSection":["Noticias de la Empresa"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/","url":"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/","name":"Nueva tecnolog\u00eda contra la explotaci\u00f3n infantil | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"datePublished":"2018-10-24T13:06:16+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/"]}],"author":"Acerca de Meta"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/10\/nueva-tecnologia-contra-la-explotacion-infantil\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Nueva tecnolog\u00eda contra la explotaci\u00f3n infantil"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6697","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/128816270"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=6697"}],"version-history":[{"count":1,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6697\/revisions"}],"predecessor-version":[{"id":6698,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6697\/revisions\/6698"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=6697"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=6697"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=6697"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}