{"id":22531,"date":"2021-02-23T14:27:24","date_gmt":"2021-02-23T20:27:24","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=22531"},"modified":"2021-02-23T14:27:24","modified_gmt":"2021-02-23T20:27:24","slug":"prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/","title":{"rendered":"Prevenimos la explotaci\u00f3n infantil en nuestras aplicaciones"},"content":{"rendered":"<p><span style=\"font-weight: 400\">Usar nuestras aplicaciones para da\u00f1ar a los ni\u00f1os es aborrecible e inaceptable. Nuestros esfuerzos en la industria para combatir la explotaci\u00f3n infantil se enfocan en prevenir el abuso, detectar y reportar contenido que viola nuestras pol\u00edticas y trabajar con expertos y autoridades para mantener a los ni\u00f1os seguros. <\/span><\/p>\n<h1><span style=\"font-weight: 400;color: #808080\">Hoy, anunciamos nuevas herramientas que estamos probando para evitar que las personas compartan contenido que victimiza a los ni\u00f1os as\u00ed como mejoras recientes que hemos realizado a nuestras herramientas de detecci\u00f3n y reportes.<\/span><\/h1>\n<h3><b>Enfoque en prevenci\u00f3n<\/b><\/h3>\n<p><span style=\"font-weight: 400\">Para comprender c\u00f3mo y por qu\u00e9 las personas comparten contenido de explotaci\u00f3n infantil en nuestras aplicaciones, realizamos un an\u00e1lisis profundo del contenido que reportamos al Centro Nacional para Ni\u00f1os Desaparecidos y Explotados (NCMEC por sus siglas en ingl\u00e9s) en octubre y noviembre de 2020. Encontramos que el 90% del contenido es el mismo, o visualmente similar, al que ya se ha reportado. Las copias de solo seis videos fueron responsables de m\u00e1s de la mitad del contenido de explotaci\u00f3n infantil que reportamos en ese per\u00edodo de tiempo. Si bien estos datos indican que el n\u00famero de piezas de contenido no es igual al n\u00famero de v\u00edctimas, y que el mismo contenido, potencialmente ligeramente alterado se comparte repetidamente, una sola v\u00edctima de este horrible crimen es demasiado.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dado que solo unas pocas piezas de contenido derivaron en muchos reportes, podemos pensar que a trav\u00e9s de una mejor comprensi\u00f3n de la intenci\u00f3n detr\u00e1s de esta acci\u00f3n puede ayudarnos a prevenir la revictimizaci\u00f3n. Trabajamos con los principales expertos en explotaci\u00f3n infantil, incluido el NCMEC, para desarrollar una <a href=\"https:\/\/research.fb.com\/blog\/2021\/02\/understanding-the-intentions-of-child-sexual-abuse-material-csam-sharers\">taxonom\u00eda respaldada en investigaciones<\/a> para categorizar la aparente intenci\u00f3n de una persona de compartir este contenido. Con base en esta taxonom\u00eda, evaluamos 150 cuentas que reportamos al NCMEC por subir material de abuso sexual infantil en julio y agosto de 2020 y enero de 2021, y estimamos que m\u00e1s del 75% de estas no mostraron intenciones maliciosas (es decir, no ten\u00edan el prop\u00f3sito de da\u00f1ar a un ni\u00f1o). Parece que fueron compartidas por otras razones, como indignaci\u00f3n o un p\u00e9simo sentido del humor (por ejemplo, los genitales de un ni\u00f1o siendo mordidos por un animal). Si bien este estudio mejora nuestro entendimiento, estos hallazgos no deben considerarse como una medida precisa sobre el ecosistema de seguridad infantil. Nuestro trabajo para comprender la intenci\u00f3n es continuo.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Con base en nuestros descubrimientos estamos desarrollando soluciones espec\u00edficas, incluyendo nuevas herramientas y pol\u00edticas para reducir el intercambio de este tipo de contenido. Empezamos probando dos nuevas herramientas: una dirigida a la b\u00fasqueda potencialmente maliciosa de este contenido y otra dirigida a compartir este contenido de manera no maliciosa. La primera es una ventana emergente que se muestra a las personas que buscan t\u00e9rminos en nuestras aplicaciones asociados con la explotaci\u00f3n infantil. La ventana emergente ofrece formas de obtener ayuda de organizaciones especializadas y brinda informaci\u00f3n sobre las consecuencias de ver contenido ilegal. <\/span><\/p>\n<p><span style=\"font-weight: 400\">La segunda es una alerta de seguridad que informa a las personas que han compartido contenido de explotaci\u00f3n infantil sobre el da\u00f1o que puede causar y advierte que esto va en contra de nuestras pol\u00edticas y que hay consecuencias legales por compartir este material. Mandamos esta alerta de seguridad al mismo tiempo que eliminamos el contenido, lo almacenamos y lo reportamos al NCMEC. Las cuentas que promuevan este contenido ser\u00e1n eliminadas. <\/span><span style=\"font-weight: 400\">T<\/span><span style=\"font-weight: 400\">ambi\u00e9n, estamos utilizando esta nueva herramienta para identificar las se\u00f1ales de comportamiento de aquellos que podr\u00edan estar en riesgo de compartir este material, para poder orientarlos y alentarlos a no compartirlo en ninguna plataforma, p\u00fablica o privada.<\/span><\/p>\n<h3><b>Mejoramos nuestras capacidades de detecci\u00f3n<\/b><\/h3>\n<p><span style=\"font-weight: 400\">Durante a\u00f1os, hemos utilizado la tecnolog\u00eda para encontrar contenido de explotaci\u00f3n infantil y detectar posibles interacciones inapropiadas con ni\u00f1os o manipulaci\u00f3n infantil. Pero hemos ampliado nuestro trabajo para detectar y eliminar redes que violan nuestras pol\u00edticas de explotaci\u00f3n infantil, de forma similar a nuestros esfuerzos contra el comportamiento inaut\u00e9ntico coordinado y las organizaciones peligrosas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Adem\u00e1s, hemos actualizado nuestras <\/span><a href=\"https:\/\/www.facebook.com\/communitystandards\/child_nudity_sexual_exploitation\"><span style=\"font-weight: 400\">pol\u00edticas de seguridad infantil<\/span><\/a><span style=\"font-weight: 400\"> para aclarar que eliminaremos los perfiles, P\u00e1ginas, Grupos y cuentas de Instagram de Facebook que se dedican a compartir im\u00e1genes de ni\u00f1os con leyendas, hashtags o comentarios que contengan signos inapropiados de afecto o comentarios inapropiados sobre los ni\u00f1os representados en la imagen. Siempre eliminamos el contenido que sexualiza expl\u00edcitamente a los ni\u00f1os, pero el contenido que no es expl\u00edcito y no representa desnudez infantil es m\u00e1s dif\u00edcil de definir. Seg\u00fan esta nueva pol\u00edtica, si bien las im\u00e1genes por s\u00ed solas pueden no infringir nuestras reglas, el texto que las acompa\u00f1a puede ayudarnos a determinar mejor si el contenido sexualiza a los ni\u00f1os y si el perfil, P\u00e1gina, Grupo o cuenta asociados deben eliminarse.<\/span><\/p>\n<h3><b>Actualizaci\u00f3n de nuestras herramientas de reportes<\/b><\/h3>\n<p><span style=\"font-weight: 400\">Despu\u00e9s de consultar con organizaciones y expertos en seguridad infantil, facilitamos la denuncia de contenido que infringe nuestras pol\u00edticas de explotaci\u00f3n infantil. Para hacer esto, agregamos la opci\u00f3n de elegir \u00abinvolucra a un ni\u00f1o\u00bb en la categor\u00eda \u00abDesnudos y actividad sexual\u00bb en los reportes de Facebook e Instagram. Estos informes se priorizar\u00e1n para su revisi\u00f3n. Tambi\u00e9n comenzamos a utilizar la <\/span><a href=\"https:\/\/protectingchildren.google\/intl\/en\/\"><span style=\"font-weight: 400\">API de seguridad de contenido de Google<\/span><\/a><span style=\"font-weight: 400\"> para ayudarnos a priorizar mejor el contenido que puede contener explotaci\u00f3n infantil para que lo eval\u00faen nuestros revisores de contenido.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para obtener m\u00e1s informaci\u00f3n sobre nuestros esfuerzos continuos para proteger a los ni\u00f1os en los espacios p\u00fablicos y privados en nuestras aplicaciones, visita: <\/span><a href=\"http:\/\/facebook.com\/safety\/onlinechildprotection\"><span style=\"font-weight: 400\">facebook.com\/safety\/onlinechildprotection<\/span><\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Usar nuestras aplicaciones para da\u00f1ar a los ni\u00f1os es aborrecible e inaceptable. Nuestros esfuerzos en la industria para combatir la explotaci\u00f3n infantil se enfocan en prevenir el abuso, detectar y reportar contenido que viola nuestras pol\u00edticas y trabajar con expertos y autoridades para mantener a los ni\u00f1os seguros. Hoy, anunciamos nuevas herramientas que estamos probando para evitar que las personas compartan contenido que victimiza a los ni\u00f1os as\u00ed como mejoras recientes que hemos realizado a nuestras herramientas de detecci\u00f3n y reportes. Enfoque en prevenci\u00f3n Para comprender c\u00f3mo y por qu\u00e9 las personas comparten contenido de explotaci\u00f3n infantil en nuestras aplicaciones, realizamos un an\u00e1lisis profundo del contenido que reportamos al Centro Nacional para Ni\u00f1os Desaparecidos y Explotados (NCMEC por sus siglas en ingl\u00e9s) en octubre y noviembre de 2020. Encontramos que el 90% del contenido es el mismo, o visualmente similar, al que ya se ha reportado. Las copias de solo seis videos fueron responsables de m\u00e1s de la mitad del contenido de explotaci\u00f3n infantil que reportamos en ese per\u00edodo de tiempo. Si bien estos datos indican que el n\u00famero de piezas de contenido no es igual al n\u00famero de v\u00edctimas, y que el mismo contenido, potencialmente ligeramente alterado se comparte repetidamente, una sola v\u00edctima de este horrible crimen es demasiado. Dado que solo unas pocas piezas de contenido derivaron en muchos reportes, podemos pensar que a trav\u00e9s de una mejor comprensi\u00f3n de la intenci\u00f3n detr\u00e1s de esta acci\u00f3n puede ayudarnos a prevenir la revictimizaci\u00f3n. Trabajamos con los principales expertos en explotaci\u00f3n infantil, incluido el NCMEC, para desarrollar una taxonom\u00eda respaldada en investigaciones para categorizar la aparente intenci\u00f3n de una persona de compartir este contenido. Con base en esta taxonom\u00eda, evaluamos 150 cuentas que reportamos al NCMEC por subir material de abuso sexual infantil en julio y agosto de 2020 y enero de 2021, y estimamos que m\u00e1s del 75% de estas no mostraron intenciones maliciosas (es decir, no ten\u00edan el prop\u00f3sito de da\u00f1ar a un ni\u00f1o). Parece que fueron compartidas por otras razones, como indignaci\u00f3n o un p\u00e9simo sentido del humor (por ejemplo, los genitales de un ni\u00f1o siendo mordidos por un animal). Si bien este estudio mejora nuestro entendimiento, estos hallazgos no deben considerarse como una medida precisa sobre el ecosistema de seguridad infantil. Nuestro trabajo para comprender la intenci\u00f3n es continuo. Con base en nuestros descubrimientos estamos desarrollando soluciones espec\u00edficas, incluyendo nuevas herramientas y pol\u00edticas para reducir el intercambio de este tipo de contenido. Empezamos probando dos nuevas herramientas: una dirigida a la b\u00fasqueda potencialmente maliciosa de este contenido y otra dirigida a compartir este contenido de manera no maliciosa. La primera es una ventana emergente que se muestra a las personas que buscan t\u00e9rminos en nuestras aplicaciones asociados con la explotaci\u00f3n infantil. La ventana emergente ofrece formas de obtener ayuda de organizaciones especializadas y brinda informaci\u00f3n sobre las consecuencias de ver contenido ilegal. La segunda es una alerta de seguridad que informa a las personas que han compartido contenido de explotaci\u00f3n infantil sobre el da\u00f1o que puede causar y advierte que esto va en contra de nuestras pol\u00edticas y que hay consecuencias legales por compartir este material. Mandamos esta alerta de seguridad al mismo tiempo que eliminamos el contenido, lo almacenamos y lo reportamos al NCMEC. Las cuentas que promuevan este contenido ser\u00e1n eliminadas. Tambi\u00e9n, estamos utilizando esta nueva herramienta para identificar las se\u00f1ales de comportamiento de aquellos que podr\u00edan estar en riesgo de compartir este material, para poder orientarlos y alentarlos a no compartirlo en ninguna plataforma, p\u00fablica o privada. Mejoramos nuestras capacidades de detecci\u00f3n Durante a\u00f1os, hemos utilizado la tecnolog\u00eda para encontrar contenido de explotaci\u00f3n infantil y detectar posibles interacciones inapropiadas con ni\u00f1os o manipulaci\u00f3n infantil. Pero hemos ampliado nuestro trabajo para detectar y eliminar redes que violan nuestras pol\u00edticas de explotaci\u00f3n infantil, de forma similar a nuestros esfuerzos contra el comportamiento inaut\u00e9ntico coordinado y las organizaciones peligrosas. Adem\u00e1s, hemos actualizado nuestras pol\u00edticas de seguridad infantil para aclarar que eliminaremos los perfiles, P\u00e1ginas, Grupos y cuentas de Instagram de Facebook que se dedican a compartir im\u00e1genes de ni\u00f1os con leyendas, hashtags o comentarios que contengan signos inapropiados de afecto o comentarios inapropiados sobre los ni\u00f1os representados en la imagen. Siempre eliminamos el contenido que sexualiza expl\u00edcitamente a los ni\u00f1os, pero el contenido que no es expl\u00edcito y no representa desnudez infantil es m\u00e1s dif\u00edcil de definir. Seg\u00fan esta nueva pol\u00edtica, si bien las im\u00e1genes por s\u00ed solas pueden no infringir nuestras reglas, el texto que las acompa\u00f1a puede ayudarnos a determinar mejor si el contenido sexualiza a los ni\u00f1os y si el perfil, P\u00e1gina, Grupo o cuenta asociados deben eliminarse. Actualizaci\u00f3n de nuestras herramientas de reportes Despu\u00e9s de consultar con organizaciones y expertos en seguridad infantil, facilitamos la denuncia de contenido que infringe nuestras pol\u00edticas de explotaci\u00f3n infantil. Para hacer esto, agregamos la opci\u00f3n de elegir \u00abinvolucra a un ni\u00f1o\u00bb en la categor\u00eda \u00abDesnudos y actividad sexual\u00bb en los reportes de Facebook e Instagram. Estos informes se priorizar\u00e1n para su revisi\u00f3n. Tambi\u00e9n comenzamos a utilizar la API de seguridad de contenido de Google para ayudarnos a priorizar mejor el contenido que puede contener explotaci\u00f3n infantil para que lo eval\u00faen nuestros revisores de contenido. Para obtener m\u00e1s informaci\u00f3n sobre nuestros esfuerzos continuos para proteger a los ni\u00f1os en los espacios p\u00fablicos y privados en nuestras aplicaciones, visita: facebook.com\/safety\/onlinechildprotection","protected":false},"author":164097140,"featured_media":22532,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243947987,243948037,237720135,243947992,243948083],"tags":[],"class_list":["post-22531","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-integridad-y-seguridad","category-meta","category-noticias-de-productos","category-politica-publica","category-seguridad-expresion"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Prevenimos la explotaci\u00f3n infantil en nuestras aplicaciones | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Prevenimos la explotaci\u00f3n infantil en nuestras aplicaciones | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Usar nuestras aplicaciones para da\u00f1ar a los ni\u00f1os es aborrecible e inaceptable. Nuestros esfuerzos en la industria para combatir la explotaci\u00f3n infantil se enfocan en prevenir el abuso, detectar y reportar contenido que viola nuestras pol\u00edticas y trabajar con expertos y autoridades para mantener a los ni\u00f1os seguros. Hoy, anunciamos nuevas herramientas que estamos probando para evitar que las personas compartan contenido que victimiza a los ni\u00f1os as\u00ed como mejoras recientes que hemos realizado a nuestras herramientas de detecci\u00f3n y reportes. Enfoque en prevenci\u00f3n Para comprender c\u00f3mo y por qu\u00e9 las personas comparten contenido de explotaci\u00f3n infantil en nuestras aplicaciones, realizamos un an\u00e1lisis profundo del contenido que reportamos al Centro Nacional para Ni\u00f1os Desaparecidos y Explotados (NCMEC por sus siglas en ingl\u00e9s) en octubre y noviembre de 2020. Encontramos que el 90% del contenido es el mismo, o visualmente similar, al que ya se ha reportado. Las copias de solo seis videos fueron responsables de m\u00e1s de la mitad del contenido de explotaci\u00f3n infantil que reportamos en ese per\u00edodo de tiempo. Si bien estos datos indican que el n\u00famero de piezas de contenido no es igual al n\u00famero de v\u00edctimas, y que el mismo contenido, potencialmente ligeramente alterado se comparte repetidamente, una sola v\u00edctima de este horrible crimen es demasiado. Dado que solo unas pocas piezas de contenido derivaron en muchos reportes, podemos pensar que a trav\u00e9s de una mejor comprensi\u00f3n de la intenci\u00f3n detr\u00e1s de esta acci\u00f3n puede ayudarnos a prevenir la revictimizaci\u00f3n. Trabajamos con los principales expertos en explotaci\u00f3n infantil, incluido el NCMEC, para desarrollar una taxonom\u00eda respaldada en investigaciones para categorizar la aparente intenci\u00f3n de una persona de compartir este contenido. Con base en esta taxonom\u00eda, evaluamos 150 cuentas que reportamos al NCMEC por subir material de abuso sexual infantil en julio y agosto de 2020 y enero de 2021, y estimamos que m\u00e1s del 75% de estas no mostraron intenciones maliciosas (es decir, no ten\u00edan el prop\u00f3sito de da\u00f1ar a un ni\u00f1o). Parece que fueron compartidas por otras razones, como indignaci\u00f3n o un p\u00e9simo sentido del humor (por ejemplo, los genitales de un ni\u00f1o siendo mordidos por un animal). Si bien este estudio mejora nuestro entendimiento, estos hallazgos no deben considerarse como una medida precisa sobre el ecosistema de seguridad infantil. Nuestro trabajo para comprender la intenci\u00f3n es continuo. Con base en nuestros descubrimientos estamos desarrollando soluciones espec\u00edficas, incluyendo nuevas herramientas y pol\u00edticas para reducir el intercambio de este tipo de contenido. Empezamos probando dos nuevas herramientas: una dirigida a la b\u00fasqueda potencialmente maliciosa de este contenido y otra dirigida a compartir este contenido de manera no maliciosa. La primera es una ventana emergente que se muestra a las personas que buscan t\u00e9rminos en nuestras aplicaciones asociados con la explotaci\u00f3n infantil. La ventana emergente ofrece formas de obtener ayuda de organizaciones especializadas y brinda informaci\u00f3n sobre las consecuencias de ver contenido ilegal. La segunda es una alerta de seguridad que informa a las personas que han compartido contenido de explotaci\u00f3n infantil sobre el da\u00f1o que puede causar y advierte que esto va en contra de nuestras pol\u00edticas y que hay consecuencias legales por compartir este material. Mandamos esta alerta de seguridad al mismo tiempo que eliminamos el contenido, lo almacenamos y lo reportamos al NCMEC. Las cuentas que promuevan este contenido ser\u00e1n eliminadas. Tambi\u00e9n, estamos utilizando esta nueva herramienta para identificar las se\u00f1ales de comportamiento de aquellos que podr\u00edan estar en riesgo de compartir este material, para poder orientarlos y alentarlos a no compartirlo en ninguna plataforma, p\u00fablica o privada. Mejoramos nuestras capacidades de detecci\u00f3n Durante a\u00f1os, hemos utilizado la tecnolog\u00eda para encontrar contenido de explotaci\u00f3n infantil y detectar posibles interacciones inapropiadas con ni\u00f1os o manipulaci\u00f3n infantil. Pero hemos ampliado nuestro trabajo para detectar y eliminar redes que violan nuestras pol\u00edticas de explotaci\u00f3n infantil, de forma similar a nuestros esfuerzos contra el comportamiento inaut\u00e9ntico coordinado y las organizaciones peligrosas. Adem\u00e1s, hemos actualizado nuestras pol\u00edticas de seguridad infantil para aclarar que eliminaremos los perfiles, P\u00e1ginas, Grupos y cuentas de Instagram de Facebook que se dedican a compartir im\u00e1genes de ni\u00f1os con leyendas, hashtags o comentarios que contengan signos inapropiados de afecto o comentarios inapropiados sobre los ni\u00f1os representados en la imagen. Siempre eliminamos el contenido que sexualiza expl\u00edcitamente a los ni\u00f1os, pero el contenido que no es expl\u00edcito y no representa desnudez infantil es m\u00e1s dif\u00edcil de definir. Seg\u00fan esta nueva pol\u00edtica, si bien las im\u00e1genes por s\u00ed solas pueden no infringir nuestras reglas, el texto que las acompa\u00f1a puede ayudarnos a determinar mejor si el contenido sexualiza a los ni\u00f1os y si el perfil, P\u00e1gina, Grupo o cuenta asociados deben eliminarse. Actualizaci\u00f3n de nuestras herramientas de reportes Despu\u00e9s de consultar con organizaciones y expertos en seguridad infantil, facilitamos la denuncia de contenido que infringe nuestras pol\u00edticas de explotaci\u00f3n infantil. Para hacer esto, agregamos la opci\u00f3n de elegir \u00abinvolucra a un ni\u00f1o\u00bb en la categor\u00eda \u00abDesnudos y actividad sexual\u00bb en los reportes de Facebook e Instagram. Estos informes se priorizar\u00e1n para su revisi\u00f3n. Tambi\u00e9n comenzamos a utilizar la API de seguridad de contenido de Google para ayudarnos a priorizar mejor el contenido que puede contener explotaci\u00f3n infantil para que lo eval\u00faen nuestros revisores de contenido. Para obtener m\u00e1s informaci\u00f3n sobre nuestros esfuerzos continuos para proteger a los ni\u00f1os en los espacios p\u00fablicos y privados en nuestras aplicaciones, visita: facebook.com\/safety\/onlinechildprotection\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2021-02-23T20:27:24+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/02\/NRP-Child_Safety_Bundle_Announcement_banner.jpg?resize=1024,577\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"577\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"eortiz\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/\"},\"author\":\"Facebook company\",\"headline\":\"Prevenimos la explotaci\u00f3n infantil en nuestras aplicaciones\",\"datePublished\":\"2021-02-23T20:27:24+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/\"},\"wordCount\":983,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/02\/NRP-Child_Safety_Bundle_Announcement_banner.jpg?fit=2670%2C1504\",\"articleSection\":[\"Integridad &amp; Seguridad\",\"Meta\",\"Noticias de Productos\",\"Pol\u00edtica P\u00fablica\",\"Seguridad &amp; Expresi\u00f3n\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/\",\"name\":\"Prevenimos la explotaci\u00f3n infantil en nuestras aplicaciones | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/02\/NRP-Child_Safety_Bundle_Announcement_banner.jpg?fit=2670%2C1504\",\"datePublished\":\"2021-02-23T20:27:24+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/02\/NRP-Child_Safety_Bundle_Announcement_banner.jpg?fit=2670%2C1504\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/02\/NRP-Child_Safety_Bundle_Announcement_banner.jpg?fit=2670%2C1504\",\"width\":2670,\"height\":1504},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Prevenimos la explotaci\u00f3n infantil en nuestras aplicaciones\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Prevenimos la explotaci\u00f3n infantil en nuestras aplicaciones | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/","og_locale":"es_ES","og_type":"article","og_title":"Prevenimos la explotaci\u00f3n infantil en nuestras aplicaciones | Acerca de Meta","og_description":"Usar nuestras aplicaciones para da\u00f1ar a los ni\u00f1os es aborrecible e inaceptable. Nuestros esfuerzos en la industria para combatir la explotaci\u00f3n infantil se enfocan en prevenir el abuso, detectar y reportar contenido que viola nuestras pol\u00edticas y trabajar con expertos y autoridades para mantener a los ni\u00f1os seguros. Hoy, anunciamos nuevas herramientas que estamos probando para evitar que las personas compartan contenido que victimiza a los ni\u00f1os as\u00ed como mejoras recientes que hemos realizado a nuestras herramientas de detecci\u00f3n y reportes. Enfoque en prevenci\u00f3n Para comprender c\u00f3mo y por qu\u00e9 las personas comparten contenido de explotaci\u00f3n infantil en nuestras aplicaciones, realizamos un an\u00e1lisis profundo del contenido que reportamos al Centro Nacional para Ni\u00f1os Desaparecidos y Explotados (NCMEC por sus siglas en ingl\u00e9s) en octubre y noviembre de 2020. Encontramos que el 90% del contenido es el mismo, o visualmente similar, al que ya se ha reportado. Las copias de solo seis videos fueron responsables de m\u00e1s de la mitad del contenido de explotaci\u00f3n infantil que reportamos en ese per\u00edodo de tiempo. Si bien estos datos indican que el n\u00famero de piezas de contenido no es igual al n\u00famero de v\u00edctimas, y que el mismo contenido, potencialmente ligeramente alterado se comparte repetidamente, una sola v\u00edctima de este horrible crimen es demasiado. Dado que solo unas pocas piezas de contenido derivaron en muchos reportes, podemos pensar que a trav\u00e9s de una mejor comprensi\u00f3n de la intenci\u00f3n detr\u00e1s de esta acci\u00f3n puede ayudarnos a prevenir la revictimizaci\u00f3n. Trabajamos con los principales expertos en explotaci\u00f3n infantil, incluido el NCMEC, para desarrollar una taxonom\u00eda respaldada en investigaciones para categorizar la aparente intenci\u00f3n de una persona de compartir este contenido. Con base en esta taxonom\u00eda, evaluamos 150 cuentas que reportamos al NCMEC por subir material de abuso sexual infantil en julio y agosto de 2020 y enero de 2021, y estimamos que m\u00e1s del 75% de estas no mostraron intenciones maliciosas (es decir, no ten\u00edan el prop\u00f3sito de da\u00f1ar a un ni\u00f1o). Parece que fueron compartidas por otras razones, como indignaci\u00f3n o un p\u00e9simo sentido del humor (por ejemplo, los genitales de un ni\u00f1o siendo mordidos por un animal). Si bien este estudio mejora nuestro entendimiento, estos hallazgos no deben considerarse como una medida precisa sobre el ecosistema de seguridad infantil. Nuestro trabajo para comprender la intenci\u00f3n es continuo. Con base en nuestros descubrimientos estamos desarrollando soluciones espec\u00edficas, incluyendo nuevas herramientas y pol\u00edticas para reducir el intercambio de este tipo de contenido. Empezamos probando dos nuevas herramientas: una dirigida a la b\u00fasqueda potencialmente maliciosa de este contenido y otra dirigida a compartir este contenido de manera no maliciosa. La primera es una ventana emergente que se muestra a las personas que buscan t\u00e9rminos en nuestras aplicaciones asociados con la explotaci\u00f3n infantil. La ventana emergente ofrece formas de obtener ayuda de organizaciones especializadas y brinda informaci\u00f3n sobre las consecuencias de ver contenido ilegal. La segunda es una alerta de seguridad que informa a las personas que han compartido contenido de explotaci\u00f3n infantil sobre el da\u00f1o que puede causar y advierte que esto va en contra de nuestras pol\u00edticas y que hay consecuencias legales por compartir este material. Mandamos esta alerta de seguridad al mismo tiempo que eliminamos el contenido, lo almacenamos y lo reportamos al NCMEC. Las cuentas que promuevan este contenido ser\u00e1n eliminadas. Tambi\u00e9n, estamos utilizando esta nueva herramienta para identificar las se\u00f1ales de comportamiento de aquellos que podr\u00edan estar en riesgo de compartir este material, para poder orientarlos y alentarlos a no compartirlo en ninguna plataforma, p\u00fablica o privada. Mejoramos nuestras capacidades de detecci\u00f3n Durante a\u00f1os, hemos utilizado la tecnolog\u00eda para encontrar contenido de explotaci\u00f3n infantil y detectar posibles interacciones inapropiadas con ni\u00f1os o manipulaci\u00f3n infantil. Pero hemos ampliado nuestro trabajo para detectar y eliminar redes que violan nuestras pol\u00edticas de explotaci\u00f3n infantil, de forma similar a nuestros esfuerzos contra el comportamiento inaut\u00e9ntico coordinado y las organizaciones peligrosas. Adem\u00e1s, hemos actualizado nuestras pol\u00edticas de seguridad infantil para aclarar que eliminaremos los perfiles, P\u00e1ginas, Grupos y cuentas de Instagram de Facebook que se dedican a compartir im\u00e1genes de ni\u00f1os con leyendas, hashtags o comentarios que contengan signos inapropiados de afecto o comentarios inapropiados sobre los ni\u00f1os representados en la imagen. Siempre eliminamos el contenido que sexualiza expl\u00edcitamente a los ni\u00f1os, pero el contenido que no es expl\u00edcito y no representa desnudez infantil es m\u00e1s dif\u00edcil de definir. Seg\u00fan esta nueva pol\u00edtica, si bien las im\u00e1genes por s\u00ed solas pueden no infringir nuestras reglas, el texto que las acompa\u00f1a puede ayudarnos a determinar mejor si el contenido sexualiza a los ni\u00f1os y si el perfil, P\u00e1gina, Grupo o cuenta asociados deben eliminarse. Actualizaci\u00f3n de nuestras herramientas de reportes Despu\u00e9s de consultar con organizaciones y expertos en seguridad infantil, facilitamos la denuncia de contenido que infringe nuestras pol\u00edticas de explotaci\u00f3n infantil. Para hacer esto, agregamos la opci\u00f3n de elegir \u00abinvolucra a un ni\u00f1o\u00bb en la categor\u00eda \u00abDesnudos y actividad sexual\u00bb en los reportes de Facebook e Instagram. Estos informes se priorizar\u00e1n para su revisi\u00f3n. Tambi\u00e9n comenzamos a utilizar la API de seguridad de contenido de Google para ayudarnos a priorizar mejor el contenido que puede contener explotaci\u00f3n infantil para que lo eval\u00faen nuestros revisores de contenido. Para obtener m\u00e1s informaci\u00f3n sobre nuestros esfuerzos continuos para proteger a los ni\u00f1os en los espacios p\u00fablicos y privados en nuestras aplicaciones, visita: facebook.com\/safety\/onlinechildprotection","og_url":"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/","og_site_name":"Acerca de Meta","article_published_time":"2021-02-23T20:27:24+00:00","og_image":[{"width":1024,"height":577,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/02\/NRP-Child_Safety_Bundle_Announcement_banner.jpg?resize=1024,577","type":"image\/jpeg"}],"author":"eortiz","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"4 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/"},"author":"Facebook company","headline":"Prevenimos la explotaci\u00f3n infantil en nuestras aplicaciones","datePublished":"2021-02-23T20:27:24+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/"},"wordCount":983,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/02\/NRP-Child_Safety_Bundle_Announcement_banner.jpg?fit=2670%2C1504","articleSection":["Integridad &amp; Seguridad","Meta","Noticias de Productos","Pol\u00edtica P\u00fablica","Seguridad &amp; Expresi\u00f3n"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/","url":"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/","name":"Prevenimos la explotaci\u00f3n infantil en nuestras aplicaciones | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/02\/NRP-Child_Safety_Bundle_Announcement_banner.jpg?fit=2670%2C1504","datePublished":"2021-02-23T20:27:24+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/02\/NRP-Child_Safety_Bundle_Announcement_banner.jpg?fit=2670%2C1504","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/02\/NRP-Child_Safety_Bundle_Announcement_banner.jpg?fit=2670%2C1504","width":2670,"height":1504},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/02\/prevenimos-la-explotacion-infantil-en-nuestras-aplicaciones\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Prevenimos la explotaci\u00f3n infantil en nuestras aplicaciones"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/02\/NRP-Child_Safety_Bundle_Announcement_banner.jpg?fit=2670%2C1504","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/22531","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/164097140"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=22531"}],"version-history":[{"count":9,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/22531\/revisions"}],"predecessor-version":[{"id":22541,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/22531\/revisions\/22541"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media\/22532"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=22531"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=22531"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=22531"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}