Meta

Prevenimos la explotación infantil en nuestras aplicaciones

Usar nuestras aplicaciones para dañar a los niños es aborrecible e inaceptable. Nuestros esfuerzos en la industria para combatir la explotación infantil se enfocan en prevenir el abuso, detectar y reportar contenido que viola nuestras políticas y trabajar con expertos y autoridades para mantener a los niños seguros.

Hoy, anunciamos nuevas herramientas que estamos probando para evitar que las personas compartan contenido que victimiza a los niños así como mejoras recientes que hemos realizado a nuestras herramientas de detección y reportes.

Enfoque en prevención

Para comprender cómo y por qué las personas comparten contenido de explotación infantil en nuestras aplicaciones, realizamos un análisis profundo del contenido que reportamos al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC por sus siglas en inglés) en octubre y noviembre de 2020. Encontramos que el 90% del contenido es el mismo, o visualmente similar, al que ya se ha reportado. Las copias de solo seis videos fueron responsables de más de la mitad del contenido de explotación infantil que reportamos en ese período de tiempo. Si bien estos datos indican que el número de piezas de contenido no es igual al número de víctimas, y que el mismo contenido, potencialmente ligeramente alterado se comparte repetidamente, una sola víctima de este horrible crimen es demasiado.

Dado que solo unas pocas piezas de contenido derivaron en muchos reportes, podemos pensar que a través de una mejor comprensión de la intención detrás de esta acción puede ayudarnos a prevenir la revictimización. Trabajamos con los principales expertos en explotación infantil, incluido el NCMEC, para desarrollar una taxonomía respaldada en investigaciones para categorizar la aparente intención de una persona de compartir este contenido. Con base en esta taxonomía, evaluamos 150 cuentas que reportamos al NCMEC por subir material de abuso sexual infantil en julio y agosto de 2020 y enero de 2021, y estimamos que más del 75% de estas no mostraron intenciones maliciosas (es decir, no tenían el propósito de dañar a un niño). Parece que fueron compartidas por otras razones, como indignación o un pésimo sentido del humor (por ejemplo, los genitales de un niño siendo mordidos por un animal). Si bien este estudio mejora nuestro entendimiento, estos hallazgos no deben considerarse como una medida precisa sobre el ecosistema de seguridad infantil. Nuestro trabajo para comprender la intención es continuo.

Con base en nuestros descubrimientos estamos desarrollando soluciones específicas, incluyendo nuevas herramientas y políticas para reducir el intercambio de este tipo de contenido. Empezamos probando dos nuevas herramientas: una dirigida a la búsqueda potencialmente maliciosa de este contenido y otra dirigida a compartir este contenido de manera no maliciosa. La primera es una ventana emergente que se muestra a las personas que buscan términos en nuestras aplicaciones asociados con la explotación infantil. La ventana emergente ofrece formas de obtener ayuda de organizaciones especializadas y brinda información sobre las consecuencias de ver contenido ilegal.

La segunda es una alerta de seguridad que informa a las personas que han compartido contenido de explotación infantil sobre el daño que puede causar y advierte que esto va en contra de nuestras políticas y que hay consecuencias legales por compartir este material. Mandamos esta alerta de seguridad al mismo tiempo que eliminamos el contenido, lo almacenamos y lo reportamos al NCMEC. Las cuentas que promuevan este contenido serán eliminadas. También, estamos utilizando esta nueva herramienta para identificar las señales de comportamiento de aquellos que podrían estar en riesgo de compartir este material, para poder orientarlos y alentarlos a no compartirlo en ninguna plataforma, pública o privada.

Mejoramos nuestras capacidades de detección

Durante años, hemos utilizado la tecnología para encontrar contenido de explotación infantil y detectar posibles interacciones inapropiadas con niños o manipulación infantil. Pero hemos ampliado nuestro trabajo para detectar y eliminar redes que violan nuestras políticas de explotación infantil, de forma similar a nuestros esfuerzos contra el comportamiento inauténtico coordinado y las organizaciones peligrosas.

Además, hemos actualizado nuestras políticas de seguridad infantil para aclarar que eliminaremos los perfiles, Páginas, Grupos y cuentas de Instagram de Facebook que se dedican a compartir imágenes de niños con leyendas, hashtags o comentarios que contengan signos inapropiados de afecto o comentarios inapropiados sobre los niños representados en la imagen. Siempre eliminamos el contenido que sexualiza explícitamente a los niños, pero el contenido que no es explícito y no representa desnudez infantil es más difícil de definir. Según esta nueva política, si bien las imágenes por sí solas pueden no infringir nuestras reglas, el texto que las acompaña puede ayudarnos a determinar mejor si el contenido sexualiza a los niños y si el perfil, Página, Grupo o cuenta asociados deben eliminarse.

Actualización de nuestras herramientas de reportes

Después de consultar con organizaciones y expertos en seguridad infantil, facilitamos la denuncia de contenido que infringe nuestras políticas de explotación infantil. Para hacer esto, agregamos la opción de elegir «involucra a un niño» en la categoría «Desnudos y actividad sexual» en los reportes de Facebook e Instagram. Estos informes se priorizarán para su revisión. También comenzamos a utilizar la API de seguridad de contenido de Google para ayudarnos a priorizar mejor el contenido que puede contener explotación infantil para que lo evalúen nuestros revisores de contenido.

Para obtener más información sobre nuestros esfuerzos continuos para proteger a los niños en los espacios públicos y privados en nuestras aplicaciones, visita: facebook.com/safety/onlinechildprotection