Meta

Informe de Cumplimiento de Normas Comunitarias

Hoy publicamos la quinta edición de nuestro Community Standards Enforcement Report, que proporciona métricas sobre la efectividad a la hora de cumplir nuestras políticas desde octubre de 2019 hasta marzo de 2020.

Hemos dedicado los últimos años a crear herramientas, equipos y tecnologías que ayuden a proteger las elecciones de las interferencias, evitar que la desinformación se propague en nuestras aplicaciones y mantener a la gente a salvo de contenidos perjudiciales. Así que cuando surgió la crisis de COVID-19, teníamos las herramientas y los procesos para avanzar rápidamente y pudimos seguir encontrando y eliminando el contenido que viola nuestras políticas. Cuando enviamos temporalmente a nuestros revisores de contenido a casa debido a la pandemia, incrementamos la dependencia respecto a estos sistemas automatizados y priorizamos que nuestros equipos revisaran el contenido de mayor gravedad para continuar manteniendo nuestras aplicaciones seguras durante este tiempo.

Este informe sólo refleja los datos hasta marzo de 2020, por lo que no refleja el impacto total de los cambios realizados durante la pandemia. Prevemos que veremos el impacto de esos cambios en nuestro próximo informe, e incluso más allá, y seremos transparentes al respecto. Por ejemplo, durante las últimas siete semanas no siempre pudimos ofrecer la opción de apelar las decisiones sobre el contenido y la eliminación de cuentas, así que esperamos que el número de apelaciones sea mucho menor en nuestro próximo informe. Además, dimos prioridad a la eliminación del contenido perjudicial frente a la de medición de nuestros resultados, por lo que es posible que no podamos calcular la prevalencia del contenido que infringe nuestras normas durante este tiempo. El informe de hoy muestra el impacto de los avances que hemos hecho respecto a la tecnología que usamos para encontrar y eliminar proactivamente el contenido abusivo.

 ¿Qué hay de nuevo en este informe?

 Ahora incluimos mediciones en doce políticas de Facebook y en diez de Instagram. El informe presenta los datos de Instagram en cuatro áreas temáticas: discurso de odio, desnudez y actividad sexual en adultos, contenidos violentos, e intimidación y acoso. Por primera vez, también estamos compartiendo datos sobre el número de apelaciones que la gente hace sobre el contenido contra el que hemos tomado medidas en Instagram, y el número de decisiones que revocamos, ya sea en base a esas apelaciones o cuando identificamos el problema nosotros mismos. También hemos añadido datos sobre nuestros esfuerzos para combatir el odio organizado en Facebook e Instagram. Puedes encontrar más información sobre nuestros esfuerzos y el progreso que hemos hecho aquí.

Progresos en la búsqueda y eliminación de contenido abusivo

Mejoramos nuestra tecnología de detección proactiva de contenidos abusivos, lo que nos ayudó a eliminar más contenidos abusivos para que menos personas los vieran.

En los últimos seis meses, hemos empezado a usar la tecnología para priorizar más el contenido que nuestros equipos revisan, basándonos en factores como la viralidad y la gravedad, entre otros. De cara al futuro, también planeamos aprovechar la tecnología para tomar medidas sobre el contenido, incluyendo la eliminación automática de más publicaciones. Esto permitirá a nuestros revisores de contenido centrar su tiempo en otros tipos de contenido donde se necesitan más matices y contexto para tomar una decisión.

El informe sobre la aplicación de nuestras normas comunitarias se publica conjuntamente con nuestro Informe de Transparencia bianual que comparte las cifras sobre las solicitudes de datos de los usuarios por parte de los gobiernos, las restricciones de contenido basadas en la legislación local, el daño a la propiedad intelectual y las interrupciones de Internet.

En el futuro compartiremos los informes sobre el cumplimiento de las normas comunitarias trimestralmente, así que nuestro próximo informe será publicado en agosto.