Hoy publicamos la quinta edición de nuestro Community Standards Enforcement Report, que proporciona métricas sobre la efectividad a la hora de cumplir nuestras políticas desde octubre de 2019 hasta marzo de 2020.
Hemos dedicado los últimos años a crear herramientas, equipos y tecnologías que ayuden a proteger las elecciones de las interferencias, evitar que la desinformación se propague en nuestras aplicaciones y mantener a la gente a salvo de contenidos perjudiciales. Así que cuando surgió la crisis de COVID-19, teníamos las herramientas y los procesos para avanzar rápidamente y pudimos seguir encontrando y eliminando el contenido que viola nuestras políticas. Cuando enviamos temporalmente a nuestros revisores de contenido a casa debido a la pandemia, incrementamos la dependencia respecto a estos sistemas automatizados y priorizamos que nuestros equipos revisaran el contenido de mayor gravedad para continuar manteniendo nuestras aplicaciones seguras durante este tiempo.
Este informe sólo refleja los datos hasta marzo de 2020, por lo que no refleja el impacto total de los cambios realizados durante la pandemia. Prevemos que veremos el impacto de esos cambios en nuestro próximo informe, e incluso más allá, y seremos transparentes al respecto. Por ejemplo, durante las últimas siete semanas no siempre pudimos ofrecer la opción de apelar las decisiones sobre el contenido y la eliminación de cuentas, así que esperamos que el número de apelaciones sea mucho menor en nuestro próximo informe. Además, dimos prioridad a la eliminación del contenido perjudicial frente a la de medición de nuestros resultados, por lo que es posible que no podamos calcular la prevalencia del contenido que infringe nuestras normas durante este tiempo. El informe de hoy muestra el impacto de los avances que hemos hecho respecto a la tecnología que usamos para encontrar y eliminar proactivamente el contenido abusivo.
¿Qué hay de nuevo en este informe?
Ahora incluimos mediciones en doce políticas de Facebook y en diez de Instagram. El informe presenta los datos de Instagram en cuatro áreas temáticas: discurso de odio, desnudez y actividad sexual en adultos, contenidos violentos, e intimidación y acoso. Por primera vez, también estamos compartiendo datos sobre el número de apelaciones que la gente hace sobre el contenido contra el que hemos tomado medidas en Instagram, y el número de decisiones que revocamos, ya sea en base a esas apelaciones o cuando identificamos el problema nosotros mismos. También hemos añadido datos sobre nuestros esfuerzos para combatir el odio organizado en Facebook e Instagram. Puedes encontrar más información sobre nuestros esfuerzos y el progreso que hemos hecho aquí.
Progresos en la búsqueda y eliminación de contenido abusivo
Mejoramos nuestra tecnología de detección proactiva de contenidos abusivos, lo que nos ayudó a eliminar más contenidos abusivos para que menos personas los vieran.
- En Facebook, continuamos expandiendo nuestra tecnología de detección proactiva de discurso de odio a más idiomas, y mejoramos nuestros sistemas de detección existentes. Nuestra tasa de detección proactiva de discursos de odio aumentó en más de 8 puntos en los últimos dos trimestres, alcanzando casi un aumento de 20 puntos en sólo un año. Como resultado, somos capaces de encontrar más contenido y ahora podemos detectar casi el 90% del contenido que eliminamos antes de que alguien nos lo reporte. Además, gracias a otras mejoras que hicimos a nuestra tecnología de detección, duplicamos la cantidad de contenido sobre drogas que eliminamos en el cuarto trimestre de 2019, eliminando 8,8 millones de piezas de contenido.
- En Instagram, hicimos mejoras en nuestra tecnología de concordancia de texto e imágenes para ayudarnos a detectar más contenido sobre suicidio y autolesiones. Como resultado, aumentamos un 40% la cantidad de contenido sobre el que tomamos medidas e incrementamos nuestra tasa de detección proactiva en más de 12 puntos desde el último informe. También avanzamos en nuestro trabajo contra el acoso escolar online al introducir varias funciones nuevas para ayudar a las personas a gestionar su experiencia y limitar las interacciones no deseadas, y hoy hemos anunciado nuevos controles en Instagram. Por primera vez en este informe compartimos datos acerca del cumplimiento de las normas contra el acoso en Instagram, incluyendo la toma de medidas sobre 1,5 millones de piezas de contenido tanto en el cuarto trimestre de 2019 como en el primer trimestre de 2020.
- Por último, las mejoras en nuestra tecnología para encontrar y eliminar contenidos abusivos similares a los existentes en nuestras bases de datos nos ayudaron a eliminar más contenidos sobre desnudos infantiles y explotación sexual en Facebook e Instagram.
En los últimos seis meses, hemos empezado a usar la tecnología para priorizar más el contenido que nuestros equipos revisan, basándonos en factores como la viralidad y la gravedad, entre otros. De cara al futuro, también planeamos aprovechar la tecnología para tomar medidas sobre el contenido, incluyendo la eliminación automática de más publicaciones. Esto permitirá a nuestros revisores de contenido centrar su tiempo en otros tipos de contenido donde se necesitan más matices y contexto para tomar una decisión.
El informe sobre la aplicación de nuestras normas comunitarias se publica conjuntamente con nuestro Informe de Transparencia bianual que comparte las cifras sobre las solicitudes de datos de los usuarios por parte de los gobiernos, las restricciones de contenido basadas en la legislación local, el daño a la propiedad intelectual y las interrupciones de Internet.
En el futuro compartiremos los informes sobre el cumplimiento de las normas comunitarias trimestralmente, así que nuestro próximo informe será publicado en agosto.