Hoy publicamos la sexta edición de nuestro Informe de Cumplimiento de Normas Comunitarias, la primera trimestral, con estadísticas sobre la aplicación y el cumplimiento de nuestras políticas entre abril y junio de 2020. Este reporte analiza 12 políticas de Facebook y 10 de Instagram.
Debido a la pandemia por COVID-19, nuestros revisores de contenido debieron permanecer en sus hogares a partir de marzo para cuidar de su salud y mantenerse seguros, por lo que incrementamos el uso de tecnología en la revisión de las publicaciones. Desde entonces, muchos revisores han trabajado conectados desde casa y un pequeño grupo en aquellas oficinas donde es posible contar con las normas de seguridad necesarias. Continuaremos usando tecnología para priorizar el análisis de los contenidos con mayor potencial para producir daños. Este reporte muestra el impacto del COVID-19 en la moderación de contenido y revela que, pese a que la tecnología para identificar y remover publicaciones que violan nuestras normas está mejorando, en algunas áreas seguiremos dependiendo del trabajo humano para analizar contenido y ayudarnos a desarrollar nuestra tecnología.
Por ejemplo, dependemos del trabajo humano para revisar contenido relacionado al suicidio, las autolesiones y la explotación infantil, y para mejorar la tecnología que proactivamente identifica y elimina contenido idéntico o casi idéntico que viola nuestras políticas para esos casos. Con menos moderadores de contenido, actuamos sobre una cantidad inferior de piezas relacionadas al suicidio o a las autolesiones en Facebook y en Instagram, y también a la desnudez y la explotación infantil en Instagram. A pesar de esa disminución, priorizamos nuestro trabajo para poder concentrarnos y actuar sobre los casos más severos. Nuestro enfoque sigue siendo encontrar y remover este tipo de contenido conforme incrementamos la capacidad de revisión de la manera más rápida y segura posible.
El número de apelaciones incluido en este reporte también decayó porque no siempre pudimos ofrecer esa posibilidad. Le informamos a las personas acerca de este problema y, en caso de que consideraran que cometimos un error, les dimos la opción de decirnos que no concordaban con la decisión tomada. Revisamos muchas de esas instancias y restauramos el contenido cuando fue necesario. Finalmente, debido a que priorizamos la remoción de contenido dañino por sobre la medición de ciertas tareas durante este periodo, no pudimos calcular la prevalencia del contenido violento y gráfico, ni la de la desnudez en adultos y la actividad sexual. Esperamos poder compartir esas mediciones en el tercer trimestre del año, en nuestro próximo informe.
A pesar del impacto del COVID-19, las mejoras en nuestra tecnología nos permitieron actuar sobre una mayor cantidad de contenido en algunas áreas y aumentar nuestra tasa de detección proactiva en otras. La detección proactiva del discurso de odio aumentó 6 puntos en Facebook, de 89% a 95%. La cantidad de contenido sobre el que actuamos creció de 9,6 millones en el primer trimestre a 22,5 millones en el segundo. Esto se debe a que expandimos nuestra tecnología de automatización en español, árabe e indonesio y a mejoras en la de inglés durante el primer trimestre. En el segundo trimestre, el progreso realizado en nuestra capacidad de automatización nos ayudó a actuar sobre más contenido en inglés, español y birmano. En Instagram, nuestra tasa de detección proactiva de expresiones de odio aumentó en 39 puntos, de 45% a 84%, y la cantidad de contenido sobre el que tomamos medidas aumentó de 808.900 en el primer trimestre de 2020 a 3,3 millones en el segundo. Este incremento fue impulsado por la expansión de nuestras tecnologías de detección proactiva en inglés y en español.
Otra área en la que registramos un mejor desempeño debido a nuestra tecnología fue la de contenido sobre el terrorismo. Durante el segundo trimestre actuamos sobre 8,7 millones de piezas en Facebook, desde los 6,3 millones del trimestre anterior. Y gracias a las mejoras en nuestra tecnología y a la vuelta de algunos revisores de contenido, aumentamos nuestras acciones sobre contenido ligado al odio organizado en Instagram, y al acoso y la intimidación tanto en Facebook como en Instagram.
Hemos avanzado en el combate al odio en nuestras aplicaciones, pero sabemos que debemos hacer más para asegurarnos de que todos se sientan cómodos al usar nuestros servicios. Es por eso que hemos creado equipos y grupos de trabajo, como el de Equidad en Instagram y el Consejo de Productos Inclusivos en Facebook, para ayudarnos a desarrollar productos que sean deliberadamente justos e inclusivos, y es también la razón por la cual estamos lanzando un Consejo Asesor de Diversidad. Además, estamos actualizando nuestras políticas para contemplar ciertos tipos de contenido que implícitamente incluyan discurso de odio, como mostrar rostros negros o estereotipos que refieran a los judíos como controladores del mundo. También, seguimos priorizando la eliminación de contenidos que violan nuestra política contra los grupos de odio. Desde octubre de 2019, hemos realizado 14 desactivaciones estratégicas de redes para eliminar 23 organizaciones prohibidas en nuestras plataformas, más de la mitad simpatizantes de la supremacía blanca.
Queremos que las personas tengan confianza en que los números que compartimos sobre contenido dañino son precisos, y es por eso que realizaremos una auditoría independiente que comenzará en 2021, para validar las estadísticas que publicamos en nuestro Informe de cumplimiento de las Normas Comunitarias.
Mientras la pandemia del COVID-19 se desarrolla, seguiremos adaptando nuestro proceso de revisión de contenidos, trabajando para mejorar nuestra tecnología y para reintegrar más revisores a sus tareas.