Hoy publicamos la quinta edición de nuestro Informe de Cumplimiento de Normas Comunitarias, que incluye las métricas del cumplimiento de nuestras políticas entre octubre de 2019 y marzo de 2020. En los últimos años, creamos herramientas, equipos y tecnologías para ayudar a proteger elecciones de posibles interferencias externas, evitar que la desinformación se propague en nuestras aplicaciones y mantener a las personas a salvo de contenido dañino. Por esta razón, cuando comenzó la crisis generada por el COVID-19 ya contábamos con los recursos y procesos para avanzar rápidamente y continuar identificando y eliminando el contenido que violaba nuestras políticas. Cuando solicitamos a nuestros revisores de contenido que permanecieran en sus casas por el avance de la pandemia, aumentamos nuestra dependencia de estos sistemas automatizados y priorizamos el contenido más grave para que nuestros equipos lo analicen a fin de mantener nuestras aplicaciones seguras durante este período.
El informe publicado hoy incluye datos hasta marzo del 2020, por lo que no refleja el impacto total de los cambios que realizamos durante la pandemia. Podemos anticipar que veremos su incidencia en nuestro próximo informe, y posiblemente más allá, y seremos transparentes al respecto. Por ejemplo, durante las últimas siete semanas no siempre pudimos ofrecer la opción de apelar decisiones de contenido y desactivación de cuentas, por lo que esperamos que la cantidad de apelaciones sea mucho menor en nuestro próximo reporte. También priorizamos eliminar el contenido dañino en lugar de medir nuestros esfuerzos, por lo que es posible que no podamos calcular la prevalencia del contenido violatorio de nuestras políticas durante ese lapso. Lo que sí refleja el informe que publicamos hoy es el impacto de los avances que hemos logrado en la tecnología para buscar y eliminar de manera proactiva el contenido problemático.
¿Qué hay de nuevo en este Informe?
Incluímos métricas sobre 12 políticas en Facebook y 10 en Instagram. El informe introduce datos de Instagram en cuatro áreas temáticas: Discurso de Odio, Desnudez y Actividad Sexual, Contenido Violento y Gráfico, y Acoso y Hostigamiento. Por primera vez, compartimos datos sobre la cantidad de apelaciones realizadas de casos en los que hemos actuado en Instagram, y la cantidad de decisiones que revertimos en base a esas apelaciones o a problemas detectados por nosotros mismos. También hemos agregado datos sobre nuestros esfuerzos para combatir el odio organizado en Facebook e Instagram. Puedes obtener más información sobre estos esfuerzos y el progreso que hemos logrado aquí.
Nuestros progresos en la búsqueda y eliminación de contenido problemático
Hemos mejorado nuestra tecnología para detectar de manera proactiva contenido problemático, lo que nos ayudó a eliminar más elementos de este tipo de manera que sea visto por menos personas.
- En Facebook, continuamos expandiendo nuestra tecnología proactiva de detección de discurso de odio a más idiomas y mejoramos nuestros sistemas de detección existentes. Nuestra tasa de detección proactiva del discurso de odio aumentó en más de 8 puntos en los últimos dos trimestres, un aumento de 20 puntos en solo un año. Como resultado, ahora podemos encontrar más contenido y detectar casi el 90% de las publicaciones que eliminamos antes de que alguien nos lo informe. Además, gracias a otras mejoras que realizamos en nuestra tecnología de detección, duplicamos la cantidad de contenido sobre drogas que eliminamos en el cuarto trimestre de 2019, para un total de 8,8 millones de piezas.
- En Instagram, mejoramos nuestra tecnología de matching (coincidencias) de texto e imagen para encontrar con más eficiencia contenido sobre suicidio y autolesiones. Como resultado, aumentamos en un 40% la cantidad de contenido sobre el que tomamos medidas y nuestra tasa de detección proactiva creció en más de 12 puntos desde el último informe. También logramos avances en nuestro trabajo contra el acoso en línea, introduciendo nuevas herramientas para ayudar a las personas a administrar su experiencia y limitar las interacciones no deseadas. Además, hoy anunciamos nuevos controles para Instagram. Por primera vez, compartimos datos sobre la aplicación de nuestras políticas contra el bullying en Instagram, lo que revela que entre el cuarto trimestre del 2019 y el primero del 2020 actuamos sobre 1,5 millones de piezas de contenido.
- Por último, las mejoras en nuestra tecnología para encontrar y eliminar contenido similar a violaciones almacenadas en nuestras bases de datos nos ayudaron a eliminar más publicaciones sobre explotación sexual y desnudez infantil en Facebook e Instagram.
En los últimos seis meses, comenzamos a usar más herramientas tecnológicas para priorizar el contenido que nuestros equipos revisan en función de factores como su viralidad y gravedad, entre otros. A futuro, esperamos utilizar estas herramientas para poder actuar sobre contenido, incluyendo la remoción automática de publicaciones. Esto permitirá a nuestros revisores concentrarse en piezas más complejas que requieran analizar matices y contexto para poder tomar una decisión.
El Informe de Cumplimiento de Normas Comunitarias se publica junto con nuestro Informe de Transparencia semestral que refleja los pedidos de datos de usuarios solicitados por autoridades en el mundo, restricciones de contenido basado en leyes locales, eliminación de contenido debido a reclamos de propiedad intelectual, e interrupciones de Internet.
En el futuro compartiremos Informes de Cumplimiento de Normas Comunitarias trimestralmente, por lo que nuestro próximo informe se publicará en agosto.