Meta

Informe de aplicación de las normas comunitarias, agosto 2020

Hoy publicamos la sexta edición de nuestro informe de aplicación de las normas comunitarias, el primer informe trimestral que ofrece métricas sobre cómo hemos aplicado nuestras políticas desde abril de 2020 hasta junio de 2020. Este informe incluye métricas de 12 normas en Facebook y 10 en Instagram.

Debido a la pandemia de la COVID-19, en marzo enviamos a casa a nuestros revisores de contenido para proteger su salud y seguridad,  y confiamos más en la tecnología para ayudarnos a revisar el contenido. Desde entonces, hemos recuperado de nuevo a muchos revisores en remoto desde casa y, allí donde es seguro, de manera reducida en oficinas. Continuaremos usando la tecnología para priorizar la revisión de los contenidos que puedan ser más dañinos. El informe que presentamos hoy muestra el impacto de COVID-19 en nuestra revisión de contenidos y demuestra que, aunque nuestra tecnología para identificar y eliminar los contenidos violentos está mejorando, seguirá habiendo áreas en las que dependemos de la revisión humana tanto para revisar el contenido como para entrenar a la tecnología.

Por ejemplo, dependemos mucho de personas que revisan el contenido relacionado con el suicidio, autolesiones y explotación infantil,  mientras ayudan a mejorar la tecnología que encuentra y elimina proactivamente el contenido idéntico o casi idéntico que viola estas políticas. Con menos revisores de contenido, actuamos sobre menos contenidos tanto en Facebook como en Instagram relacionadas con el suicidio y las autolesiones, la desnudez infantil y la explotación sexual en Instagram. A pesar de este descenso hemos priorizado e intervenido en el contenido más dañino dentro de estas categorías. Nuestro foco sigue estando en encontrar y eliminar este contenido mientras aumentamos la capacidad de revisión de la forma más rápida y segura posible. 

La cantidad de denuncias también es mucho menor en este informe porque no siempre hemos podido ofrecerlas. Se lo comunicamos a los usuarios y si sentían que habíamos cometido un error, también les dimos la opción de decirnos que no estaban de acuerdo con nuestra decisión. Revisamos muchos de estos casos, y restauramos el contenido cuando era apropiado. Por último, debido a que hemos priorizado en la eliminación del contenido dañino frente a la medición de determinados esfuerzos, no hemos podido calcular la prevalencia de los contenidos violentos y gráficos, y la desnudez y la actividad sexual de adultos. Anticipamos que podremos compartir estas métricas para el tercer trimestre en nuestro próximo informe.

A pesar del impacto de la COVID-19, las mejoras en nuestra tecnología nos han permitido actuar sobre más contenido en algunas áreas y aumentar nuestra tasa de detección proactiva en otras. Nuestra tasa de detección proactiva de los discursos de odio en Facebook aumentó 6 puntos, de 89% a 95%. A su vez, la cantidad de contenido sobre el que tomamos medidas aumentó de 9,6 millones en el primer trimestre a 22,5 millones en el segundo. Esto se debe a que ampliamos parte de nuestra tecnología de automatización a español, árabe e indonesio y mejoramos nuestra tecnología de detección en inglés en el primer trimestre. En el segundo trimestre, las mejoras en nuestras capacidades de automatización nos ayudaron a actuar sobre más contenido en inglés, español y birmano. En Instagram, nuestra tasa de detección proactiva de discursos del odio aumentó 39 puntos, de 45% a 84% y la cantidad de contenido sobre el que tomamos medidas aumentó de 808.900 en el primer trimestre de 2020 a 3,3 millones en el segundo trimestre. Estos aumentos fueron impulsados por la ampliación de nuestras tecnologías de detección proactiva en inglés y español.

Otra de las áreas en la que hemos visto mejoras debido a nuestra tecnología ha sido en contenido relacionado con terrorismo. En Facebook, la cantidad de contenido sobre el que actuamos aumentó de 6,3 millones en el primer trimestre a 8,7 millones en el segundo. Y gracias a las mejoras en nuestra tecnología y al regreso de algunos revisores de contenido, vimos incrementos en la cantidad de contenido sobre el que tomamos medidas conectado con el odio organizado en Instagram y el acoso y la intimidación tanto en Facebook como en Instagram.

Hemos hecho progresos combatiendo el odio en nuestras apps, pero sabemos que tenemos que hacer más para asegurar que todo el mundo se sienta cómodo utilizando nuestros servicios. Por ello, hemos creado dos nuevos equipos – el equipo de igualdad de Instagram y el consejo de productos inclusivos de Facebook– para asegurar que nuestros productos son justos e inclusivos, y un consejo asesor de diversidad que se encargará de poner en valor diferentes voces y perspectivas en nuestros procesos de toma de decisiones. También hemos actualizado nuestras políticas para dar cuenta más específicamente de ciertos tipos de discursos de odio implícitos, como el contenido que representa el blackface o estereotipos que afirmen que los judíos controlan el mundo. Continuamos priorizando la eliminación de contenidos que violen nuestras políticas contra grupos que inciten al odio. Desde octubre de 2019, hemos llevado a cabo 14 disrupciones de redes estratégicas para eliminar 23 organizaciones prohibidas diferentes, más de la mitad de las cuales apoyaban la supremacía blanca.

Queremos que las personas confíen en que los números que comunicamos sobre el contenido perjudicial son exactos, por lo que nos someteremos a una auditoría independiente de terceros a partir de 2021 para validar los números que publicamos en nuestro informe de aplicación de las normas comunitarias. 

A medida que la pandemia de la COVID-19 evoluciona, seguiremos adaptando nuestro proceso de revisión de contenidos y trabajando para mejorar nuestra tecnología y sumar más revisores de contenido.