Meta

Informe de Cumplimiento de Normas Comunitarias – Tercer trimestre de 2021

Hoy, publicamos nuestro Informe de Cumplimiento de Normas Comunitarias correspondiente al tercer trimestre de 2021. Este informe ofrece cifras sobre cómo aplicamos nuestras políticas entre julio de 2021 y septiembre de 2021. Con estas cifras adicionales, ahora estamos reportando en 14 áreas para Facebook y 12 para Instagram. 

También, compartimos: 

En julio compartimos nuestra primera actualización trimestral sobre el Consejo Asesor de Contenido, correspondiente al primer trimestre de 2021. En esta actualización reportamos los detalles de los casos que remitimos al Consejo, y las actualizaciones de nuestras respuestas al Consejo sobre las recomendaciones que hicieron junto a sus decisiones sobre los casos. En el futuro, incluiremos estas actualizaciones en el Informe de Cumplimiento de nuestras Normas Comunitarias. 

Todos estos reportes están disponibles en el Centro de Transparencia

Aspectos destacados del informe

La prevalencia del discurso de odio en Facebook ha seguido disminuyendo por cuarto trimestre consecutivo. En el tercer trimestre fue de 0,03% o 3 visualizaciones de discurso de odio por cada 10.000 visualizaciones de contenido, por debajo de 0,05%, o 5 visualizaciones de discurso de odio por cada 10.000 visualizaciones de contenido, en el segundo trimestre. Seguimos viendo una disminución en discurso de odio debido a mejoras en nuestra tecnología y cambios en la clasificación que reducen el contenido problemático en la Sección de Noticias, incluyendo a través de una mejor personalización. 

La prevalencia del discurso de odio en Instagram fue de 0,02% en el tercer trimestre y esta es la primera vez que reportamos esta cifra.

En el tercer trimestre, la prevalencia de violencia e incitación en Facebook fue de 0,04% – 0,05%, o 4 a 5 visualizaciones de este tipo de contenido por cada 10.000, y fue de 0,02%, o 2 visualizaciones de violencia e incitación por cada 10.000, en Instagram. Eliminamos 13,6 millones de piezas de contenido de Facebook por violar nuestra política contra violencia e incitación, y proactivamente detectamos 96,7% de este contenido antes de que alguien nos lo reportara. En Instagram, eliminamos 3,3 millones de piezas de este contenido, con una tasa de detección proactiva de 96,4%. Existe un tipo de contenido que podríamos eliminar según nuestra política de violencia e incitación en el cual alguien puede abogar por la violencia o ha expresado su intención de cometer violencia. Debido a la naturaleza potencialmente dañina del contenido que intenta incitar a la violencia, aumentaremos nuestras medidas de seguridad y eliminaremos este contenido aún si no es claro si se trata de una broma. Esto puede ir de algo serio como instrucciones para usar armas para causar año a una broma en la cual un amigo le dice a otro “¡te voy a matar!”. Cuando sea necesario, también trabajaremos con las autoridades cuando creamos que genuinamente existe un riesgo de daño físico o amenazas directas a la seguridad pública. 

En el tercer trimestre, la prevalencia del contenido de bullying y acoso fue de 0,14% – 0,15% o 14 a 15 visualizaciones de bullying y acoso por cada 10.000 visualizaciones de contenido en Facebook, y 0,05% – 0,06%, o 5 a 6 visualizaciones de contenido de este tipo por cada 10.000, en Instagram. Eliminamos 9,2 millones de piezas de contenido con bullying y acoso de Facebook, con una tasa proactiva de 59,4%. También, eliminamos 7,8 millones de piezas de contenido con bullying y acoso en Instagram con una tasa proactiva de 83,2%. El bullying y acoso es un reto único y uno de los problemas más complejos de atender, debido a que el contexto es fundamental. Conoce más de nuestro enfoque y esfuerzos para reducir la prevalencia del bullying y acoso

¿Cómo reducimos el contenido dañino que las personas ven en nuestras aplicaciones?

Escalamos la aplicación de nuestras políticas para revisar millones de piezas de contenido alrededor del mundo todos los días y usamos nuestra tecnología para detectar y priorizar contenido que necesita revisarse. Contamos con equipos globales de revisores que revisan contenido en más de 70 idiomas y tecnología de Inteligencia Artificial para discurso de odio en más de 50 idiomas y seguimos construyendo tecnologías como RIO, WPIE y XLM-R que nos pueden ayudar a identificar contenido dañino más rápidamente en diversos idiomas y tipos de contenido (ej. texto, imagen, etc.). Estos esfuerzos y nuestro enfoque continuo en investigación relacionada con Inteligencia Artificial ayudan a que nuestra tecnología escale de forma rápida para mantener la seguridad en nuestras plataformas. Para países que están experimentando o están en riesgo de conflicto, hemos hecho inversiones de varios años para crear equipos que trabajen con comunidades locales, desarrollar nuevas políticas, mejorar nuestras tecnologías y responder a los cambios en el mundo real. 

Reducimos la prevalencia del contenido infractor de diversas maneras, incluyendo a través de mejoras en la detección y aplicación de las políticas, reduciendo el contenido problemático en la Sección de Noticias. Estas tácticas nos han permitido reducir la prevalencia del discurso de odio a más de la mitad en Facebook, tan solo en el último año, y estamos usando esta misma estrategia en otras de nuestras políticas como violencia e incitación y bullying y acoso. Para combatir mejor el discurso de odio, el bullying y acoso y la violencia e incitación, mismas que requieren un entendimiento del idioma y contexto y normas culturales, hemos desarrollado un nuevo sistema de Inteligencia Artificial que consolida los aprendizajes de los tres para abordar mejor cada área de infracción.

También, estamos usando pantallas de alerta para educar y disuadir a la gente de publicar algo que pueda incluir discursos hostiles tales como bullying y acoso, que viola nuestras Normas Comunitarias. Las pantallas aparecen después de que alguien haya escrito una publicación o comentario y explican que el contenido puede violar nuestras políticas y puede ser escondido o se puede reducir su distribución. Publicar este contenido repetidamente puede resultar en la deshabilitación o eliminación de una cuenta. 

De cara al futuro

El abuso en nuestros productos no es algo estático y tampoco lo es nuestro trabajo en materia de integridad. Seguiremos mejorando, integrando nuestros equipos de integridad con equipos de producto en Facebook,  Instagram, WhatsApp y con los equipos que construirán el metaverso en los próximos años. Los equipos de producto abordan los problemas de integridad como parte de la creación y el lanzamiento de nuevos productos, y eso incluye la creación del metaverso.

También, seguiremos comprometidos con la investigación. Acabamos de lanzar un programa de acceso temprano de Facebook Open Research and Transparency (FORT) para una API diseñada para investigadores académicos la cual les dará más acceso a los datos en nuestras plataformas de manera segura.

Sabemos que nunca seremos perfectos en detectar cada pieza de contenido dañino. Pero, siempre estamos trabajando para mejorar, para compartir información más significativa y para seguir basando nuestras decisiones en investigaciones.