Meta

Eliminar, reducir, informar: Los nuevos pasos para administrar contenido problemático

Por Guy Rosen, VP de Integridad y Tessa Lyons, Directora de Integridad para News Feed

Desde 2016, hemos venido utilizando una estrategia llamada “eliminar, reducir e informar” con el fin de gestionar contenido problemático en toda la familia de aplicaciones de Facebook. Esto incluye eliminar aquel contenido que viola nuestras políticas; reducir la distribución de contenido problemático que no infringe nuestras normas, e informar a las personas proporcionando un contexto adicional para que puedan elegir a qué dar click, leer o compartir.     

ELIMINAR (Leer más)

REDUCIR (Leer más)

INFORMAR (Lee más)

Facebook

Tenemos Normas Comunitarias que resumen lo que está permitido y lo que no está permitido en Facebook. Estas políticas incluyen temas relacionados con bullying, intimidación, acoso y discurso de odio. Nos encargamos de eliminar el contenido que va en contra de nuestras normas tan pronto nos damos cuenta. El año pasado publicamos nuestros lineamientos de aplicación de normas con el objetivo de facilitar el entendimiento de por qué eliminamos un determinado contenido y también implementamos un sistema para apelar nuestras decisiones  en publicaciones individuales.

Las Normas Comunitarias aplican para todas las partes de Facebook. Sin embargo, cada área plantea diferentes desafíos. Por ejemplo, durante los dos últimos años, hemos estado trabajado en algo que llamamos la Iniciativa de Comunidades Seguras, con la misión de proteger a las personas de grupos nocivos. Al utilizar una combinación de nuevas tecnologías, revisión humana y reportes de usuarios, podemos identificar y eliminar grupos nocivos, así sean públicos, cerrados o secretos. Ahora nos es posible detectar, de manera proactiva, diversos tipos de contenido violatorio de nuestras normas antes de que alguien los reporte, e incluso antes de que las personas puedan verlos.

De manera similar, Stories presenta su propio conjunto de retos en la aplicación de las normas, tanto para eliminar, como para reducir la propagación de contenido problemático. Lo efímero del formato requiere que trabajemos aún más rápido para eliminar el contenido violatorio. Las herramientas creativas que permiten a las personas agregar texto, stickers y dibujos a fotografías y videos pueden ser abusadas y utilizadas para enmascarar contenido que viola nuestras normas. Además, debido a que a las personas les gusta hilar diversas historias, debemos tener una visión holística de Stories. Si evaluamos historias individuales de forma aislada, corremos el riesgo de pasar por alto violaciones a las normas.

Además de describir este contexto e historia, hoy discutimos cómo:

Para más información sobre el trabajo de eliminación de Facebook, ve estos videos de las personas y procesos [liga a la publicación al interior del Feed con video] detrás del desarrollo de nuestras Normas comunitarias.

Facebook

Existen tipos de contenidos que son problemáticos pero que no cumplen con los criterios para ser eliminados de acuerdo con nuestras Normas comunitarias, tales como información errónea y clickbait. A menudo las personas nos hacen saber que no les gusta ver este tipo de contenido y, aunque permitamos que se publique en Facebook, queremos asegurarnos que no se distribuya ampliamente.

A lo largo de los dos últimos años, nos hemos enfocado en reducir la desinformación en Facebook. Hemos mejorado en la aplicación de nuestras normas contra las cuentas falsas y el comportamiento falso coordinado; estamos utilizando tanto tecnología como personas para combatir el aumento en la desinformación basada en fotos y videos; hemos implementado nuevas medidas para ayudar a identificar noticias faltas y acceder a un mayor contexto sobre las historias que ven en la Sección de noticias; y hemos aumentado nuestro programa de verificación externa, que ahora tiene 47 organizaciones certificadas que revisan contenido en 23 idiomas.

Un panorama sobre el News Feed de Facebook:

Para obtener más información sobre cómo establecemos los objetivos de nuestra iniciativa de «reducción» en Facebook, lea esta publicación del blog.

Instagram

Discutimos acerca de Instagram y de cómo trabaja para asegurar que el contenido que recomendamos a las personas sea seguro y apropiado para la comunidad. Hemos empezado a reducir la propagación de contenido que, si bien no incumple los Lineamientos de la Comunidad de Instagram, es inapropiado. Por ejemplo, una publicación sexualmente sugestiva continuará apareciendo en la sección de noticias si tú sigues a la cuenta que realiza las publicaciones, pero este tipo de contenido no aparecerá para la comunidad en las Páginas de Explorar o Hashtag.  

Facebook

Estamos invirtiendo en funciones y productos que den a las personas más información para ayudarlos a decidir qué leer, en qué confiar y qué compartir. El año pasado, comenzamos a ofrecer más información sobre artículos en la sección de noticias, con el botón de contexto, que mostraba la entrada de Wikipedia, el tiempo de existencia del portal (un indicador útil para la credibilidad), así como dónde y con qué frecuencia había sido compartido su contenido. Ayudamos a los propietarios de Páginas a mejorar su contenido con la pestaña de Calidad de Páginas, la cual les muestra cuál de sus publicaciones fue eliminada por violar las Normas Comunitarias estaban catalogadas como “Falsas”,“Mixtas” o “Título falso” por verificadores de información.

Messenger

Características nuevas y actualizadas de privacidad y seguridad que proporcionan a las personas mayor control de su experiencia y las ayudan a mantenerse informadas.