Por Alex Schultz, Vicepresidente de Analítica
Una medición correcta ayuda a las organizaciones a tomar decisiones inteligentes en lugar de basarse simplemente en cuestiones anecdóticas o en la intuición. Parafraseando al conocido consultor de gestión Peter Drucker: lo que se mide, puede mejorarse. Es un axioma con el que guía nuestro trabajo cuando se trata de la seguridad en Facebook.
Construimos Facebook para que sea un lugar donde las personas puedan discutir abiertamente diferentes ideas, incluso aquellas que puedan ser consideradas polémicas u ofensivas. Pero también queremos asegurarnos de que nuestro servicio sea seguro para todos. Algunas veces es un equilibrio difícil de conseguir. El mes pasado, publicamos por primera vez las orientaciones que nuestro equipo de revisión usa para decidir qué puede ser publicado en Facebook y qué no. Y hoy, también por primera vez, estamos compartiendo los datos que usamos internamente para medir nuestra efectividad en el cumplimiento de estos estándares. Es un trabajo en constante evolución y es probable que cambiemos nuestra metodología a medida que aprendamos más sobre lo que es importante y lo que funciona mejor.
El informe que estamos publicando hoy brinda una descripción detallada de nuestros procesos internos y metodología de datos. Es un intento por dar a conocer cómo trabaja Facebook para eliminar el contenido inapropiado de nuestro sitio, para que ustedes puedan sacar sus propias conclusiones. Y está diseñado para facilitar que académicos, legisladores y grupos de nuestra comunidad nos den su opinión para que podamos mejorar con el tiempo.
No podemos cambiar el hecho de que la gente siempre intentará publicar contenido inapropiado en Facebook, ya sea que se trate de discursos de odio, propaganda terrorista o imágenes de explotación infantil. Pero podemos tratar de controlar cuántas veces es visto el contenido que infringe nuestras Normas Comunitarias. Como jefe de análisis de datos, dirijo el equipo que es responsable por medir nuestro trabajo en esta área, para que la compañía pueda comprender mejor qué tan efectivos somos en hacer cumplir nuestras políticas.
Impacto total
La medida más importante que utilizamos es impacto: el daño que ocasiona cualquier contenido inapropiado cuando es publicado en Facebook. Nuestra fórmula para abordar eso es bastante simple. Medimos con qué frecuencia es visto el contenido («visualizaciones») y qué tan grave es el impacto que tienen, tanto individualmente como en la comunidad en general:
Impacto total = visualizaciones de contenido inapropiado x impacto de contenido inapropiado por visualización
Las visualizaciones son relativamente fáciles de contar. Simplemente medimos la cantidad de veces que las personas ven algo. Pero es mucho más difícil medir el impacto con precisión. Por ejemplo, ¿Qué tan negativo es el impacto sobre alguien que ve un discurso de odio, en comparación con alguien que ve violencia gráfica? ¿Y cuál es la diferencia porcentual? ¿Cómo se compara la gravedad de la propaganda terrorista con las imágenes de niños sexualmente abusados?
La respuesta es que no podemos comparar numéricamente su impacto. Pero lo que sí podemos hacer es categorizar y priorizar los diferentes tipos de daños que ocasionan. Probablemente estés pensando que va a ser subjetivo. Y tienes razón, hay un elemento de subjetividad involucrado en cómo hacemos esto. Pero la priorización nos ayuda a dedicar recursos más rápidamente al contenido que consideramos más inminentemente peligroso.
Por ejemplo: supongamos que alguien publica una imagen desnuda en Facebook. Eso va en contra de nuestras políticas y trabajaríamos para eliminarlo. De hecho, nuestros filtros para detectar desnudos son actualmente muy efectivos. Pero supongamos que esa imagen fue publicada por un hombre que busca vengarse de la mujer que rompió con él. En ese caso consideraríamos que la imagen tendría un mayor impacto negativo y la escalaríamos en nuestra lista de retiros, algo similar a cómo funciona la priorización de casos en una sala de emergencias. Cada paciente importa, pero los casos más críticos tienen prioridad.
¿Con qué frecuencia se ve contenido inapropiado en Facebook?
Dentro de cada categoría específica de abuso, ya sean cuentas falsas, incitación al odio, desnudez, etc, nos interesa saber con qué frecuencia el contenido que infringe nuestras normas es realmente visto, en relación con la cantidad total de veces que se ve cualquier otro material en Facebook. Esto es lo que llamamos prevalencia. Es una medida de la frecuencia con que se ve algo y no de cuánto tiempo permanece activo en Facebook. Si se ve un discurso de odio un millón de veces en 10 minutos, es mucho peor que una pieza vista 10 veces en 30 minutos.
Para calcular esa métrica tomamos una muestra de contenido en Facebook y determinamos qué proporción de ese tipo de contenido no debería estar presente en la plataforma. Puedes encontrar más información sobre esto en nuestra guía sobre estos datos. Como estamos buscando la prevalencia nos enfocamos en la cantidad de contenido que se ve, no en cuánto contenido infringe nuestras normas. En otras palabras, no tratamos todo el contenido por igual: esto significa que una publicación vista un millón de veces tiene un millón de veces más de probabilidades de ser analizada.
Algunas personas creen que debemos publicar métricas sobre cuánto tiempo le lleva a Facebook eliminar contenido como publicaciones o imágenes que violan nuestras normas. Pero no creemos que el tiempo sea la mejor medida para controlar eficazmente nuestro servicio. También es importante recordar que cometemos errores. A veces se debe a que eliminamos contenido que en realidad no viola nuestras Normas Comunitarias (los llamados falsos positivos). Otras veces es porque no eliminamos contenido que deberíamos retirar de la plataforma. Cualquier error puede dañar a personas reales y eso nos motiva a hacerlo mejor.
Facebook está haciendo una gran inversión en personal para revisar el contenido que es reportado. Pero como explicó nuestro vicepresidente Guy Rosen hace dos semanas, nuevas tecnologías como machine learning, la visión por computadora y la inteligencia artificial nos ayudan a encontrar una mayor cantidad de contenido inapropiado, de forma más rápida -mucho más rápida-, y a una escala muy superior a la humana. De hecho, la inteligencia artificial nos permite sacar contenido inapropiado de Facebook incluso antes de que sea reportado. Es por eso que ahora medimos la frecuencia con la que Facebook señala el contenido antes de que sea informado. Mejorar esa tasa a lo largo del tiempo es fundamental, pues reduce directamente el impacto negativo que el contenido inapropiado tiene sobre los usuarios de Facebook.
Encontrar el bien
Como gay, experimenté lo mejor y lo peor que nuestro servicio, y las personas que lo usan, pueden ofrecer. Facebook me ayudó a encontrar una comunidad cuando me sentía sólo y aislado. Y nuestra configuración de privacidad me ayudó a compartir cosas con mis amigos y controlar cuánto quería mostrar. Al mismo tiempo, a medida que me di a conocer en Facebook me expuse a muchos abusos que a veces me deprimieron y asustaron.
Este tipo de vivencias personales nos hacen querer asegurarnos de que las experiencias de las personas en Facebook sean positivas. Espero que este informe, el blog y la guía te muestren nuestro trabajo en ese sentido y sirvan para abrir una conversación sobre cómo podemos mejorar. Porque lo que se mide, puede mejorarse.