Meta

Facebook publica sus estadísticas sobre el cumplimiento de las Normas comunitarias por primera vez

A menudo nos preguntan cómo decidimos qué está permitido en Facebook y cuánto contenido inapropiado existe. Durante años, las Normas comunitarias, en las que se explica qué contenido está permitido y cuál no, nos han ayudado a responder a la primera pregunta. Hace tres semanas publicamos por primera vez las directrices internas que utilizamos para garantizar que se cumplan dichas normas y hoy presentamos nuestro Informe de cumplimiento de las Normas comunitarias, en el que se incluyen distintas estadísticas con el fin de que todo el mundo pueda juzgar nuestro rendimiento por sí mismo.

En esta publicación de la serie “Preguntas comprometidas» y en la guía para comprender el informe de cumplimiento de las Normas comunitarias, Alex Schultz, vicepresidente de análisis de datos, explica con más detalle nuestra forma de medir exactamente qué ocurre en Facebook. Sin embargo, es importante recalcar que todavía estamos trabajando en estos procesos y que probablemente iremos cambiando nuestra metodología a medida que vayamos descubriendo qué es lo más relevante y qué proporciona mejores resultados.

En este informe explicamos nuestros esfuerzos para garantizar el cumplimiento de las normas entre octubre de 2017 y marzo de 2018. En él se analizan seis temas: violencia gráfica, desnudos de adultos y actividad sexual, propaganda terrorista, lenguaje que incita al odio, spam y cuentas falsas. Las estadísticas proporcionan información sobre los siguientes aspectos:

La mayoría de las acciones que llevamos a cabo para eliminar el contenido inapropiado están relacionadas con las cuentas falsas y la gran cantidad de spam que generan. Por ejemplo:

En relación con otros tipos de contenido que infringen las normas:

Tal y como afirmó Mark durante la Conferencia F8, todavía nos queda mucho trabajo por hacer para evitar las situaciones de abuso. Parte del motivo se debe a que las tecnologías como la inteligencia artificial, si bien son prometedoras, todavía están muy lejos de ser efectivas para la mayoría de los casos de contenido inapropiado, porque el contexto juega un papel muy importante. Por ejemplo, la inteligencia artificial todavía no puede concretar si alguien está incitando al odio o está describiendo una situación que le ha ocurrido para dar a conocer un problema. Además, tal y como expliqué la semana pasada, la tecnología necesita una gran cantidad de datos para asimilar y reconocer patrones significativos de comportamiento, pero normalmente no disponemos de ellos en el caso de idiomas menos usados o de situaciones que no suelen denunciarse. Asimismo, en muchos aspectos (ya sea spam, pornografía o cuentas falsas), nos enfrentamos a unos adversarios muy sofisticados que cambian de método constantemente para eludir nuestros controles, así que debemos desarrollar y adaptar nuestras estrategias de forma continua. Es por este motivo que invertimos enormemente en disponer de más personal y de una tecnología mejor para hacer que Facebook sea un lugar seguro para todos.

Esta también es la razón por la que publicamos esta información. Creemos que, si fomentamos la transparencia, con el tiempo también se promoverá la responsabilidad. Además, la publicación de esta información nos hará mejorar de forma más rápida. Estos son los mismos datos que utilizamos para medir nuestro progreso de forma interna. Ahora todo el mundo puede verlos para juzgar nuestro progreso por sí mismo. Esperamos vuestros comentarios.