En enero, el Consejo Asesor de Contenido publicó las decisiones sobre su primer conjunto de casos, que aplicamos inmediatamente. El Consejo también dio a conocer recomendaciones sobre 17 áreas en las que Facebook podría mejorar su moderación de contenidos.
Además de las resoluciones vinculantes del Consejo Asesor de Contenido, estamos comprometidos a considerar sus recomendaciones y a comunicar con transparencia las medidas adoptadas. Hoy, nos comprometemos a tomar medidas para atender 11 de las recientes recomendaciones del Consejo. En algunos de estos casos, ya hemos actuado siguiendo sus sugerencias, mientras que en otros, nos comprometemos con sus recomendaciones o vamos más allá. También, estamos evaluando la viabilidad de otras cinco recomendaciones y proporcionaremos más información en el futuro.
Hay una recomendación restante con la que no estamos de acuerdo y sobre la que no tomaremos medidas, ya que sugiere suavizar la aplicación de nuestras políticas sobre desinformación alrededor de COVID-19. En consulta con las autoridades sanitarias mundiales, seguimos creyendo que nuestro enfoque de eliminar la información errónea sobre COVID-19 que puede provocar un daño inminente es el correcto durante una pandemia mundial.
Por cada recomendación, hemos emitido respuestas detalladas y seguiremos dando actualizaciones a medida que avancemos en nuestros compromisos. Algunas de las medidas que estamos adoptando son:
- Proporcionar más transparencia.
- Consolidando y aclarando las políticas de desinformación sanitaria. Como anunciamos a principios de este mes, hemos consolidado datos sobre la desinformación sanitaria en un artículo del Servicio de Ayuda, en el que ahora incluimos un enlace en las Normas Comunitarias. También, hemos aclarado nuestra política de desinformación sobre la salud como parte de una actualización más amplia alrededor de COVID-19, incluyendo la adición de más detalles sobre nuestras normas y dando ejemplos del tipo de afirmaciones falsas que eliminaremos.
- Actualizando las políticas de Instagram. Hemos actualizado la política de Instagram sobre desnudos para aclarar que aquellos que estén relacionados con la salud, están permitidos. También, llevaremos a cabo una actualización más exhaustiva para reflejar todas las políticas que aplicamos en Instagram actualmente, y daremos a las personas más información sobre la relación entre las Normas Comunitarias de Facebook y las Normas Comunitarias de Instagram.
- Lanzamiento de un Centro de Transparencia. Hemos estado trabajando en un nuevo Centro de Transparencia que esperamos lanzar en los próximos meses. Será un lugar en el que los usuarios podrán obtener más información sobre nuestras Normas Comunitarias y la forma en la que las aplicamos.
- Explicando los términos clave. Buscaremos la mejor manera de explicar los términos clave de nuestras Normas Comunitarias y de compartir más información sobre nuestra política de Personas y Organizaciones peligrosas.
- Ajustar cuidadosamente nuestro uso de la automatización.
- Mejorando la detección automatizada. Constantemente estamos mejorando nuestra tecnología de automatización y seguiremos perfeccionando nuestros modelos de aprendizaje automático para que sean mejores en la detección de los tipos de desnudos que permitimos. Esto incluye la mejora de las señales de visión por computadora, el muestreo de más datos de entrenamiento para nuestro aprendizaje automático y, cuando no estamos tan seguros de la precisión de nuestra automatización, asegurarnos de que las personas revisen el contenido.
- Explorando cuándo se debe recurrir a las personas y a la tecnología para la revisión y apelaciones. La tecnología nos permite detectar y eliminar el contenido infractor antes de que las personas lo denuncien, o incluso antes de que sea visto. Solemos hacer eliminaciones automáticas cuando son tan precisas como las realizadas por los revisores de contenidos. Seguiremos evaluando qué tipo de revisiones o apelaciones deben ser realizadas por personas y cuáles pueden ser gestionadas con seguridad por sistemas automatizados, y cuál es la mejor manera de proporcionar transparencia sobre cómo se tomaron las decisiones.
- Transparencia en torno a la automatización. Pondremos a prueba la recomendación del Consejo de informar a las personas cuando sus contenidos sean eliminados por la automatización.
- Continuar evaluando nuestras políticas sobre el COVID-19.
- Evaluando continuamente las herramientas. Seguiremos evaluando y desarrollando una serie de herramientas para hacer frente a la desinformación sanitaria, considerando las que sean menos intrusivas a la libre expresión, siempre que sea posible.
- Eliminando con base en la consulta a expertos. Seguiremos consultando a los principales expertos, incluidos a los de la Organización Mundial de la Salud y otras autoridades de salud pública, para que nos digan qué puede contribuir a un daño físico inminente.
Aplicación de las decisiones del Consejo a escala
También, iniciamos el proceso de restablecimiento de contenidos idénticos con contexto similar en los siguientes casos: Musulmanes uigures, hidroxicloroquina, azitromicina y COVID-19, y una cita nazi. Estas acciones afectarán no sólo a los contenidos publicados anteriormente en Facebook e Instagram, sino también a los futuros.
En los casos en los que el Consejo confirme nuestra decisión final, seguiremos garantizando que contenidos idénticos con un contexto similar permanezcan activos o que se bajen de acuerdo con la decisión del Consejo.
¿Qué sigue?
Cuando creamos el Consejo Asesor, esperábamos que su impacto viniera no solo de sus decisiones sobre casos individuales, sino también de recomendaciones más amplias sobre cómo podemos mejorar nuestras políticas y prácticas. Este es el comienzo de ese proceso.
El Consejo se ocupa de algunos de los problemas de moderación de contenidos más complejos a los que se enfrenta Facebook, en los que a menudo no son decisiones fáciles. Queremos que este proceso sea lo más abierto y transparente posible, por lo que estamos respondiendo a cada una de sus recomendaciones en detalle aquí.