El Consejo Asesor de Contenido determinó el mes pasado mantener la decisión de Facebook de suspender las cuentas del ex presidente estadounidense Donald Trump en Facebook e Instagram, después que este elogiara a las personas que participaron en actos de violencia el 6 de enero en el Capitolio, en Washington. Al hacerlo, el Consejo se refirió a la naturaleza abierta de la suspensión, declarando que «no era apropiado que Facebook impusiera una penalidad indeterminada y fuera de los estándares como una suspensión indefinida». El Consejo nos instruyó a revisar la decisión y responder de forma clara y proporcional, e hizo una serie de recomendaciones sobre cómo mejorar nuestras políticas y procesos.
Hoy estamos anunciando nuevos protocolos de aplicación de nuestras políticas para casos excepcionales como este y estamos confirmando el plazo de la penalidad, consistente con los protocolos que estamos aplicando a las cuentas de Trump. Dada la gravedad de las circunstancias que llevaron a la suspensión de Trump, creemos que sus acciones constituyen una severa violación de nuestras reglas que amerita la sanción más dura disponible en nuestros nuevos protocolos. Estamos suspendiendo sus cuentas por dos años a partir del 7 de enero, la fecha en que fue tomada la medida original.
Al final de ese período buscaremos a expertos que analizarán si el riesgo para la seguridad pública disminuyó. Evaluaremos factores externos, incluyendo instancias de violencia, restricciones a la reunión pacífica y otros indicadores de disturbios sociales. Si determinamos que existe todavía un serio riesgo para la seguridad pública, extenderemos la restricción por un período de tiempo determinado y continuaremos revaluando hasta que ese riesgo haya disminuido.
En caso de que la suspensión fuese eventualmente levantada y Trump cometiera nuevas violaciones, una serie de estrictas sanciones escalables serían accionadas, incluyendo la posible remoción permanente de sus Páginas y cuentas.
Al establecer la sanción de dos años para violaciones severas, consideramos la necesidad de contar con una penalidad que sea lo suficientemente larga como para garantizar un período seguro tras los actos de incitación, y evitar que Trump, u otras personas, cometan ese tipo de infracciones en el futuro, al tiempo que procuramos que la sanción fuera proporcional a la gravedad de las violaciones en sí mismas.
Agradecemos que el Consejo Asesor reconociera que nuestra decisión original de suspender a Trump fue correcta y necesaria, en las circunstancias excepcionales de aquel momento. Pero aceptamos absolutamente que no contábamos con protocolos de aplicación adecuados para responder a eventos tan excepcionales. Ahora que los tenemos, esperamos que solo sean aplicables en las circunstancias más excepcionales.
Sabemos que cualquier penalidad que apliquemos -o decidamos no aplicar- será controvertida. Hay muchas personas que creen que no fue apropiado que una empresa privada como Facebook suspenda a un presidente saliente, y muchos otros que creen que Trump debería haber sido inmediatamente prohibido de por vida. Sabemos que la decisión de hoy será criticada por muchas personas en lados opuestos de la política, pero nuestro trabajo es tomar una decisión que sea lo más proporcional, justa y transparente posible, siguiendo las instrucciones que nos dio el Consejo Asesor.
Por supuesto que esta penalidad solo se aplica a nuestros servicios – Trump es y continuará siendo libre de expresarse públicamente por otros medios. Nuestro enfoque refleja la forma en que intentamos equilibrar los valores de la libertad de expresión y seguridad en nuestros servicios para todos los usuarios, como establecen nuestras Normas Comunitarias. Otras compañías de redes sociales han adoptado diferentes medidas, prohibiendo a Trump de sus servicios de forma permanente o confirmando que podrá volver a usar sus servicios cuando las condiciones así lo permitan.
Responsabilidad y Transparencia
La decisión del Consejo Asesor es un acto de responsabilidad. Implica un control significativo del poder de Facebook y una manera de responsabilizar con autoridad a la compañía por las decisiones que toma. El Consejo fue establecido como un órgano independiente para hacer juicios vinculantes en algunas de las decisiones más difíciles que Facebook debe tomar sobre los contenidos y realizar recomendaciones sobre cómo podemos mejorar nuestras políticas. Como lo demuestra el anuncio de hoy, tomamos estas recomendaciones seriamente y podrían tener un impacto sustancial en la composición y en la forma en que hacemos cumplir las normas de Facebook.
La respuesta que dio El Consejo a este caso confirma nuestra visión de que Facebook no debe tomar tantas decisiones sobre contenido por sí mismo. Ante la ausencia de marcos legislativos acordados por representantes responsables democráticamente, el modelo de deliberación independiente del Consejo asegura que estas determinaciones relevantes sean tomadas de la manera más transparente y juiciosa posible.
El Consejo Asesor no reemplaza a la regulación, e insistimos en nuestra propuesta de poder contar con una regulación adecuada en este campo.
También estamos comprometidos con ser más transparentes acerca de las decisiones que tomamos y cómo impactan a nuestros usuarios. Junto con una actualización de los protocolos de aplicación de nuestras normas, estamos también publicando un sistema de strikes, para que las personas puedan saber qué acciones serán aplicadas si violan nuestras políticas. Previamente en este año, lanzamos una herramienta llamada ‘estatus de las cuentas’ (‘account status’), que permite saber qué contenido fue removido, por qué y cuál fue la penalización.
En respuesta a la recomendación del Consejo Asesor, estamos aportando más información en nuestro Centro de Transparencia acerca del permiso para contenido de interés noticioso y cómo lo aplicamos. Permitimos cierto contenido por su relevancia noticiosa o su importancia para el público en general, incluso cuando pueda resultar ofensivo o violar nuestras Normas de la Comundidad. Podemos también limitar otras consecuencias de la aplicación de nuestras reglas, como por ejemplo reducir la distribución del contenido, cuando eso sea de interés público. Al tomar estas determinaciones, sin embargo, removeremos contenido si el riesgo de daño supera el interés público.
Ofrecemos la clasificación de contenido de interés noticioso a un pequeño número de publicaciones en nuestra plataforma. En adelante, comenzaremos a publicar las raras instancias en que lo aplicamos. Finalmente, al momento de evaluar el interés noticioso de un contenido, no trataremos el contenido publicado por políticos de forma diferente al contenido publicado por cualquier otra persona. Simplemente aplicaremos nuestro test de equilibrio de valor noticioso de la misma forma a todo tipo de contenido, midiendo si el valor del interés público del contenido supera el potencial riesgo de daños de no removerlo.
Junto con estos cambios, también hemos avanzado sustancialmente en responder a las otras recomendaciones sobre nuestras normas que incluyó el Consejo en su decisión. De las 19 realizadas por el Consejo, nos comprometemos a implementar 15 en forma total, una en forma parcial, al tiempo que aún estamos analizando otras dos recomendaciones y no tomaremos ninguna medida en relación a la restante. Nuestras respuestas completas están disponibles aquí.