Meta

Preguntas difíciles: ¿por qué permitimos algunas publicaciones pero damos de baja a otras?

Por Monika Bickert, Vicepresidenta de Global Policy Management

Queremos que Facebook sea un lugar seguro donde las personas también puedan discutir libremente diferentes puntos de vista. Es por eso que necesitamos reglas que delimiten el camino y la aplicación consistente de las mismas. Esas reglas son conocidas como nuestras Normas Comunitarias, y hoy, por primera vez, publicamos las pautas detalladas que usan nuestros revisores para aplicarlas al contenido de nuestro sitio.

Una de las cosas más importantes que debemos tener en cuenta es el contexto. Por ejemplo, permitimos que alguien use un insulto racial de forma autorreferencial como un modo de empoderamiento, pero si ese mismo insulto fuera utilizado por otra persona en forma de ataque, lo eliminaríamos. Y para permitir un debate abierto sobre los problemas de la actualidad, hacemos excepciones sobre nuestras políticas contra el bullying cuando se trata de figuras públicas. Esto le permite criticar a funcionarios electos, celebridades, líderes empresariales y otros creadores de noticias de una manera que no le permitiríamos a un individuo particular.

A veces, usar ejemplos es la forma más sencilla de explicar por qué tomamos ciertas decisiones, por lo que mostraré varios basados en publicaciones reales. Para evitar publicar imágenes o publicaciones que violen nuestras reglas, solo usaré el contenido permitido, mientras describo el contenido que no lo es.

Discurso de odio

Nuestras Normas Comunitarias hacen una distinción importante entre enfocarse en personas y enfocarse en creencias o instituciones particulares.
Creemos que las personas deberían poder compartir sus puntos de vista y discutir ideas controversiales en Facebook. Es por eso que nuestras políticas les permiten a las personas criticar, e incluso condenar, a las instituciones religiosas o los partidos políticos. Pero trazamos la línea cuando el enfoque se traslada a individuos o grupos de personas. No permitimos ataques directos basados en lo que llamamos características protegidas: raza, origen étnico, origen nacional, afiliación religiosa, orientación sexual, sexo, género, identidad de género y discapacidad o enfermedad grave.

En este ejemplo, la imagen y el comentario sugieren que el matrimonio entre personas del mismo sexo es un pecado. Debido a que el mensaje se dirige a la institución del matrimonio igualitario, no a una persona o grupo de personas específico, lo permitimos. Si el mismo texto «pecado es pecado» se combinara con la foto de una pareja del mismo sexo, se eliminará.

No cabe duda de que la orientación sexual, las creencias políticas o la religión son a menudo asuntos claves en la propia identidad, y un ataque al grupo en general puede ser muy personal. Por lo tanto, aunque no siempre estamos de acuerdo con las opiniones expresadas, prohibir el debate sobre cuestiones de identidad e ideología reprimiría el discurso y el posible intercambio productivo de ideas.

Desnudez

La desnudez puede ser una forma poderosa de protesta, por lo que no infringe nuestra política publicar pechos desnudos en una imagen que claramente representa un acto de protesta, como en el ejemplo aquí.

También permitimos senos desnudos en otros contextos, incluidas las imágenes de la lactancia o el parto, y por motivos de salud, como la conciencia del cáncer de mama.

Pero también sabemos que las imágenes de desnudos a veces se comparten sin el consentimiento de la persona representada, incluso si la persona consintió originalmente en tomar la fotografía. Nos lo tomamos muy en serio. Debido a que la edad y el consentimiento son muy difíciles de determinar, limitamos estrictamente los tipos de imágenes de desnudos que permitimos.

Bienes Regulados

Las drogas son tratadas de manera diferente en todos los países y regiones. Establecer políticas diferentes basadas en las leyes de cada jurisdicción donde operamos simplemente no es factible. En cambio, hemos tratado de adoptar un enfoque de sentido común que creemos que está más en línea con lo que la gente considera aceptable.

No permitimos que las personas compartan fotos o videos que representen el uso de medicamentos no médicos, o que hablen sobre su propio uso o aliente a otros a usarlos. Y no permitimos la venta, el comercio o la solicitud de ninguna droga, ya sean medicamentos no médicos, medicamentos o marihuana.

Dicho esto, sabemos que compartir la batalla personal de uno con la adicción puede ser una forma poderosa de ayudar a la recuperación de uno mismo y de los demás. Por lo tanto, permitimos la discusión y la descripción de medicamentos no médicos en el contexto de testimonios de recuperación, como en este ejemplo.

Explotación Sexual

Por lo general, no permitimos descripciones o representaciones de encuentros sexuales no consensuados en Facebook.

El movimiento #MeToo, y las desgarradoras historias de acoso que fueron valientemente compartidas por personas de todo el mundo, nos llevaron a evaluar la necesidad de algunas excepciones. Este ejemplo se basa en una publicación real en la que una víctima relató haber sido abusado sexualmente siendo menor de edad. Su historia fue ampliamente compartida. Dado el contexto, y la intención de crear conciencia y dar a conocer un tema importante, decidimos hacer una excepción y permitir que esta publicación sea un contenido de interés periodístico. También permitimos que otros compartan la publicación si es para apoyar a la víctima o para condenar a su abusador. Si la publicación se compartió sin contexto o con un título neutro, lo quitamos. De más está decir que, si la misma historia fuese contada por el abusador, sería eliminada.

Individuos y Organizaciones Peligrosas

Prohibimos a los grupos terroristas y organizaciones de odio en Facebook y eliminamos cualquier contenido que los elogie, ya se a cualquiera de sus acciones o a miembros. Debido a que queremos fomentar la libre expresión y el flujo de información, permitimos publicaciones que condenan explícitamente a las organizaciones o informan sobre su actividad, como es el caso en este ejemplo con la bandera de ISIS.

Si una publicación carece de condena clara o valor de noticias, le damos de baja. Eso significa que si una persona o una página se oponen a las acciones de un grupo terrorista o de odio pero comparte una foto de ese grupo sin contexto, nuestros revisores la eliminarán. Hacemos esto porque es difícil para nosotros determinar la intención de la persona, y porque esos mensajes pueden ser fácilmente compartidos por otros para elogiar a ese grupo.

Además de nuestro equipo de revisores de contenido, usamos inteligencia artificial y aprendizaje automático para detectar y eliminar contenido terrorista. Y nos asociamos con otras compañías tecnológicas para asegurarnos de que el contenido detectado y eliminado de Facebook no aparezca en ninguna otra página de Internet.