Las personas recurren a los Grupos de Facebook para conectar con otros individuos que comparten sus intereses, pero aun si deciden hacer un grupo privado, tienen que jugar bajo las mismas reglas que todos los demás. Nuestras Normas Comunitarias aplican tanto para grupos públicos como para privados, y nuestras herramientas proactivas de detección funcionan en ambos. Esto significa que aunque un problema no sea reportado por una persona, nuestra inteligencia artificial detecta contenido potencialmente violatorio y podemos removerlo. Hoy compartimos una actualización sobre nuestro trabajo continuo para mantener a los Grupos de Facebook seguros, incluyendo una serie de cambios para reducir el contenido dañino y la desinformación.
Durante el último año, removimos cerca de 1.5 millones de piezas de contenido en grupos por violar nuestras políticas de odio organizado, 91% de las cuales detectamos de forma proactiva. También, removimos cerca de 12 millones de piezas de contenido en grupos por violar nuestras políticas de discurso de odio, 87% de las cuales detectamos de manera proactiva.
Esto es lo que hacemos con las publicaciones dentro de los grupos. Cuando se trata de grupos en sí, los eliminamos si infringen nuestras reglas de forma repetitiva o en caso de que hayan sido creados con la intención de violar nuestras normas. Durante el último año, removimos más de 1 millón de grupos por no respetar estas políticas.
Freno a las personas que rompen nuestras reglas
Estamos tomando nuevas acciones para impedir que las personas que violan nuestras Normas Comunitarias de forma repetitiva creen nuevos grupos. Nuestra política de reincidencia existente no permite que el administrador de un grupo forme otro similar al que removimos. Con esta actualización, los administradores y moderadores de grupos que han sido dados de baja por haber violado nuestras políticas no podrán crear ningún grupo nuevo en un periodo determinado de tiempo.
Asimismo, pediremos que las publicaciones de los miembros que hayan violado cualquiera de nuestras Normas Comunitarias dentro de un grupo sean aprobadas en los siguientes 30 días antes de ser mostradas. Esto evita que sus publicaciones aparezcan en el grupo y sean vistas por otros hasta que un administrador o moderador las apruebe. En caso de que los administradores o moderadores aprueben repetidamente publicaciones que violan nuestras Normas Comunitarias, eliminaremos el grupo.
Administrador activo en los Grupos
La labor de los administradores es esencial para preservar el objetivo y la cultura de sus grupos. Sin embargo, algunas veces los administradores pueden abandonarlos. Si bien nuestra detección proactiva continúa operando en estos casos, sabemos que los administradores activos pueden ayudar a mantener a la comunidad y promueven conversaciones más productivas. Por lo que ahora sugeriremos roles administrativos a los miembros que puedan estar interesados. Tomamos en cuenta una serie de factores para estas sugerencias, incluyendo si las personas tienen un historial de violaciones a nuestras Normas Comunitarias.
En las próximas semanas, empezaremos a archivar los grupos que se han quedado sin administrador por un tiempo. En el futuro, cuando un administrador elija abandonar el grupo, podrá invitar a otros miembros a convertirse en administradores. Si ninguno de los miembros invitados acepta, sugeriremos roles administrativos a otros miembros que puedan estar interesados. Si nadie acepta, archivaremos el grupo.
Remoción de Grupos de Salud de las recomendaciones
Los grupos de Facebook, incluyendo los de salud, pueden ser un espacio positivo para brindar y recibir ayuda durante circunstancias de vida difíciles. Al mismo tiempo, es crucial que las personas obtengan información sobre salud de fuentes oficiales. Para priorizar que las personas tengan acceso a información de salud precisa, ya no mostraremos los grupos de salud en las recomendaciones. Las personas podrán seguir invitando amigos a los grupos de salud o buscarlos en Facebook.
Para más información sobre los tipos de contenido que recomendamos, incluyendo grupos, puedes acceder a nuestras directrices de recomendaciones que hicimos públicas recientemente.
Política de Personas y Organizaciones Peligrosas
Este verano, continuamos tomando acciones en contra de grupos violentos. Vetamos una red antigubernamental violenta ubicada en Estados Unidos relacionada al movimiento boogaloo y eliminamos 106 de sus grupos. También, extendimos nuestra política para lidiar con organizaciones y movimientos que han demostrado representar un riesgo a la seguridad pública, como QAnon, organizaciones paramilitares ubicadas en Estados Unidos y grupos anarquistas que apoyan actos violentos en las protestas.
Ahora limitamos la difusión de estos grupos, los eliminamos de las recomendaciones, restringimos su aparición en las búsquedas y próximamente reduciremos su clasificación en la Sección de Noticias (News Feed). También, eliminamos estos grupos cuando hay conversaciones sobre posibles actos de violencia, que incluye el uso de lenguaje y símbolos encubiertos. Por ejemplo, eliminamos 790 grupos relacionados a QAnon bajo esta política.
Combate a la desinformación en los grupos
Para combatir la desinformación en Facebook, llevamos a cabo un proceso para “eliminar reducir e informar”, que se apoya en la Red Internacional de Verificadores de Datos Independientes. En el caso de los grupos de Facebook, este trabajo considera lo siguiente:
- Eliminamos grupos que comparten contenido que viola nuestras Normas Comunitarias. Si los administradores o moderadores publican o aprueban contenido que rompe nuestras reglas de forma repetida, eliminamos al grupo por completo.
- Reducimos la distribución de grupos que comparten información errónea. No recomendaremos a otros usuarios de Facebook los grupos que compartan contenido calificado como falso por verificadores de datos de forma reiterada. Todo el contenido de esos grupos aparecerá más abajo en la Sección de Noticias y limitaremos las notificaciones para que menos miembros de los grupos vean las publicaciones.
- Informamos a las personas cuando encuentran información errónea. Colocamos una etiqueta al contenido que ha sido revisado por verificadores de datos, para que las personas tengan más contexto. También notificamos a las personas antes de que compartan ese tipo de contenido y les avisamos si algo que compartieron se calificó como falso posteriormente. Los administradores también reciben una notificación cuando se publican noticias falsas en sus grupos y pueden obtener información sobre estas advertencias en la herramienta “Calidad del grupo”.
Sabemos que aún hay trabajo por hacer para proteger a los grupos de Facebook y seguiremos mejorando nuestra tecnología y políticas para garantizar que los grupos sigan siendo espacios donde las personas puedan conectar entre ellas y encontrar ayuda.