Meta

Nuestro enfoque para combatir el bullying y el acoso

Por Antigone Davis, directora global de Seguridad y Amit Bhattacharyya, director de Gestión de Producto
  • Por primera vez estamos agregando la prevalencia del bullying y acoso a nuestro Informe de Cumplimiento de nuestras Normas Comunitarias. 
  • El bullying y acoso es un reto único y uno de los problemas más complejos de atender, debido a que el contexto es fundamental. Trabajamos arduamente para aplicar nuestras políticas contra este tipo de contenido y equipando a nuestra comunidad con herramientas para que se protejan de la forma que consideren mejor. 
  • La prevalencia a lo largo del tiempo muestra qué tan efectivos somos para reducir este problema en nuestras aplicaciones y nos brinda un punto de referencia para trabajar. 

Como una compañía de tecnología social, ayudar a las personas a sentirse seguras para conectar e interactuar con otros es parte central de nuestro trabajo. Pero, una forma de abuso que desafortunadamente siempre ha existido cuando las personas interactúan entre ellas es el bullying y el acoso. Si bien este reto no es exclusivo de las redes sociales, usamos nuevas tecnologías para reducir este contenido en nuestras plataformas, damos a las personas herramientas para auto protegerse y medimos nuestros avances. Así es como lo abordamos. 

¿Cómo definimos el bullying y el acoso?

Cuando se trata de bullying y acoso, el contexto y la intención importan. El bullying y el acoso a menudo son muy personales, se manifiestan en diferentes formas para distintas personas, desde amenazas por publicar información de identificación personal hasta contacto recurrente y no solicitado. Nuestra política de bullying y acoso prohíbe este tipo de contenido y comportamiento. Nuestra política también distingue entre figuras públicas e individuos privados, ya que queremos permitir las conversaciones libres y abiertas sobre las primeras. Permitimos más comentarios críticos sobre figuras públicas que con individuos privados, pero cualquier contenido debe de permanecer dentro de los límites que establecen nuestras Normas Comunitarias

¿Qué quieren decir nuestras métricas sobre bullying y acoso?

Hemos desarrollado sistemas de Inteligencia Artificial que pueden identificar muchos tipos de bullying y acoso en nuestras plataformas. Sin embargo, el bullying y acoso es una problemática única ya que para determinar el daño a menudo se requiere de contexto, incluyendo reportes de quienes pueden experimentar este comportamiento. Algunas veces puede ser difícil para nuestros sistemas diferenciar entre un comentario de bullying y una broma sin conocer a las personas involucradas o los detalles de la situación. Por ejemplo, una amiga publicando «Hola, zorra» a otra amiga en su perfil puede no ser percibido como bullying entre ellas. Por otra parte, alguien publicando lo mismo en la Página de otra persona cuando ambas no son amigas cercanas o diversas personas publicando «hola, zorra» en la Página de esa persona puede ser dañino. Los términos derogatorios relacionados a la actividad sexual, como «zorra», infringen nuestras Normas Comunitarias contra bullying y acoso, porque queremos garantizar una base de seguridad para todos los miembros de nuestra comunidad, sin importar la intención.

Como resultado, detectar ese tipo de bullying puede ser más retador que con cualquier otro tipo de infracciones. Si bien siempre estamos trabajando para mejorar nuestra tecnología, nuestras métricas, en particular las de tasa proactiva y prevalencia reflejan la realidad de tener que depender de los reportes de nuestra comunidad. 

En el tercer trimestre del año, la prevalencia del bullying y acoso fue de 0,14-0,15% en Facebook y 0,05-0,06% en Instagram. Esto quiere decir que el bullying y el acoso fueron vistos entre 14 y 15 veces por cada 10.000 visualizaciones de contenido en Facebook y entre 5 y 6 veces por cada 10.000 visualizaciones de contenido en Instagram. Esta métrica solo refleja el bullying y el acoso que no necesita más información adicional, como reportes de la persona que lo está experimentando, para determinar si infringe nuestras políticas. Adicionalmente, eliminamos 9,2 millones de piezas de contenido en Facebook, 59,4% de forma proactiva. En Instagram eliminamos 7,8 millones de piezas de contenido, 83,2% de forma proactiva. 

¿Cómo planeamos reducir el bullying y el acoso?

Las métricas de prevalencia nos permiten rastrear, interna y externamente, qué tanto contenido infractor ven las personas en nuestras aplicaciones. A su vez, la prevalencia nos ayuda a determinar los enfoques correctos para reducir esta métrica, ya sea a través de la actualización de nuestras políticas o a través de productos o herramientas para nuestra comunidad. Por ejemplo, cuando publicamos la prevalencia de discurso de odio por primera vez, era de entre 0,10-0,11% y hoy es de 0,03%. Este año hemos actualizado nuestra tecnología de Inteligencia Artificial para capacitarnos en tres violaciones diferentes que están relacionadas: bullying y acoso, discurso de odio y violencia e incitación. También implementamos varios enfoques para reducir la prevalencia de contenido infractor, como: eliminar cuentas, páginas, grupos y eventos por infringir nuestras Normas Comunitarias; filtrar Grupos, Páginas y contenido problemáticos de las recomendaciones en nuestros servicios; o reducir la distribución de contenido que probablemente infrinja los límites de nuestras Normas Comunitarias. 

Para reducir la prevalencia del bullying  y acoso en nuestras plataformas, utilizamos tácticas que son específicas de la naturaleza única de este tipo de infracción, y algunas otras que son resultado de nuestros aprendizajes en otras políticas. Conforme seguimos estudiando la prevalencia, esperamos realizar mejoras continuas en nuestras normas y herramientas de bullying y acoso para identificar y actuar sobre este tipo de contenido. Por ejemplo, recientemente actualizamos nuestras políticas para aumentar nuestras acciones contra el contenido y el comportamiento dañinos tanto para individuos privados como para figuras públicas. Estas actualizaciones son resultado de años de conversaciones con defensores de la libertad de expresión, expertos en derechos humanos, grupos de seguridad de mujeres, caricaturistas y satíricos, mujeres políticas y periodistas, representantes de la comunidad LGBTQ+, creadores de contenido y otros tipos de figuras públicas.

  • Para proteger a las personas del acoso masivo y la intimidación sin penalizar a las personas que participan en formas legítimas de comunicación, actualizamos nuestra política para eliminar cierto contenido y cuentas vinculadas a este comportamiento. Para aplicar estas normas, solicitaremos información o contexto adicional. Por ejemplo, un grupo patrocinado por el estado en un régimen autoritario que utiliza grupos privados cerrados para coordinar la publicación masiva de perfiles disidentes ahora se impondría bajo esta norma.
  • Hemos ampliado nuestras protecciones para las figuras públicas para incluir la eliminación de los ataques degradantes y sexualizantes. Por ejemplo, las caricaturas pornográficas basadas en mujeres funcionarias electas serían eliminadas por violar esta nueva política.
  • Reconociendo que no todos en el ojo público eligen convertirse en una figura pública y, sin embargo, pueden ser víctimas de acoso e intimidación significativos, hemos aumentado las protecciones para figuras públicas involuntarias como los defensores de los derechos humanos y los periodistas. Por ejemplo, el contenido que se burla del ciclo menstrual de una mujer periodista violaría nuestras políticas y actuaríamos sobre este. 

Estamos trabajando arduamente para reducir este tipo de contenido en nuestras plataformas, pero también queremos equipar a nuestra comunidad con herramientas para protegerse del contenido potencialmente ofensivo como lo consideren mejor.

  • Herramientas como dejar de ser amigo de alguien, dejar de seguir y bloquear cuentas pueden ayudar a desconectar inmediatamente a las personas de quienes pueden estar acosándolas.
  • Las funciones como los controles de ignorar y comentar pueden limitar la cantidad de contenido no deseado visto, mientras que Restringir en Instagram permite a las personas evitar que los acosadores vean e interactúen con el contenido de alguien, sin que el acosador se dé cuenta.
  • Las personas también pueden controlar quién las etiqueta o las menciona en el contenido.
  • Los límites en Instagram también permiten que las personas oculten automáticamente los comentarios y las solicitudes de mensajes directos de las personas que no las siguen o que las han seguido recientemente.
  • Las personas también pueden reportar fácilmente publicaciones, comentarios y mensajes para que nuestros equipos puedan revisar y tomar las medidas necesarias.

Recientemente agregamos pantallas de advertencia en Facebook e Instagram para educar y disuadir a las personas de publicar o comentar de maneras que podrían ser consideradas bullying y acoso. En Instagram, aproximadamente 50% de las veces los usuarios editaron o eliminaron los comentarios tras estas advertencias. Hemos realizado inversiones en nuestras herramientas de bullying y acoso en Instagram, trabajando para reducir la cantidad de veces que este tipo de contenido es visto especialmente por nuestra base de usuarios más jóvenes. 

Tenemos una serie de recursos con más información sobre el trabajo que llevamos a cabo para prevenir el bullying y el acoso en nuestra plataforma, incluyendo nuestro el Centro de Prevención del Bullying en nuestro Centro de Seguridad, un recurso para adolescentes, padres y educadores que buscan apoyo y ayuda para problemas relacionados con el bullying y otros conflictos.



Utilizamos cookies para personalizar contenido, adaptar y medir los anuncios, y proporcionar una experiencia más segura. Al hacer clic o navegar en el sitio, aceptas que recopilemos información dentro y fuera de Facebook mediante cookies. Consulta más información, incluida información relativa a los controles disponibles en: Política de cookies