Meta

Nuestro enfoque para combatir el bullying y el acoso

Como una compañía de tecnología social, ayudar a las personas a sentirse seguras para conectar e interactuar con otros es parte central de nuestro trabajo. Pero, una forma de abuso que desafortunadamente siempre ha existido cuando las personas interactúan entre ellas es el bullying y el acoso. Si bien este reto no es exclusivo de las redes sociales, usamos nuevas tecnologías para reducir este contenido en nuestras plataformas, damos a las personas herramientas para auto protegerse y medimos nuestros avances. Así es como lo abordamos. 

¿Cómo definimos el bullying y el acoso?

Cuando se trata de bullying y acoso, el contexto y la intención importan. El bullying y el acoso a menudo son muy personales, se manifiestan en diferentes formas para distintas personas, desde amenazas por publicar información de identificación personal hasta contacto recurrente y no solicitado. Nuestra política de bullying y acoso prohíbe este tipo de contenido y comportamiento. Nuestra política también distingue entre figuras públicas e individuos privados, ya que queremos permitir las conversaciones libres y abiertas sobre las primeras. Permitimos más comentarios críticos sobre figuras públicas que con individuos privados, pero cualquier contenido debe de permanecer dentro de los límites que establecen nuestras Normas Comunitarias

¿Qué quieren decir nuestras métricas sobre bullying y acoso?

Hemos desarrollado sistemas de Inteligencia Artificial que pueden identificar muchos tipos de bullying y acoso en nuestras plataformas. Sin embargo, el bullying y acoso es una problemática única ya que para determinar el daño a menudo se requiere de contexto, incluyendo reportes de quienes pueden experimentar este comportamiento. Algunas veces puede ser difícil para nuestros sistemas diferenciar entre un comentario de bullying y una broma sin conocer a las personas involucradas o los detalles de la situación. Por ejemplo, una amiga publicando «Hola, zorra» a otra amiga en su perfil puede no ser percibido como bullying entre ellas. Por otra parte, alguien publicando lo mismo en la Página de otra persona cuando ambas no son amigas cercanas o diversas personas publicando «hola, zorra» en la Página de esa persona puede ser dañino. Los términos derogatorios relacionados a la actividad sexual, como «zorra», infringen nuestras Normas Comunitarias contra bullying y acoso, porque queremos garantizar una base de seguridad para todos los miembros de nuestra comunidad, sin importar la intención.

Como resultado, detectar ese tipo de bullying puede ser más retador que con cualquier otro tipo de infracciones. Si bien siempre estamos trabajando para mejorar nuestra tecnología, nuestras métricas, en particular las de tasa proactiva y prevalencia reflejan la realidad de tener que depender de los reportes de nuestra comunidad. 

En el tercer trimestre del año, la prevalencia del bullying y acoso fue de 0,14-0,15% en Facebook y 0,05-0,06% en Instagram. Esto quiere decir que el bullying y el acoso fueron vistos entre 14 y 15 veces por cada 10.000 visualizaciones de contenido en Facebook y entre 5 y 6 veces por cada 10.000 visualizaciones de contenido en Instagram. Esta métrica solo refleja el bullying y el acoso que no necesita más información adicional, como reportes de la persona que lo está experimentando, para determinar si infringe nuestras políticas. Adicionalmente, eliminamos 9,2 millones de piezas de contenido en Facebook, 59,4% de forma proactiva. En Instagram eliminamos 7,8 millones de piezas de contenido, 83,2% de forma proactiva. 

¿Cómo planeamos reducir el bullying y el acoso?

Las métricas de prevalencia nos permiten rastrear, interna y externamente, qué tanto contenido infractor ven las personas en nuestras aplicaciones. A su vez, la prevalencia nos ayuda a determinar los enfoques correctos para reducir esta métrica, ya sea a través de la actualización de nuestras políticas o a través de productos o herramientas para nuestra comunidad. Por ejemplo, cuando publicamos la prevalencia de discurso de odio por primera vez, era de entre 0,10-0,11% y hoy es de 0,03%. Este año hemos actualizado nuestra tecnología de Inteligencia Artificial para capacitarnos en tres violaciones diferentes que están relacionadas: bullying y acoso, discurso de odio y violencia e incitación. También implementamos varios enfoques para reducir la prevalencia de contenido infractor, como: eliminar cuentas, páginas, grupos y eventos por infringir nuestras Normas Comunitarias; filtrar Grupos, Páginas y contenido problemáticos de las recomendaciones en nuestros servicios; o reducir la distribución de contenido que probablemente infrinja los límites de nuestras Normas Comunitarias. 

Para reducir la prevalencia del bullying  y acoso en nuestras plataformas, utilizamos tácticas que son específicas de la naturaleza única de este tipo de infracción, y algunas otras que son resultado de nuestros aprendizajes en otras políticas. Conforme seguimos estudiando la prevalencia, esperamos realizar mejoras continuas en nuestras normas y herramientas de bullying y acoso para identificar y actuar sobre este tipo de contenido. Por ejemplo, recientemente actualizamos nuestras políticas para aumentar nuestras acciones contra el contenido y el comportamiento dañinos tanto para individuos privados como para figuras públicas. Estas actualizaciones son resultado de años de conversaciones con defensores de la libertad de expresión, expertos en derechos humanos, grupos de seguridad de mujeres, caricaturistas y satíricos, mujeres políticas y periodistas, representantes de la comunidad LGBTQ+, creadores de contenido y otros tipos de figuras públicas.

Estamos trabajando arduamente para reducir este tipo de contenido en nuestras plataformas, pero también queremos equipar a nuestra comunidad con herramientas para protegerse del contenido potencialmente ofensivo como lo consideren mejor.

Recientemente agregamos pantallas de advertencia en Facebook e Instagram para educar y disuadir a las personas de publicar o comentar de maneras que podrían ser consideradas bullying y acoso. En Instagram, aproximadamente 50% de las veces los usuarios editaron o eliminaron los comentarios tras estas advertencias. Hemos realizado inversiones en nuestras herramientas de bullying y acoso en Instagram, trabajando para reducir la cantidad de veces que este tipo de contenido es visto especialmente por nuestra base de usuarios más jóvenes. 

Tenemos una serie de recursos con más información sobre el trabajo que llevamos a cabo para prevenir el bullying y el acoso en nuestra plataforma, incluyendo nuestro el Centro de Prevención del Bullying en nuestro Centro de Seguridad, un recurso para adolescentes, padres y educadores que buscan apoyo y ayuda para problemas relacionados con el bullying y otros conflictos.