{"id":23614,"date":"2021-11-09T17:29:18","date_gmt":"2021-11-09T23:29:18","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=23614"},"modified":"2021-11-09T17:29:18","modified_gmt":"2021-11-09T23:29:18","slug":"nuestro-enfoque-para-combatir-el-bullying-y-el-acoso","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/","title":{"rendered":"Nuestro enfoque para combatir el bullying y el acoso"},"content":{"rendered":"<ul>\n<li style=\"font-weight: 400\"><strong>Por primera vez estamos agregando la prevalencia del bullying y acoso a nuestro Informe de Cumplimiento de nuestras Normas Comunitarias.\u00a0<\/strong><\/li>\n<li style=\"font-weight: 400\"><strong>El bullying y acoso es un reto \u00fanico y uno de los problemas m\u00e1s complejos de atender, debido a que el contexto es fundamental. Trabajamos arduamente para aplicar nuestras pol\u00edticas contra este tipo de contenido y equipando a nuestra comunidad con herramientas para que se protejan de la forma que consideren mejor.\u00a0<\/strong><\/li>\n<li style=\"font-weight: 400\"><strong>La prevalencia a lo largo del tiempo muestra qu\u00e9 tan efectivos somos para reducir este problema en nuestras aplicaciones y nos brinda un punto de referencia para trabajar.\u00a0<\/strong><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Como una compa\u00f1\u00eda de tecnolog\u00eda social, ayudar a las personas a sentirse seguras para conectar e interactuar con otros es parte central de nuestro trabajo. Pero, una forma de abuso que desafortunadamente siempre ha existido cuando las personas interact\u00faan entre ellas es el bullying y el acoso. Si bien este reto no es exclusivo de las redes sociales, usamos nuevas tecnolog\u00edas para reducir este contenido en nuestras plataformas, damos a las personas herramientas para auto protegerse y medimos nuestros avances. As\u00ed es como lo abordamos.\u00a0<\/span><\/p>\n<h3>\u00bfC\u00f3mo definimos el bullying y el acoso?<\/h3>\n<p><span style=\"font-weight: 400\">Cuando se trata de bullying y acoso, el contexto y la intenci\u00f3n importan. El bullying y el acoso a menudo son muy personales, se manifiestan en diferentes formas para distintas personas, desde amenazas por publicar informaci\u00f3n de identificaci\u00f3n personal hasta contacto recurrente y no solicitado. Nuestra <\/span><a href=\"https:\/\/transparency.fb.com\/policies\/community-standards\/bullying-harassment\/\"><span style=\"font-weight: 400\">pol\u00edtica de bullying y acoso<\/span><\/a><span style=\"font-weight: 400\"> proh\u00edbe este tipo de contenido y comportamiento. Nuestra pol\u00edtica tambi\u00e9n distingue entre figuras p\u00fablicas e individuos privados, ya que queremos permitir las conversaciones libres y abiertas sobre las primeras. Permitimos m\u00e1s comentarios cr\u00edticos sobre figuras p\u00fablicas que con individuos privados, pero cualquier contenido debe de permanecer dentro de los l\u00edmites que establecen nuestras <\/span><a href=\"https:\/\/www.facebook.com\/communitystandards\/bullying\"><span style=\"font-weight: 400\">Normas Comunitarias<\/span><\/a><span style=\"font-weight: 400\">.\u00a0<\/span><\/p>\n<h3>\u00bfQu\u00e9 quieren decir nuestras m\u00e9tricas sobre bullying y acoso?<\/h3>\n<p><span style=\"font-weight: 400\">Hemos desarrollado sistemas de Inteligencia Artificial que pueden identificar muchos tipos de bullying y acoso en nuestras plataformas. Sin embargo, el bullying y acoso es una problem\u00e1tica \u00fanica ya que para determinar el da\u00f1o a menudo se requiere de contexto, incluyendo reportes de quienes pueden experimentar este comportamiento. Algunas veces puede ser dif\u00edcil para nuestros sistemas diferenciar entre un comentario de bullying y una broma sin conocer a las personas involucradas o los detalles de la situaci\u00f3n. Por ejemplo, una amiga publicando \u00abHola, zorra\u00bb a otra amiga en su perfil puede no ser percibido como bullying entre ellas. Por otra parte, alguien publicando lo mismo en la P\u00e1gina de otra persona cuando ambas no son amigas cercanas o diversas personas publicando \u00abhola, zorra\u00bb en la P\u00e1gina de esa persona puede ser da\u00f1ino. Los t\u00e9rminos derogatorios relacionados a la actividad sexual, como \u00abzorra\u00bb, infringen nuestras <a href=\"https:\/\/transparency.fb.com\/policies\/community-standards\/bullying-harassment\/\">Normas Comunitarias<\/a> contra bullying y acoso, porque queremos garantizar una base de seguridad para todos los miembros de nuestra comunidad, sin importar la intenci\u00f3n.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Como resultado, detectar ese tipo de bullying puede ser m\u00e1s retador que con cualquier otro tipo de infracciones. Si bien siempre estamos trabajando para mejorar nuestra tecnolog\u00eda, nuestras m\u00e9tricas, en particular las de tasa proactiva y prevalencia reflejan la realidad de tener que depender de los reportes de nuestra comunidad.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">En el tercer trimestre del a\u00f1o, la <a href=\"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/informe-de-cumplimiento-de-normas-comunitarias-de-meta-tercer-trimestre-de-2021\/\">prevalencia del bullying y acoso<\/a> fue de 0,14-0,15% en Facebook y 0,05-0,06% en Instagram. Esto quiere decir que el bullying y el acoso fueron vistos entre 14 y 15 veces por cada 10.000 visualizaciones de contenido en Facebook y entre 5 y 6 veces por cada 10.000 visualizaciones de contenido en Instagram. Esta m\u00e9trica solo refleja el bullying y el acoso que no necesita m\u00e1s informaci\u00f3n adicional, como reportes de la persona que lo est\u00e1 experimentando, para determinar si <\/span><span style=\"font-weight: 400\">infringe nuestras <a href=\"https:\/\/transparency.fb.com\/policies\/community-standards\/bullying-harassment\/\">pol\u00edticas<\/a>. Adicionalmente, eliminamos 9,2 millones de piezas de contenido en Facebook, 59,4% de forma proactiva. En Instagram eliminamos 7,8 millones de piezas de contenido, 83,2% de forma proactiva.\u00a0<\/span><\/p>\n<h3>\u00bfC\u00f3mo planeamos reducir el bullying y el acoso?<\/h3>\n<p><span style=\"font-weight: 400\">Las m\u00e9tricas de prevalencia nos permiten rastrear, interna y externamente, qu\u00e9 tanto contenido infractor ven las personas en nuestras aplicaciones. A su vez, la prevalencia nos ayuda a determinar los enfoques correctos para reducir esta m\u00e9trica, ya sea a trav\u00e9s de la actualizaci\u00f3n de nuestras pol\u00edticas o a trav\u00e9s de productos o herramientas para nuestra comunidad. Por ejemplo, cuando publicamos la prevalencia de discurso de odio por primera vez, era de entre 0,10-0,11% y hoy es de 0,03%. Este a\u00f1o hemos actualizado nuestra <a href=\"https:\/\/ai.facebook.com\/blog\/the-shift-to-generalized-ai-to-better-identify-violating-content\">tecnolog\u00eda de Inteligencia Artificial<\/a> para capacitarnos en tres violaciones diferentes que est\u00e1n relacionadas: bullying y acoso, discurso de odio y violencia e incitaci\u00f3n<\/span><span style=\"font-weight: 400\">. Tambi\u00e9n implementamos varios enfoques para reducir la prevalencia de contenido infractor, como: eliminar cuentas, p\u00e1ginas, grupos y eventos por infringir nuestras Normas Comunitarias; filtrar Grupos, P\u00e1ginas y contenido problem\u00e1ticos de las recomendaciones en nuestros servicios; o reducir la distribuci\u00f3n de contenido que probablemente infrinja los l\u00edmites de nuestras Normas Comunitarias.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Para reducir la prevalencia del bullying\u00a0 y acoso en nuestras plataformas, utilizamos t\u00e1cticas que son espec\u00edficas de la naturaleza \u00fanica de este tipo de infracci\u00f3n, y algunas otras que son resultado de nuestros aprendizajes en otras pol\u00edticas. Conforme seguimos estudiando la prevalencia, esperamos realizar mejoras continuas en nuestras normas y herramientas de bullying y acoso para identificar y actuar sobre este tipo de contenido. Por ejemplo, recientemente actualizamos <\/span><a href=\"https:\/\/about.fb.com\/ltam\/news\/2021\/10\/ampliamos-nuestras-politicas-sobre-acoso-e-intimidacion-en-linea\/\"><span style=\"font-weight: 400\">nuestras pol\u00edticas<\/span><\/a><span style=\"font-weight: 400\"> para aumentar nuestras acciones contra el contenido y el comportamiento da\u00f1inos tanto para individuos privados como para figuras p\u00fablicas. Estas actualizaciones son resultado de a\u00f1os de conversaciones con defensores de la libertad de expresi\u00f3n, expertos en derechos humanos, grupos de seguridad de mujeres, caricaturistas y sat\u00edricos, mujeres pol\u00edticas y periodistas, representantes de la comunidad LGBTQ+, creadores de contenido y otros tipos de figuras p\u00fablicas.<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Para proteger a las personas del acoso masivo y la intimidaci\u00f3n sin penalizar a las personas que participan en formas leg\u00edtimas de comunicaci\u00f3n, actualizamos nuestra pol\u00edtica para eliminar cierto contenido y cuentas vinculadas a este comportamiento. Para aplicar estas normas, solicitaremos informaci\u00f3n o contexto adicional. Por ejemplo, un grupo patrocinado por el estado en un r\u00e9gimen autoritario que utiliza grupos privados cerrados para coordinar la publicaci\u00f3n masiva de perfiles disidentes ahora se impondr\u00eda bajo esta norma.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Hemos ampliado nuestras protecciones para las figuras p\u00fablicas para incluir la eliminaci\u00f3n de los ataques degradantes y sexualizantes. Por ejemplo, las caricaturas pornogr\u00e1ficas basadas en mujeres funcionarias electas ser\u00edan eliminadas por violar esta nueva pol\u00edtica.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Reconociendo que no todos en el ojo p\u00fablico eligen convertirse en una figura p\u00fablica y, sin embargo, pueden ser v\u00edctimas de acoso e intimidaci\u00f3n significativos, hemos aumentado las protecciones para figuras p\u00fablicas involuntarias como los defensores de los derechos humanos y los periodistas. Por ejemplo, el contenido que se burla del ciclo menstrual de una mujer periodista violar\u00eda nuestras pol\u00edticas y actuar\u00edamos sobre este.\u00a0<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Estamos trabajando arduamente para reducir este tipo de contenido en nuestras plataformas, pero tambi\u00e9n queremos equipar a nuestra comunidad con herramientas para protegerse del contenido potencialmente ofensivo como lo consideren mejor.<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Herramientas como dejar de ser amigo de alguien, dejar de seguir y bloquear cuentas pueden ayudar a desconectar inmediatamente a las personas de quienes pueden estar acos\u00e1ndolas.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Las funciones como los controles de ignorar y comentar pueden limitar la cantidad de contenido no deseado visto, mientras que Restringir en Instagram permite a las personas evitar que los acosadores vean e interact\u00faen con el contenido de alguien, sin que el acosador se d\u00e9 cuenta.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Las personas tambi\u00e9n pueden controlar qui\u00e9n las etiqueta o las menciona en el contenido.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Los <\/span><a href=\"https:\/\/about.instagram.com\/es-la\/blog\/announcements\/introducing-new-ways-to-protect-our-community-from-abuse\"><span style=\"font-weight: 400\">l\u00edmites<\/span><\/a><span style=\"font-weight: 400\"> en Instagram tambi\u00e9n permiten que las personas oculten autom\u00e1ticamente los comentarios y las solicitudes de mensajes directos de las personas que no las siguen o que las han seguido recientemente.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Las personas tambi\u00e9n pueden reportar f\u00e1cilmente publicaciones, comentarios y mensajes para que nuestros equipos puedan revisar y tomar las medidas necesarias.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Recientemente agregamos pantallas de advertencia en Facebook e Instagram para educar y disuadir a las personas de publicar o comentar de maneras que podr\u00edan ser consideradas bullying y acoso. En <\/span><a href=\"https:\/\/about.instagram.com\/es-la\/blog\/announcements\/introducing-new-ways-to-protect-our-community-from-abuse\"><span style=\"font-weight: 400\">Instagram<\/span><\/a><span style=\"font-weight: 400\">, aproximadamente 50% de las veces los usuarios editaron o eliminaron los comentarios tras estas advertencias. Hemos realizado inversiones en nuestras herramientas de bullying y acoso en Instagram, trabajando para reducir la cantidad de veces que este tipo de contenido es visto especialmente por nuestra base de usuarios m\u00e1s j\u00f3venes.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Tenemos una serie de recursos con m\u00e1s informaci\u00f3n sobre el trabajo que llevamos a cabo para prevenir el bullying y el acoso en nuestra plataforma, incluyendo nuestro el <\/span><a href=\"https:\/\/www.facebook.com\/safety\/bullying\"><span style=\"font-weight: 400\">Centro de Prevenci\u00f3n del Bullying<\/span><\/a><span style=\"font-weight: 400\"> en nuestro Centro de Seguridad, un recurso para adolescentes, padres y educadores que buscan apoyo y ayuda para problemas relacionados con el bullying y otros conflictos.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"Por primera vez estamos agregando la prevalencia del bullying y acoso a nuestro Informe de Cumplimiento de nuestras Normas Comunitarias.\u00a0 El bullying y acoso es un reto \u00fanico y uno de los problemas m\u00e1s complejos de atender, debido a que el contexto es fundamental. Trabajamos arduamente para aplicar nuestras pol\u00edticas contra este tipo de contenido y equipando a nuestra comunidad con herramientas para que se protejan de la forma que consideren mejor.\u00a0 La prevalencia a lo largo del tiempo muestra qu\u00e9 tan efectivos somos para reducir este problema en nuestras aplicaciones y nos brinda un punto de referencia para trabajar.\u00a0 Como una compa\u00f1\u00eda de tecnolog\u00eda social, ayudar a las personas a sentirse seguras para conectar e interactuar con otros es parte central de nuestro trabajo. Pero, una forma de abuso que desafortunadamente siempre ha existido cuando las personas interact\u00faan entre ellas es el bullying y el acoso. Si bien este reto no es exclusivo de las redes sociales, usamos nuevas tecnolog\u00edas para reducir este contenido en nuestras plataformas, damos a las personas herramientas para auto protegerse y medimos nuestros avances. As\u00ed es como lo abordamos.\u00a0 \u00bfC\u00f3mo definimos el bullying y el acoso? Cuando se trata de bullying y acoso, el contexto y la intenci\u00f3n importan. El bullying y el acoso a menudo son muy personales, se manifiestan en diferentes formas para distintas personas, desde amenazas por publicar informaci\u00f3n de identificaci\u00f3n personal hasta contacto recurrente y no solicitado. Nuestra pol\u00edtica de bullying y acoso proh\u00edbe este tipo de contenido y comportamiento. Nuestra pol\u00edtica tambi\u00e9n distingue entre figuras p\u00fablicas e individuos privados, ya que queremos permitir las conversaciones libres y abiertas sobre las primeras. Permitimos m\u00e1s comentarios cr\u00edticos sobre figuras p\u00fablicas que con individuos privados, pero cualquier contenido debe de permanecer dentro de los l\u00edmites que establecen nuestras Normas Comunitarias.\u00a0 \u00bfQu\u00e9 quieren decir nuestras m\u00e9tricas sobre bullying y acoso? Hemos desarrollado sistemas de Inteligencia Artificial que pueden identificar muchos tipos de bullying y acoso en nuestras plataformas. Sin embargo, el bullying y acoso es una problem\u00e1tica \u00fanica ya que para determinar el da\u00f1o a menudo se requiere de contexto, incluyendo reportes de quienes pueden experimentar este comportamiento. Algunas veces puede ser dif\u00edcil para nuestros sistemas diferenciar entre un comentario de bullying y una broma sin conocer a las personas involucradas o los detalles de la situaci\u00f3n. Por ejemplo, una amiga publicando \u00abHola, zorra\u00bb a otra amiga en su perfil puede no ser percibido como bullying entre ellas. Por otra parte, alguien publicando lo mismo en la P\u00e1gina de otra persona cuando ambas no son amigas cercanas o diversas personas publicando \u00abhola, zorra\u00bb en la P\u00e1gina de esa persona puede ser da\u00f1ino. Los t\u00e9rminos derogatorios relacionados a la actividad sexual, como \u00abzorra\u00bb, infringen nuestras Normas Comunitarias contra bullying y acoso, porque queremos garantizar una base de seguridad para todos los miembros de nuestra comunidad, sin importar la intenci\u00f3n. Como resultado, detectar ese tipo de bullying puede ser m\u00e1s retador que con cualquier otro tipo de infracciones. Si bien siempre estamos trabajando para mejorar nuestra tecnolog\u00eda, nuestras m\u00e9tricas, en particular las de tasa proactiva y prevalencia reflejan la realidad de tener que depender de los reportes de nuestra comunidad.\u00a0 En el tercer trimestre del a\u00f1o, la prevalencia del bullying y acoso fue de 0,14-0,15% en Facebook y 0,05-0,06% en Instagram. Esto quiere decir que el bullying y el acoso fueron vistos entre 14 y 15 veces por cada 10.000 visualizaciones de contenido en Facebook y entre 5 y 6 veces por cada 10.000 visualizaciones de contenido en Instagram. Esta m\u00e9trica solo refleja el bullying y el acoso que no necesita m\u00e1s informaci\u00f3n adicional, como reportes de la persona que lo est\u00e1 experimentando, para determinar si infringe nuestras pol\u00edticas. Adicionalmente, eliminamos 9,2 millones de piezas de contenido en Facebook, 59,4% de forma proactiva. En Instagram eliminamos 7,8 millones de piezas de contenido, 83,2% de forma proactiva.\u00a0 \u00bfC\u00f3mo planeamos reducir el bullying y el acoso? Las m\u00e9tricas de prevalencia nos permiten rastrear, interna y externamente, qu\u00e9 tanto contenido infractor ven las personas en nuestras aplicaciones. A su vez, la prevalencia nos ayuda a determinar los enfoques correctos para reducir esta m\u00e9trica, ya sea a trav\u00e9s de la actualizaci\u00f3n de nuestras pol\u00edticas o a trav\u00e9s de productos o herramientas para nuestra comunidad. Por ejemplo, cuando publicamos la prevalencia de discurso de odio por primera vez, era de entre 0,10-0,11% y hoy es de 0,03%. Este a\u00f1o hemos actualizado nuestra tecnolog\u00eda de Inteligencia Artificial para capacitarnos en tres violaciones diferentes que est\u00e1n relacionadas: bullying y acoso, discurso de odio y violencia e incitaci\u00f3n. Tambi\u00e9n implementamos varios enfoques para reducir la prevalencia de contenido infractor, como: eliminar cuentas, p\u00e1ginas, grupos y eventos por infringir nuestras Normas Comunitarias; filtrar Grupos, P\u00e1ginas y contenido problem\u00e1ticos de las recomendaciones en nuestros servicios; o reducir la distribuci\u00f3n de contenido que probablemente infrinja los l\u00edmites de nuestras Normas Comunitarias.\u00a0 Para reducir la prevalencia del bullying\u00a0 y acoso en nuestras plataformas, utilizamos t\u00e1cticas que son espec\u00edficas de la naturaleza \u00fanica de este tipo de infracci\u00f3n, y algunas otras que son resultado de nuestros aprendizajes en otras pol\u00edticas. Conforme seguimos estudiando la prevalencia, esperamos realizar mejoras continuas en nuestras normas y herramientas de bullying y acoso para identificar y actuar sobre este tipo de contenido. Por ejemplo, recientemente actualizamos nuestras pol\u00edticas para aumentar nuestras acciones contra el contenido y el comportamiento da\u00f1inos tanto para individuos privados como para figuras p\u00fablicas. Estas actualizaciones son resultado de a\u00f1os de conversaciones con defensores de la libertad de expresi\u00f3n, expertos en derechos humanos, grupos de seguridad de mujeres, caricaturistas y sat\u00edricos, mujeres pol\u00edticas y periodistas, representantes de la comunidad LGBTQ+, creadores de contenido y otros tipos de figuras p\u00fablicas. Para proteger a las personas del acoso masivo y la intimidaci\u00f3n sin penalizar a las personas que participan en formas leg\u00edtimas de comunicaci\u00f3n, actualizamos nuestra pol\u00edtica para eliminar cierto contenido y cuentas vinculadas a este comportamiento. Para aplicar estas normas, solicitaremos informaci\u00f3n o contexto adicional. Por ejemplo, un grupo patrocinado por el estado en un r\u00e9gimen autoritario que utiliza grupos privados cerrados para coordinar la publicaci\u00f3n masiva de perfiles disidentes ahora se impondr\u00eda bajo esta norma. Hemos ampliado nuestras protecciones para las figuras p\u00fablicas para incluir la eliminaci\u00f3n de los ataques degradantes y sexualizantes. Por ejemplo, las caricaturas pornogr\u00e1ficas basadas en mujeres funcionarias electas ser\u00edan eliminadas por violar esta nueva pol\u00edtica. Reconociendo que no todos en el ojo p\u00fablico eligen convertirse en una figura p\u00fablica y, sin embargo, pueden ser v\u00edctimas de acoso e intimidaci\u00f3n significativos, hemos aumentado las protecciones para figuras p\u00fablicas involuntarias como los defensores de los derechos humanos y los periodistas. Por ejemplo, el contenido que se burla del ciclo menstrual de una mujer periodista violar\u00eda nuestras pol\u00edticas y actuar\u00edamos sobre este.\u00a0 Estamos trabajando arduamente para reducir este tipo de contenido en nuestras plataformas, pero tambi\u00e9n queremos equipar a nuestra comunidad con herramientas para protegerse del contenido potencialmente ofensivo como lo consideren mejor. Herramientas como dejar de ser amigo de alguien, dejar de seguir y bloquear cuentas pueden ayudar a desconectar inmediatamente a las personas de quienes pueden estar acos\u00e1ndolas. Las funciones como los controles de ignorar y comentar pueden limitar la cantidad de contenido no deseado visto, mientras que Restringir en Instagram permite a las personas evitar que los acosadores vean e interact\u00faen con el contenido de alguien, sin que el acosador se d\u00e9 cuenta. Las personas tambi\u00e9n pueden controlar qui\u00e9n las etiqueta o las menciona en el contenido. Los l\u00edmites en Instagram tambi\u00e9n permiten que las personas oculten autom\u00e1ticamente los comentarios y las solicitudes de mensajes directos de las personas que no las siguen o que las han seguido recientemente. Las personas tambi\u00e9n pueden reportar f\u00e1cilmente publicaciones, comentarios y mensajes para que nuestros equipos puedan revisar y tomar las medidas necesarias. Recientemente agregamos pantallas de advertencia en Facebook e Instagram para educar y disuadir a las personas de publicar o comentar de maneras que podr\u00edan ser consideradas bullying y acoso. En Instagram, aproximadamente 50% de las veces los usuarios editaron o eliminaron los comentarios tras estas advertencias. Hemos realizado inversiones en nuestras herramientas de bullying y acoso en Instagram, trabajando para reducir la cantidad de veces que este tipo de contenido es visto especialmente por nuestra base de usuarios m\u00e1s j\u00f3venes.\u00a0 Tenemos una serie de recursos con m\u00e1s informaci\u00f3n sobre el trabajo que llevamos a cabo para prevenir el bullying y el acoso en nuestra plataforma, incluyendo nuestro el Centro de Prevenci\u00f3n del Bullying en nuestro Centro de Seguridad, un recurso para adolescentes, padres y educadores que buscan apoyo y ayuda para problemas relacionados con el bullying y otros conflictos.","protected":false},"author":164097140,"featured_media":23615,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243948155,243947992,243948082],"tags":[243947923,243948147,243930626],"class_list":["post-23614","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-meta-2","category-politica-publica","category-seguridad-y-expresion","tag-bienestar","tag-normas-comunitarias-y-aplicacion-de-politicas","tag-seguridad"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Nuestro enfoque para combatir el bullying y el acoso | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Nuestro enfoque para combatir el bullying y el acoso | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Por primera vez estamos agregando la prevalencia del bullying y acoso a nuestro Informe de Cumplimiento de nuestras Normas Comunitarias.\u00a0 El bullying y acoso es un reto \u00fanico y uno de los problemas m\u00e1s complejos de atender, debido a que el contexto es fundamental. Trabajamos arduamente para aplicar nuestras pol\u00edticas contra este tipo de contenido y equipando a nuestra comunidad con herramientas para que se protejan de la forma que consideren mejor.\u00a0 La prevalencia a lo largo del tiempo muestra qu\u00e9 tan efectivos somos para reducir este problema en nuestras aplicaciones y nos brinda un punto de referencia para trabajar.\u00a0 Como una compa\u00f1\u00eda de tecnolog\u00eda social, ayudar a las personas a sentirse seguras para conectar e interactuar con otros es parte central de nuestro trabajo. Pero, una forma de abuso que desafortunadamente siempre ha existido cuando las personas interact\u00faan entre ellas es el bullying y el acoso. Si bien este reto no es exclusivo de las redes sociales, usamos nuevas tecnolog\u00edas para reducir este contenido en nuestras plataformas, damos a las personas herramientas para auto protegerse y medimos nuestros avances. As\u00ed es como lo abordamos.\u00a0 \u00bfC\u00f3mo definimos el bullying y el acoso? Cuando se trata de bullying y acoso, el contexto y la intenci\u00f3n importan. El bullying y el acoso a menudo son muy personales, se manifiestan en diferentes formas para distintas personas, desde amenazas por publicar informaci\u00f3n de identificaci\u00f3n personal hasta contacto recurrente y no solicitado. Nuestra pol\u00edtica de bullying y acoso proh\u00edbe este tipo de contenido y comportamiento. Nuestra pol\u00edtica tambi\u00e9n distingue entre figuras p\u00fablicas e individuos privados, ya que queremos permitir las conversaciones libres y abiertas sobre las primeras. Permitimos m\u00e1s comentarios cr\u00edticos sobre figuras p\u00fablicas que con individuos privados, pero cualquier contenido debe de permanecer dentro de los l\u00edmites que establecen nuestras Normas Comunitarias.\u00a0 \u00bfQu\u00e9 quieren decir nuestras m\u00e9tricas sobre bullying y acoso? Hemos desarrollado sistemas de Inteligencia Artificial que pueden identificar muchos tipos de bullying y acoso en nuestras plataformas. Sin embargo, el bullying y acoso es una problem\u00e1tica \u00fanica ya que para determinar el da\u00f1o a menudo se requiere de contexto, incluyendo reportes de quienes pueden experimentar este comportamiento. Algunas veces puede ser dif\u00edcil para nuestros sistemas diferenciar entre un comentario de bullying y una broma sin conocer a las personas involucradas o los detalles de la situaci\u00f3n. Por ejemplo, una amiga publicando \u00abHola, zorra\u00bb a otra amiga en su perfil puede no ser percibido como bullying entre ellas. Por otra parte, alguien publicando lo mismo en la P\u00e1gina de otra persona cuando ambas no son amigas cercanas o diversas personas publicando \u00abhola, zorra\u00bb en la P\u00e1gina de esa persona puede ser da\u00f1ino. Los t\u00e9rminos derogatorios relacionados a la actividad sexual, como \u00abzorra\u00bb, infringen nuestras Normas Comunitarias contra bullying y acoso, porque queremos garantizar una base de seguridad para todos los miembros de nuestra comunidad, sin importar la intenci\u00f3n. Como resultado, detectar ese tipo de bullying puede ser m\u00e1s retador que con cualquier otro tipo de infracciones. Si bien siempre estamos trabajando para mejorar nuestra tecnolog\u00eda, nuestras m\u00e9tricas, en particular las de tasa proactiva y prevalencia reflejan la realidad de tener que depender de los reportes de nuestra comunidad.\u00a0 En el tercer trimestre del a\u00f1o, la prevalencia del bullying y acoso fue de 0,14-0,15% en Facebook y 0,05-0,06% en Instagram. Esto quiere decir que el bullying y el acoso fueron vistos entre 14 y 15 veces por cada 10.000 visualizaciones de contenido en Facebook y entre 5 y 6 veces por cada 10.000 visualizaciones de contenido en Instagram. Esta m\u00e9trica solo refleja el bullying y el acoso que no necesita m\u00e1s informaci\u00f3n adicional, como reportes de la persona que lo est\u00e1 experimentando, para determinar si infringe nuestras pol\u00edticas. Adicionalmente, eliminamos 9,2 millones de piezas de contenido en Facebook, 59,4% de forma proactiva. En Instagram eliminamos 7,8 millones de piezas de contenido, 83,2% de forma proactiva.\u00a0 \u00bfC\u00f3mo planeamos reducir el bullying y el acoso? Las m\u00e9tricas de prevalencia nos permiten rastrear, interna y externamente, qu\u00e9 tanto contenido infractor ven las personas en nuestras aplicaciones. A su vez, la prevalencia nos ayuda a determinar los enfoques correctos para reducir esta m\u00e9trica, ya sea a trav\u00e9s de la actualizaci\u00f3n de nuestras pol\u00edticas o a trav\u00e9s de productos o herramientas para nuestra comunidad. Por ejemplo, cuando publicamos la prevalencia de discurso de odio por primera vez, era de entre 0,10-0,11% y hoy es de 0,03%. Este a\u00f1o hemos actualizado nuestra tecnolog\u00eda de Inteligencia Artificial para capacitarnos en tres violaciones diferentes que est\u00e1n relacionadas: bullying y acoso, discurso de odio y violencia e incitaci\u00f3n. Tambi\u00e9n implementamos varios enfoques para reducir la prevalencia de contenido infractor, como: eliminar cuentas, p\u00e1ginas, grupos y eventos por infringir nuestras Normas Comunitarias; filtrar Grupos, P\u00e1ginas y contenido problem\u00e1ticos de las recomendaciones en nuestros servicios; o reducir la distribuci\u00f3n de contenido que probablemente infrinja los l\u00edmites de nuestras Normas Comunitarias.\u00a0 Para reducir la prevalencia del bullying\u00a0 y acoso en nuestras plataformas, utilizamos t\u00e1cticas que son espec\u00edficas de la naturaleza \u00fanica de este tipo de infracci\u00f3n, y algunas otras que son resultado de nuestros aprendizajes en otras pol\u00edticas. Conforme seguimos estudiando la prevalencia, esperamos realizar mejoras continuas en nuestras normas y herramientas de bullying y acoso para identificar y actuar sobre este tipo de contenido. Por ejemplo, recientemente actualizamos nuestras pol\u00edticas para aumentar nuestras acciones contra el contenido y el comportamiento da\u00f1inos tanto para individuos privados como para figuras p\u00fablicas. Estas actualizaciones son resultado de a\u00f1os de conversaciones con defensores de la libertad de expresi\u00f3n, expertos en derechos humanos, grupos de seguridad de mujeres, caricaturistas y sat\u00edricos, mujeres pol\u00edticas y periodistas, representantes de la comunidad LGBTQ+, creadores de contenido y otros tipos de figuras p\u00fablicas. Para proteger a las personas del acoso masivo y la intimidaci\u00f3n sin penalizar a las personas que participan en formas leg\u00edtimas de comunicaci\u00f3n, actualizamos nuestra pol\u00edtica para eliminar cierto contenido y cuentas vinculadas a este comportamiento. Para aplicar estas normas, solicitaremos informaci\u00f3n o contexto adicional. Por ejemplo, un grupo patrocinado por el estado en un r\u00e9gimen autoritario que utiliza grupos privados cerrados para coordinar la publicaci\u00f3n masiva de perfiles disidentes ahora se impondr\u00eda bajo esta norma. Hemos ampliado nuestras protecciones para las figuras p\u00fablicas para incluir la eliminaci\u00f3n de los ataques degradantes y sexualizantes. Por ejemplo, las caricaturas pornogr\u00e1ficas basadas en mujeres funcionarias electas ser\u00edan eliminadas por violar esta nueva pol\u00edtica. Reconociendo que no todos en el ojo p\u00fablico eligen convertirse en una figura p\u00fablica y, sin embargo, pueden ser v\u00edctimas de acoso e intimidaci\u00f3n significativos, hemos aumentado las protecciones para figuras p\u00fablicas involuntarias como los defensores de los derechos humanos y los periodistas. Por ejemplo, el contenido que se burla del ciclo menstrual de una mujer periodista violar\u00eda nuestras pol\u00edticas y actuar\u00edamos sobre este.\u00a0 Estamos trabajando arduamente para reducir este tipo de contenido en nuestras plataformas, pero tambi\u00e9n queremos equipar a nuestra comunidad con herramientas para protegerse del contenido potencialmente ofensivo como lo consideren mejor. Herramientas como dejar de ser amigo de alguien, dejar de seguir y bloquear cuentas pueden ayudar a desconectar inmediatamente a las personas de quienes pueden estar acos\u00e1ndolas. Las funciones como los controles de ignorar y comentar pueden limitar la cantidad de contenido no deseado visto, mientras que Restringir en Instagram permite a las personas evitar que los acosadores vean e interact\u00faen con el contenido de alguien, sin que el acosador se d\u00e9 cuenta. Las personas tambi\u00e9n pueden controlar qui\u00e9n las etiqueta o las menciona en el contenido. Los l\u00edmites en Instagram tambi\u00e9n permiten que las personas oculten autom\u00e1ticamente los comentarios y las solicitudes de mensajes directos de las personas que no las siguen o que las han seguido recientemente. Las personas tambi\u00e9n pueden reportar f\u00e1cilmente publicaciones, comentarios y mensajes para que nuestros equipos puedan revisar y tomar las medidas necesarias. Recientemente agregamos pantallas de advertencia en Facebook e Instagram para educar y disuadir a las personas de publicar o comentar de maneras que podr\u00edan ser consideradas bullying y acoso. En Instagram, aproximadamente 50% de las veces los usuarios editaron o eliminaron los comentarios tras estas advertencias. Hemos realizado inversiones en nuestras herramientas de bullying y acoso en Instagram, trabajando para reducir la cantidad de veces que este tipo de contenido es visto especialmente por nuestra base de usuarios m\u00e1s j\u00f3venes.\u00a0 Tenemos una serie de recursos con m\u00e1s informaci\u00f3n sobre el trabajo que llevamos a cabo para prevenir el bullying y el acoso en nuestra plataforma, incluyendo nuestro el Centro de Prevenci\u00f3n del Bullying en nuestro Centro de Seguridad, un recurso para adolescentes, padres y educadores que buscan apoyo y ayuda para problemas relacionados con el bullying y otros conflictos.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2021-11-09T23:29:18+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/11\/04_NRP_Bullying_Harassment_Report-1.jpeg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"eortiz\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"7 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/\"},\"author\":\"Facebook company\",\"headline\":\"Nuestro enfoque para combatir el bullying y el acoso\",\"datePublished\":\"2021-11-09T23:29:18+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/\"},\"wordCount\":1524,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/11\/04_NRP_Bullying_Harassment_Report-1.jpeg?fit=1920%2C1080\",\"keywords\":[\"Bienestar\",\"Normas Comunitarias y aplicaci\u00f3n de pol\u00edticas\",\"Seguridad\"],\"articleSection\":[\"Meta\",\"Pol\u00edtica P\u00fablica\",\"Seguridad y Expresi\u00f3n\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/\",\"name\":\"Nuestro enfoque para combatir el bullying y el acoso | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/11\/04_NRP_Bullying_Harassment_Report-1.jpeg?fit=1920%2C1080\",\"datePublished\":\"2021-11-09T23:29:18+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/11\/04_NRP_Bullying_Harassment_Report-1.jpeg?fit=1920%2C1080\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/11\/04_NRP_Bullying_Harassment_Report-1.jpeg?fit=1920%2C1080\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Nuestro enfoque para combatir el bullying y el acoso\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Nuestro enfoque para combatir el bullying y el acoso | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/","og_locale":"es_ES","og_type":"article","og_title":"Nuestro enfoque para combatir el bullying y el acoso | Acerca de Meta","og_description":"Por primera vez estamos agregando la prevalencia del bullying y acoso a nuestro Informe de Cumplimiento de nuestras Normas Comunitarias.\u00a0 El bullying y acoso es un reto \u00fanico y uno de los problemas m\u00e1s complejos de atender, debido a que el contexto es fundamental. Trabajamos arduamente para aplicar nuestras pol\u00edticas contra este tipo de contenido y equipando a nuestra comunidad con herramientas para que se protejan de la forma que consideren mejor.\u00a0 La prevalencia a lo largo del tiempo muestra qu\u00e9 tan efectivos somos para reducir este problema en nuestras aplicaciones y nos brinda un punto de referencia para trabajar.\u00a0 Como una compa\u00f1\u00eda de tecnolog\u00eda social, ayudar a las personas a sentirse seguras para conectar e interactuar con otros es parte central de nuestro trabajo. Pero, una forma de abuso que desafortunadamente siempre ha existido cuando las personas interact\u00faan entre ellas es el bullying y el acoso. Si bien este reto no es exclusivo de las redes sociales, usamos nuevas tecnolog\u00edas para reducir este contenido en nuestras plataformas, damos a las personas herramientas para auto protegerse y medimos nuestros avances. As\u00ed es como lo abordamos.\u00a0 \u00bfC\u00f3mo definimos el bullying y el acoso? Cuando se trata de bullying y acoso, el contexto y la intenci\u00f3n importan. El bullying y el acoso a menudo son muy personales, se manifiestan en diferentes formas para distintas personas, desde amenazas por publicar informaci\u00f3n de identificaci\u00f3n personal hasta contacto recurrente y no solicitado. Nuestra pol\u00edtica de bullying y acoso proh\u00edbe este tipo de contenido y comportamiento. Nuestra pol\u00edtica tambi\u00e9n distingue entre figuras p\u00fablicas e individuos privados, ya que queremos permitir las conversaciones libres y abiertas sobre las primeras. Permitimos m\u00e1s comentarios cr\u00edticos sobre figuras p\u00fablicas que con individuos privados, pero cualquier contenido debe de permanecer dentro de los l\u00edmites que establecen nuestras Normas Comunitarias.\u00a0 \u00bfQu\u00e9 quieren decir nuestras m\u00e9tricas sobre bullying y acoso? Hemos desarrollado sistemas de Inteligencia Artificial que pueden identificar muchos tipos de bullying y acoso en nuestras plataformas. Sin embargo, el bullying y acoso es una problem\u00e1tica \u00fanica ya que para determinar el da\u00f1o a menudo se requiere de contexto, incluyendo reportes de quienes pueden experimentar este comportamiento. Algunas veces puede ser dif\u00edcil para nuestros sistemas diferenciar entre un comentario de bullying y una broma sin conocer a las personas involucradas o los detalles de la situaci\u00f3n. Por ejemplo, una amiga publicando \u00abHola, zorra\u00bb a otra amiga en su perfil puede no ser percibido como bullying entre ellas. Por otra parte, alguien publicando lo mismo en la P\u00e1gina de otra persona cuando ambas no son amigas cercanas o diversas personas publicando \u00abhola, zorra\u00bb en la P\u00e1gina de esa persona puede ser da\u00f1ino. Los t\u00e9rminos derogatorios relacionados a la actividad sexual, como \u00abzorra\u00bb, infringen nuestras Normas Comunitarias contra bullying y acoso, porque queremos garantizar una base de seguridad para todos los miembros de nuestra comunidad, sin importar la intenci\u00f3n. Como resultado, detectar ese tipo de bullying puede ser m\u00e1s retador que con cualquier otro tipo de infracciones. Si bien siempre estamos trabajando para mejorar nuestra tecnolog\u00eda, nuestras m\u00e9tricas, en particular las de tasa proactiva y prevalencia reflejan la realidad de tener que depender de los reportes de nuestra comunidad.\u00a0 En el tercer trimestre del a\u00f1o, la prevalencia del bullying y acoso fue de 0,14-0,15% en Facebook y 0,05-0,06% en Instagram. Esto quiere decir que el bullying y el acoso fueron vistos entre 14 y 15 veces por cada 10.000 visualizaciones de contenido en Facebook y entre 5 y 6 veces por cada 10.000 visualizaciones de contenido en Instagram. Esta m\u00e9trica solo refleja el bullying y el acoso que no necesita m\u00e1s informaci\u00f3n adicional, como reportes de la persona que lo est\u00e1 experimentando, para determinar si infringe nuestras pol\u00edticas. Adicionalmente, eliminamos 9,2 millones de piezas de contenido en Facebook, 59,4% de forma proactiva. En Instagram eliminamos 7,8 millones de piezas de contenido, 83,2% de forma proactiva.\u00a0 \u00bfC\u00f3mo planeamos reducir el bullying y el acoso? Las m\u00e9tricas de prevalencia nos permiten rastrear, interna y externamente, qu\u00e9 tanto contenido infractor ven las personas en nuestras aplicaciones. A su vez, la prevalencia nos ayuda a determinar los enfoques correctos para reducir esta m\u00e9trica, ya sea a trav\u00e9s de la actualizaci\u00f3n de nuestras pol\u00edticas o a trav\u00e9s de productos o herramientas para nuestra comunidad. Por ejemplo, cuando publicamos la prevalencia de discurso de odio por primera vez, era de entre 0,10-0,11% y hoy es de 0,03%. Este a\u00f1o hemos actualizado nuestra tecnolog\u00eda de Inteligencia Artificial para capacitarnos en tres violaciones diferentes que est\u00e1n relacionadas: bullying y acoso, discurso de odio y violencia e incitaci\u00f3n. Tambi\u00e9n implementamos varios enfoques para reducir la prevalencia de contenido infractor, como: eliminar cuentas, p\u00e1ginas, grupos y eventos por infringir nuestras Normas Comunitarias; filtrar Grupos, P\u00e1ginas y contenido problem\u00e1ticos de las recomendaciones en nuestros servicios; o reducir la distribuci\u00f3n de contenido que probablemente infrinja los l\u00edmites de nuestras Normas Comunitarias.\u00a0 Para reducir la prevalencia del bullying\u00a0 y acoso en nuestras plataformas, utilizamos t\u00e1cticas que son espec\u00edficas de la naturaleza \u00fanica de este tipo de infracci\u00f3n, y algunas otras que son resultado de nuestros aprendizajes en otras pol\u00edticas. Conforme seguimos estudiando la prevalencia, esperamos realizar mejoras continuas en nuestras normas y herramientas de bullying y acoso para identificar y actuar sobre este tipo de contenido. Por ejemplo, recientemente actualizamos nuestras pol\u00edticas para aumentar nuestras acciones contra el contenido y el comportamiento da\u00f1inos tanto para individuos privados como para figuras p\u00fablicas. Estas actualizaciones son resultado de a\u00f1os de conversaciones con defensores de la libertad de expresi\u00f3n, expertos en derechos humanos, grupos de seguridad de mujeres, caricaturistas y sat\u00edricos, mujeres pol\u00edticas y periodistas, representantes de la comunidad LGBTQ+, creadores de contenido y otros tipos de figuras p\u00fablicas. Para proteger a las personas del acoso masivo y la intimidaci\u00f3n sin penalizar a las personas que participan en formas leg\u00edtimas de comunicaci\u00f3n, actualizamos nuestra pol\u00edtica para eliminar cierto contenido y cuentas vinculadas a este comportamiento. Para aplicar estas normas, solicitaremos informaci\u00f3n o contexto adicional. Por ejemplo, un grupo patrocinado por el estado en un r\u00e9gimen autoritario que utiliza grupos privados cerrados para coordinar la publicaci\u00f3n masiva de perfiles disidentes ahora se impondr\u00eda bajo esta norma. Hemos ampliado nuestras protecciones para las figuras p\u00fablicas para incluir la eliminaci\u00f3n de los ataques degradantes y sexualizantes. Por ejemplo, las caricaturas pornogr\u00e1ficas basadas en mujeres funcionarias electas ser\u00edan eliminadas por violar esta nueva pol\u00edtica. Reconociendo que no todos en el ojo p\u00fablico eligen convertirse en una figura p\u00fablica y, sin embargo, pueden ser v\u00edctimas de acoso e intimidaci\u00f3n significativos, hemos aumentado las protecciones para figuras p\u00fablicas involuntarias como los defensores de los derechos humanos y los periodistas. Por ejemplo, el contenido que se burla del ciclo menstrual de una mujer periodista violar\u00eda nuestras pol\u00edticas y actuar\u00edamos sobre este.\u00a0 Estamos trabajando arduamente para reducir este tipo de contenido en nuestras plataformas, pero tambi\u00e9n queremos equipar a nuestra comunidad con herramientas para protegerse del contenido potencialmente ofensivo como lo consideren mejor. Herramientas como dejar de ser amigo de alguien, dejar de seguir y bloquear cuentas pueden ayudar a desconectar inmediatamente a las personas de quienes pueden estar acos\u00e1ndolas. Las funciones como los controles de ignorar y comentar pueden limitar la cantidad de contenido no deseado visto, mientras que Restringir en Instagram permite a las personas evitar que los acosadores vean e interact\u00faen con el contenido de alguien, sin que el acosador se d\u00e9 cuenta. Las personas tambi\u00e9n pueden controlar qui\u00e9n las etiqueta o las menciona en el contenido. Los l\u00edmites en Instagram tambi\u00e9n permiten que las personas oculten autom\u00e1ticamente los comentarios y las solicitudes de mensajes directos de las personas que no las siguen o que las han seguido recientemente. Las personas tambi\u00e9n pueden reportar f\u00e1cilmente publicaciones, comentarios y mensajes para que nuestros equipos puedan revisar y tomar las medidas necesarias. Recientemente agregamos pantallas de advertencia en Facebook e Instagram para educar y disuadir a las personas de publicar o comentar de maneras que podr\u00edan ser consideradas bullying y acoso. En Instagram, aproximadamente 50% de las veces los usuarios editaron o eliminaron los comentarios tras estas advertencias. Hemos realizado inversiones en nuestras herramientas de bullying y acoso en Instagram, trabajando para reducir la cantidad de veces que este tipo de contenido es visto especialmente por nuestra base de usuarios m\u00e1s j\u00f3venes.\u00a0 Tenemos una serie de recursos con m\u00e1s informaci\u00f3n sobre el trabajo que llevamos a cabo para prevenir el bullying y el acoso en nuestra plataforma, incluyendo nuestro el Centro de Prevenci\u00f3n del Bullying en nuestro Centro de Seguridad, un recurso para adolescentes, padres y educadores que buscan apoyo y ayuda para problemas relacionados con el bullying y otros conflictos.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/","og_site_name":"Acerca de Meta","article_published_time":"2021-11-09T23:29:18+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/11\/04_NRP_Bullying_Harassment_Report-1.jpeg?resize=1024,576","type":"image\/jpeg"}],"author":"eortiz","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"7 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/"},"author":"Facebook company","headline":"Nuestro enfoque para combatir el bullying y el acoso","datePublished":"2021-11-09T23:29:18+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/"},"wordCount":1524,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/11\/04_NRP_Bullying_Harassment_Report-1.jpeg?fit=1920%2C1080","keywords":["Bienestar","Normas Comunitarias y aplicaci\u00f3n de pol\u00edticas","Seguridad"],"articleSection":["Meta","Pol\u00edtica P\u00fablica","Seguridad y Expresi\u00f3n"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/","url":"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/","name":"Nuestro enfoque para combatir el bullying y el acoso | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/11\/04_NRP_Bullying_Harassment_Report-1.jpeg?fit=1920%2C1080","datePublished":"2021-11-09T23:29:18+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/11\/04_NRP_Bullying_Harassment_Report-1.jpeg?fit=1920%2C1080","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/11\/04_NRP_Bullying_Harassment_Report-1.jpeg?fit=1920%2C1080","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2021\/11\/nuestro-enfoque-para-combatir-el-bullying-y-el-acoso\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Nuestro enfoque para combatir el bullying y el acoso"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/11\/04_NRP_Bullying_Harassment_Report-1.jpeg?fit=1920%2C1080","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/23614","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/164097140"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=23614"}],"version-history":[{"count":1,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/23614\/revisions"}],"predecessor-version":[{"id":23616,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/23614\/revisions\/23616"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media\/23615"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=23614"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=23614"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=23614"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}