{"id":8098,"date":"2019-11-13T11:38:29","date_gmt":"2019-11-13T17:38:29","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=8098"},"modified":"2020-09-07T11:51:41","modified_gmt":"2020-09-07T16:51:41","slug":"informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/","title":{"rendered":"Informe de cumplimiento de nuestras Normas Comunitarias, Edici\u00f3n de Noviembre de 2019"},"content":{"rendered":"<p><i><span style=\"font-weight: 400\">Por Guy Rosen, Vicepresidente de Integridad<\/span><\/i><\/p>\n<p><span style=\"font-weight: 400\">Hoy publicamos la cuarta edici\u00f3n del Informe de <a href=\"https:\/\/transparency.facebook.com\/community-standards-enforcement\">Cumplimiento de nuestras Normas Comunitarias<\/a>, detallando las acciones del segundo y el tercer trimestre del 2019. Este reporte contempla estad\u00edsticas de diez categor\u00edas en el caso de Facebook y de cuatro para Instagram.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Los datos incluyen:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Prevalencia<\/span><span style=\"font-weight: 400\">: frecuencia con la que es visto contenido que viola nuestras pol\u00edticas.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Acciones sobre el contenido<\/span><span style=\"font-weight: 400\">: volumen de contenido sobre el que actuamos por violar nuestras pol\u00edticas.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Tasa de proactividad<\/span><span style=\"font-weight: 400\">: <\/span><span style=\"font-weight: 400\">cantidad de contenido sobre el que actuamos, y que fue detectado por nuestros sistemas antes de que alguien lo reportara.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Contenido apelado<\/span><span style=\"font-weight: 400\">: cantidad de contenido apelado tras la actuaci\u00f3n inicial.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Contenido restaurado<\/span><span style=\"font-weight: 400\">: cantidad de contenido restaurado tras la actuaci\u00f3n inicial.\u00a0<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Tambi\u00e9n presentamos una <\/span><a href=\"https:\/\/about-fb-preprod.go-vip.net\/enforcement\/\"><span style=\"font-weight: 400\">nueva p\u00e1gina<\/span><\/a><span style=\"font-weight: 400\"> con ejemplos de c\u00f3mo se aplican nuestras Normas Comunitarias sobre los diferentes tipos de contenido, y el lugar donde trazamos la l\u00ednea.\u00a0<\/span><\/p>\n<p><b>Sumamos a Instagram al informe<\/b><\/p>\n<p><span style=\"font-weight: 400\">Por primera vez, incorporamos datos sobre la aplicaci\u00f3n de nuestras pol\u00edticas en Instagram. En este primer informe, proporcionamos estad\u00edsticas en cuatro categor\u00edas: desnudez infantil, explotaci\u00f3n sexual infantil; bienes regulados -espec\u00edficamente, venta il\u00edcita de armas de fuego y drogas-, suicidio y autolesiones; y propaganda terrorista. En esta ocasi\u00f3n no incluimos datos de apelaciones ni contenido restaurado, ya que el sistema que permite recurrir una decisi\u00f3n en Instagram fue introducido en el segundo trimestre de este a\u00f1o. Esa informaci\u00f3n ser\u00e1 incluida en reportes futuros.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Si bien utilizamos los mismos sistemas de detecci\u00f3n proactiva para encontrar y eliminar contenido malicioso en Instagram y Facebook, los datos pueden diferir en ambos servicios. Existen numerosas razones para esto, incluidas diferencias en las funcionalidades de las aplicaciones y c\u00f3mo son usadas -por caso, Instagram no emplea links, compartir m\u00e1s de una vez en el feed, P\u00e1ginas o Grupos-, los diferentes tama\u00f1os de nuestras comunidades, lugares en donde las personas utilizan una aplicaci\u00f3n m\u00e1s que la otra, y d\u00f3nde hemos tenido m\u00e1s capacidad para usar nuestra tecnolog\u00eda de detecci\u00f3n proactiva. Al comparar los datos para identificar nuestro progreso y los lugares donde tenemos que mejorar, recomendamos a las personas analizar c\u00f3mo cambian las mediciones, trimestre a trimestre, en las categor\u00edas individuales dentro de una misma aplicaci\u00f3n.<\/span><\/p>\n<p><b>Otras Novedades de la Cuarta Edici\u00f3n del Reporte<\/b><\/p>\n<p><b>Datos sobre suicidio y autolesiones:<\/b><span style=\"font-weight: 400\"> en este informe comenzamos a detallar la forma en que actuamos sobre el contenido vinculado a suicidios y autolesiones. Esta es un \u00e1rea es sensible y compleja, y trabajamos con especialistas para garantizar que la seguridad de todos sea considerada. Eliminamos el contenido que representa o fomenta el suicidio o la autolesi\u00f3n, incluidas ciertas im\u00e1genes y representaciones en tiempo real que, <a href=\"https:\/\/newsroom.fb.com\/news\/2019\/02\/protecting-people-from-self-harm\/\">seg\u00fan expertos<\/a>, podr\u00edan llevar a otros a comportarse de manera similar. Colocamos una pantalla sobre el contenido que no viola nuestras pol\u00edticas, pero que puede ser delicado para algunas personas, como cortes ya sanados u otros elementos no gr\u00e1ficos acerca de la recuperaci\u00f3n de ese tipo de lesiones. Recientemente, tambi\u00e9n fortalecimos nuestras pol\u00edticas sobre autolesiones y optimizamos nuestra tecnolog\u00eda para encontrar y eliminar contenido violatorio de nuestras normas.<\/span><\/p>\n<ul>\n<li><span style=\"font-family: -apple-system, BlinkMacSystemFont, 'Segoe UI', Roboto, Oxygen-Sans, Ubuntu, Cantarell, 'Helvetica Neue', sans-serif\">En Facebook actuamos sobre aproximadamente 2 millones de piezas de contenido en el segundo trimestre del 2019, de las cuales el 96,1% fue detectado proactivamente. Registramos un progreso mayor en el tercer trimestre, donde eliminamos 2,5 millones de piezas y detectamos de manera proactiva al 97,1%.<\/span><\/li>\n<li>En Instagram, eliminamos aproximadamente 835.000 piezas en el segundo trimestre del 2019, de las cuales el 77,8% fue detectada proactivamente, y en el tercer trimestre del 2019, removimos aproximadamente 845.000 piezas, de las cuales el 79,1% fue detectado proactivamente.<\/li>\n<\/ul>\n<p><b>Ampliaci\u00f3n de datos sobre propaganda terrorista<\/b><span style=\"font-weight: 400\">: nuestra Pol\u00edtica sobre Individuos y Organizaciones Peligrosas proh\u00edbe la presencia de grupos terroristas en nuestros servicios. A la fecha, hemos logrado identificar un amplio espectro de organizaciones terroristas en base a su comportamiento. Los reportes anteriores solo inclu\u00edan nuestro trabajo sobre Al Qaeda, ISIS y sus afiliados, porque enfocamos nuestros esfuerzos de medici\u00f3n en aquellos grupos que representaban la mayor amenaza global. Ahora, ampliamos el reporte para incluir las acciones contra todas las organizaciones terroristas. Detectamos y eliminamos m\u00e1s del 99% del contenido en Facebook asociado con Al Qaeda, ISIS y sus afiliados. La tasa de detecci\u00f3n proactiva de contenido asociado a cualquier organizaci\u00f3n terrorista en Facebook es del 98,5%, y en Instagram, del 92,2%. Continuaremos invirtiendo en t\u00e9cnicas automatizadas para combatir este tipo de contenido y para mejorar nuestras t\u00e1cticas, porque sabemos que los actores maliciosos continuar\u00e1n modificando las suyas.<\/span><\/p>\n<p><b>Estimaci\u00f3n de la prevalencia de contenido vinculado al suicidio, las autolesiones y los bienes regulados<\/b><span style=\"font-weight: 400\">: en este reporte, agregamos por primera vez estad\u00edsticas de prevalencia para contenido que viola nuestras pol\u00edticas sobre suicidio, autolesiones y bienes regulados (venta il\u00edcita de armas de fuego y drogas). Nuestro principal foco es la frecuencia con la que las personas pueden ver contenido violatorio de nuestras pol\u00edticas, y es por eso que medimos la <\/span><i><span style=\"font-weight: 400\">prevalencia<\/span><\/i><span style=\"font-weight: 400\"> o la <\/span><i><span style=\"font-weight: 400\">frecuencia<\/span><\/i><span style=\"font-weight: 400\"> de exposici\u00f3n a este tipo de contenido. En lo que respecta a las categor\u00edas m\u00e1s severas &#8211; desnudez infantil y explotaci\u00f3n sexual de ni\u00f1os, bienes regulados, suicidio y autolesiones, y propaganda terrorista &#8211; la probabilidad de que las personas vean contenido es muy baja, y eliminamos la mayor parte de ese material mucho antes de que las personas lo vean. Como resultado, cuando analizamos una muestra de contenido para medir la tasa de prevalencia de estas categor\u00edas no encontramos suficientes datos, y en ocasiones ni siquiera eso, para construir una estimaci\u00f3n confiable. En cambio, s\u00ed podemos estimar el l\u00edmite m\u00e1ximo de la frecuencia con la que alguien ver\u00e1 contenido de esas categor\u00edas. En el tercer trimestre del 2019, ese valor m\u00e1ximo fue de 0,04%. Esto significa que para cada una de estas categor\u00edas, de cada 10.000 visualizaciones en Facebook o Instagram registradas durante ese per\u00edodo, no m\u00e1s de 4 eran piezas que violaban nuestras pol\u00edticas.<\/span><\/p>\n<ul>\n<li><span style=\"font-family: -apple-system, BlinkMacSystemFont, 'Segoe UI', Roboto, Oxygen-Sans, Ubuntu, Cantarell, 'Helvetica Neue', sans-serif\">Tambi\u00e9n es importante tener en cuenta que cuando la prevalencia es tan baja, que solo nos permite establecer l\u00edmites m\u00e1ximos, ese tope puede cambiar en algunas cent\u00e9simas de un punto porcentual entre los per\u00edodos. Pero esos cambios son muy peque\u00f1os como para marcar una diferencia real en la prevalencia de ese tipo de contenido en la plataforma.<\/span><\/li>\n<\/ul>\n<p><b>Nuestros avances para ayudar a mantener a las personas seguras<\/b><\/p>\n<p><span style=\"font-weight: 400\">Seguimos fortaleciendo nuestros esfuerzos para aplicar nuestras pol\u00edticas y brindar una mayor transparencia en todas las categor\u00edas m\u00e1s nocivas. Este progreso se refleja en las categor\u00edas de suicidio y autolesiones, propaganda terrorista, desnudez infantil y explotaci\u00f3n sexual de ni\u00f1os, y de bienes regulados. Las inversiones que realizamos en inteligencia artificial a lo largo de los \u00faltimos cinco a\u00f1os contin\u00faan siendo un factor clave para abordar estos problemas. De hecho, <a href=\"https:\/\/ai.facebook.com\/blog\/community-standards-report\">los avances<\/a> recientes en esta tecnolog\u00eda han ayudado a detectar y eliminar contenido violatorio de nuestras normas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">En materia de <\/span><b>desnudez infantil y explotaci\u00f3n sexual de ni\u00f1os<\/b><span style=\"font-weight: 400\">, hemos mejorado nuestros procesos mediante los cuales agregamos distintas violaciones a nuestra base de datos interna con el fin de detectar y eliminar instancias adicionales del mismo contenido compartido en Facebook e Instagram, lo que nos permite identificar y remover m\u00e1s contenido no permitido.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En Facebook:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">En el tercer trimestre del 2019, eliminamos aproximadamente 11,6 millones de piezas de contenido, en comparaci\u00f3n con el primer trimestre de ese mismo a\u00f1o, cuando removimos aproximadamente 5,8 millones. Durante los \u00faltimos cuatro trimestres, detectamos proactivamente m\u00e1s del 99% del contenido que eliminamos por violar esta pol\u00edtica.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Si bien incluimos datos de Instagram por primera vez, en estas categor\u00edas hemos aumentado tanto nuestras acciones como la tasa de proactividad en los \u00faltimos dos trimestres:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">En el segundo trimestre del 2019, eliminamos unas 512.000 piezas, de las cuales el 92,5% fueron detectadas proactivamente.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">En el tercer trimestre, registramos un mayor progreso y eliminamos 754.000 piezas, con el 94,6% detectadas proactivamente.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Para nuestra <\/span><b>pol\u00edtica sobre bienes regulados, <\/b><span style=\"font-weight: 400\">que proh\u00edbe la venta il\u00edcita de armas de fuego y drogas, la constante inversi\u00f3n en sistemas de detecci\u00f3n proactiva y los avances en nuestras t\u00e9cnicas de aplicaci\u00f3n nos han permitido progresar desde el informe anterior.<\/span><\/p>\n<p><span style=\"font-weight: 400\">En Facebook:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">En el tercer trimestre del 2019, eliminamos cerca de 4,4 millones de piezas ligadas a la venta de drogas, con una tasa de detecci\u00f3n proactiva del 97,6%, por encima de las cerca de 841.000 piezas removidas en el primer trimestre del a\u00f1o, con una tasa del 84,4% de detecci\u00f3n proactiva.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Tambi\u00e9n en el tercer trimestre del 2019 eliminamos aproximadamente 2,3 millones de piezas sobre ventas de armas de fuego, con una tasa de detecci\u00f3n proactiva del 97,3%, superando las 609.000 piezas del primer trimestre de ese mismo a\u00f1o, con una tasa de detecci\u00f3n proactiva del 69,9%.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">En Instagram:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">En el tercer trimestre de 2019, eliminamos aproximadamente 1,5 millones de piezas asociadas a la venta de drogas, con una tasa de detecci\u00f3n proactiva del 95,6%.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">En el tercer trimestre de 2019, removimos unas 58.600 piezas sobre ventas de armas de fuego, con una tasa de detecci\u00f3n proactiva del 91,3%.<\/span><\/li>\n<\/ul>\n<p><b>Nuevas t\u00e1cticas para combatir el discurso del odio<\/b><\/p>\n<p><span style=\"font-weight: 400\">En los \u00faltimos dos a\u00f1os, invertimos en la detecci\u00f3n proactiva del discurso de odio para poder identificar este contenido antes de que sea reportado, o incluso antes de que alguien lo vea. Nuestras t\u00e9cnicas de detecci\u00f3n incluyen <\/span><i><span style=\"font-weight: 400\">matching<\/span><\/i><span style=\"font-weight: 400\"> de texto e imagen, lo que nos permite identificar im\u00e1genes y cadenas id\u00e9nticas de texto que ya han sido eliminadas por contenter discurso de odio<\/span><span style=\"font-weight: 400\">; y<\/span><span style=\"font-weight: 400\"> clasificadores de aprendizaje autom\u00e1tico que analizan el lenguaje, o las reacciones y comentarios a una publicaci\u00f3n, para evaluar qu\u00e9 tanto coinciden con frases, patrones y ataques comunes que ya hemos identificado en el pasado.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Inicialmente, utilizamos estos sistemas para detectar proactivamente posible discurso de odio y enviarlo a nuestros equipos de revisi\u00f3n de contenido, ya que las personas pueden interpretar el contexto de una publicaci\u00f3n con m\u00e1s precisi\u00f3n que la inteligencia artificial. A partir del segundo trimestre del 2019, gracias al progreso de nuestros sistemas, comenzamos a eliminar textos o im\u00e1genes en forma autom\u00e1tica en casos donde el contenido es id\u00e9ntico, o casi id\u00e9ntico, a uno ya eliminado previamente por nuestro equipo de revisi\u00f3n humana. Solo usamos esta pr\u00e1ctica en casos espec\u00edficos, gracias a que nuestros sistemas automatizados han sido entrenados con cientos de miles, sino millones, de diferentes ejemplos de contenido violatorio y ataques comunes. En todos los dem\u00e1s casos, cuando nuestros sistemas detectan posible discurso de odio, el contenido a\u00fan es cursado a nuestros equipos de revisi\u00f3n para una decisi\u00f3n final. Con estas mejoras, nuestra tasa de proactividad ha aumentado al 80% (desde\u00a0 el 68% del \u00faltimo informe) y hemos aumentado la cantidad de volumen de contenido que encontramos y eliminamos por violar nuestras pol\u00edticas contra el discurso de odio.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Si bien estamos satisfechos con este progreso, este tipo de tecnolog\u00eda no es perfecta y pueden producirse errores. Es por eso que continuaremos invirtiendo en sistemas que nos permitan mejorar nuestra precisi\u00f3n en la remoci\u00f3n\u00a0 de contenido que viole nuestras pol\u00edticas y salvaguardar el contenido que debate o condena el discurso de odio. De manera similar a como examinamos las decisiones tomadas por nuestros equipos de revisi\u00f3n de contenido para asegurar la precisi\u00f3n de nuestras decisiones, tambi\u00e9n analizamos rutinariamente los contenidos eliminados por nuestros sistemas automatizados. Tambi\u00e9n seguimos revisando contenido cuando nuestras decisiones son apeladas y nos comunican que cometimos un error al eliminar su publicaci\u00f3n.<\/span><\/p>\n<p><b>Actualizamos nuestras estad\u00edsticas<\/b><\/p>\n<p><span style=\"font-weight: 400\">Desde nuestro \u00faltimo informe, hemos mejorado la forma en que medimos la cantidad de contenido sobre el que actuamos despu\u00e9s de identificar un problema en nuestras mediciones. En esta ocasi\u00f3n, estamos actualizando los n\u00fameros previos del contenido sobre el que actuamos, la tasa de proactividad, el contenido que fue apelado, y el que fue restaurado, para el per\u00edodo entre el tercer trimestre del 2018 y el primer trimestre del 2019.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Durante esos trimestres, el problema con nuestros procesos contables no afect\u00f3 la forma en que aplicamos nuestras pol\u00edticas o c\u00f3mo informamos a las personas sobre esas acciones; solo impact\u00f3 en c\u00f3mo contamos nuestras intervenciones. Por ejemplo, si descubrimos que una publicaci\u00f3n que contiene una foto viola nuestras pol\u00edticas, queremos que nuestra medici\u00f3n refleje que actuamos sobre una pieza de contenido, y no dos acciones diferentes para eliminar la foto y la publicaci\u00f3n. Sin embargo, en julio del 2019, descubrimos que los sistemas que registran y cuentan estas acciones no las contabilizaron correctamente, debido en gran medida a la necesidad de contar varias acciones que ocurren en unos pocos milisegundos y no omitir, ni exagerar, ninguna de las acciones individuales tomadas.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Continuaremos refinando los procesos para construir un sistema robusto que garantice estad\u00edsticas precisas. Compartimos m\u00e1s detalles sobre estos procesos <\/span><a href=\"https:\/\/research.fb.com\/blog\/2019\/11\/information-quality-processes-for-community-standards-violations-metrics\/\"><span style=\"font-weight: 400\">aqu\u00ed<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<p>Informaci\u00f3n adicional sobre estad\u00edsticas de remoci\u00f3n de contenido ligadas al ataque en Christchurch <a href=\"https:\/\/www.facebook.com\/notes\/facebook-australia-new-zealand-policy\/an-update-on-content-removals-following-the-christchurch-attack\/2472694583057800\/?_rdc=1&amp;_rdr\">aqu\u00ed<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Por Guy Rosen, Vicepresidente de Integridad Hoy publicamos la cuarta edici\u00f3n del Informe de Cumplimiento de nuestras Normas Comunitarias, detallando las acciones del segundo y el tercer trimestre del 2019. Este reporte contempla estad\u00edsticas de diez categor\u00edas en el caso de Facebook y de cuatro para Instagram.\u00a0 Los datos incluyen: Prevalencia: frecuencia con la que es visto contenido que viola nuestras pol\u00edticas. Acciones sobre el contenido: volumen de contenido sobre el que actuamos por violar nuestras pol\u00edticas. Tasa de proactividad: cantidad de contenido sobre el que actuamos, y que fue detectado por nuestros sistemas antes de que alguien lo reportara. Contenido apelado: cantidad de contenido apelado tras la actuaci\u00f3n inicial. Contenido restaurado: cantidad de contenido restaurado tras la actuaci\u00f3n inicial.\u00a0 Tambi\u00e9n presentamos una nueva p\u00e1gina con ejemplos de c\u00f3mo se aplican nuestras Normas Comunitarias sobre los diferentes tipos de contenido, y el lugar donde trazamos la l\u00ednea.\u00a0 Sumamos a Instagram al informe Por primera vez, incorporamos datos sobre la aplicaci\u00f3n de nuestras pol\u00edticas en Instagram. En este primer informe, proporcionamos estad\u00edsticas en cuatro categor\u00edas: desnudez infantil, explotaci\u00f3n sexual infantil; bienes regulados -espec\u00edficamente, venta il\u00edcita de armas de fuego y drogas-, suicidio y autolesiones; y propaganda terrorista. En esta ocasi\u00f3n no incluimos datos de apelaciones ni contenido restaurado, ya que el sistema que permite recurrir una decisi\u00f3n en Instagram fue introducido en el segundo trimestre de este a\u00f1o. Esa informaci\u00f3n ser\u00e1 incluida en reportes futuros. Si bien utilizamos los mismos sistemas de detecci\u00f3n proactiva para encontrar y eliminar contenido malicioso en Instagram y Facebook, los datos pueden diferir en ambos servicios. Existen numerosas razones para esto, incluidas diferencias en las funcionalidades de las aplicaciones y c\u00f3mo son usadas -por caso, Instagram no emplea links, compartir m\u00e1s de una vez en el feed, P\u00e1ginas o Grupos-, los diferentes tama\u00f1os de nuestras comunidades, lugares en donde las personas utilizan una aplicaci\u00f3n m\u00e1s que la otra, y d\u00f3nde hemos tenido m\u00e1s capacidad para usar nuestra tecnolog\u00eda de detecci\u00f3n proactiva. Al comparar los datos para identificar nuestro progreso y los lugares donde tenemos que mejorar, recomendamos a las personas analizar c\u00f3mo cambian las mediciones, trimestre a trimestre, en las categor\u00edas individuales dentro de una misma aplicaci\u00f3n. Otras Novedades de la Cuarta Edici\u00f3n del Reporte Datos sobre suicidio y autolesiones: en este informe comenzamos a detallar la forma en que actuamos sobre el contenido vinculado a suicidios y autolesiones. Esta es un \u00e1rea es sensible y compleja, y trabajamos con especialistas para garantizar que la seguridad de todos sea considerada. Eliminamos el contenido que representa o fomenta el suicidio o la autolesi\u00f3n, incluidas ciertas im\u00e1genes y representaciones en tiempo real que, seg\u00fan expertos, podr\u00edan llevar a otros a comportarse de manera similar. Colocamos una pantalla sobre el contenido que no viola nuestras pol\u00edticas, pero que puede ser delicado para algunas personas, como cortes ya sanados u otros elementos no gr\u00e1ficos acerca de la recuperaci\u00f3n de ese tipo de lesiones. Recientemente, tambi\u00e9n fortalecimos nuestras pol\u00edticas sobre autolesiones y optimizamos nuestra tecnolog\u00eda para encontrar y eliminar contenido violatorio de nuestras normas. En Facebook actuamos sobre aproximadamente 2 millones de piezas de contenido en el segundo trimestre del 2019, de las cuales el 96,1% fue detectado proactivamente. Registramos un progreso mayor en el tercer trimestre, donde eliminamos 2,5 millones de piezas y detectamos de manera proactiva al 97,1%. En Instagram, eliminamos aproximadamente 835.000 piezas en el segundo trimestre del 2019, de las cuales el 77,8% fue detectada proactivamente, y en el tercer trimestre del 2019, removimos aproximadamente 845.000 piezas, de las cuales el 79,1% fue detectado proactivamente. Ampliaci\u00f3n de datos sobre propaganda terrorista: nuestra Pol\u00edtica sobre Individuos y Organizaciones Peligrosas proh\u00edbe la presencia de grupos terroristas en nuestros servicios. A la fecha, hemos logrado identificar un amplio espectro de organizaciones terroristas en base a su comportamiento. Los reportes anteriores solo inclu\u00edan nuestro trabajo sobre Al Qaeda, ISIS y sus afiliados, porque enfocamos nuestros esfuerzos de medici\u00f3n en aquellos grupos que representaban la mayor amenaza global. Ahora, ampliamos el reporte para incluir las acciones contra todas las organizaciones terroristas. Detectamos y eliminamos m\u00e1s del 99% del contenido en Facebook asociado con Al Qaeda, ISIS y sus afiliados. La tasa de detecci\u00f3n proactiva de contenido asociado a cualquier organizaci\u00f3n terrorista en Facebook es del 98,5%, y en Instagram, del 92,2%. Continuaremos invirtiendo en t\u00e9cnicas automatizadas para combatir este tipo de contenido y para mejorar nuestras t\u00e1cticas, porque sabemos que los actores maliciosos continuar\u00e1n modificando las suyas. Estimaci\u00f3n de la prevalencia de contenido vinculado al suicidio, las autolesiones y los bienes regulados: en este reporte, agregamos por primera vez estad\u00edsticas de prevalencia para contenido que viola nuestras pol\u00edticas sobre suicidio, autolesiones y bienes regulados (venta il\u00edcita de armas de fuego y drogas). Nuestro principal foco es la frecuencia con la que las personas pueden ver contenido violatorio de nuestras pol\u00edticas, y es por eso que medimos la prevalencia o la frecuencia de exposici\u00f3n a este tipo de contenido. En lo que respecta a las categor\u00edas m\u00e1s severas &#8211; desnudez infantil y explotaci\u00f3n sexual de ni\u00f1os, bienes regulados, suicidio y autolesiones, y propaganda terrorista &#8211; la probabilidad de que las personas vean contenido es muy baja, y eliminamos la mayor parte de ese material mucho antes de que las personas lo vean. Como resultado, cuando analizamos una muestra de contenido para medir la tasa de prevalencia de estas categor\u00edas no encontramos suficientes datos, y en ocasiones ni siquiera eso, para construir una estimaci\u00f3n confiable. En cambio, s\u00ed podemos estimar el l\u00edmite m\u00e1ximo de la frecuencia con la que alguien ver\u00e1 contenido de esas categor\u00edas. En el tercer trimestre del 2019, ese valor m\u00e1ximo fue de 0,04%. Esto significa que para cada una de estas categor\u00edas, de cada 10.000 visualizaciones en Facebook o Instagram registradas durante ese per\u00edodo, no m\u00e1s de 4 eran piezas que violaban nuestras pol\u00edticas. Tambi\u00e9n es importante tener en cuenta que cuando la prevalencia es tan baja, que solo nos permite establecer l\u00edmites m\u00e1ximos, ese tope puede cambiar en algunas cent\u00e9simas de un punto porcentual entre los per\u00edodos. Pero esos cambios son muy peque\u00f1os como para marcar una diferencia real en la prevalencia de ese tipo de contenido en la plataforma. Nuestros avances para ayudar a mantener a las personas seguras Seguimos fortaleciendo nuestros esfuerzos para aplicar nuestras pol\u00edticas y brindar una mayor transparencia en todas las categor\u00edas m\u00e1s nocivas. Este progreso se refleja en las categor\u00edas de suicidio y autolesiones, propaganda terrorista, desnudez infantil y explotaci\u00f3n sexual de ni\u00f1os, y de bienes regulados. Las inversiones que realizamos en inteligencia artificial a lo largo de los \u00faltimos cinco a\u00f1os contin\u00faan siendo un factor clave para abordar estos problemas. De hecho, los avances recientes en esta tecnolog\u00eda han ayudado a detectar y eliminar contenido violatorio de nuestras normas.\u00a0 En materia de desnudez infantil y explotaci\u00f3n sexual de ni\u00f1os, hemos mejorado nuestros procesos mediante los cuales agregamos distintas violaciones a nuestra base de datos interna con el fin de detectar y eliminar instancias adicionales del mismo contenido compartido en Facebook e Instagram, lo que nos permite identificar y remover m\u00e1s contenido no permitido. En Facebook: En el tercer trimestre del 2019, eliminamos aproximadamente 11,6 millones de piezas de contenido, en comparaci\u00f3n con el primer trimestre de ese mismo a\u00f1o, cuando removimos aproximadamente 5,8 millones. Durante los \u00faltimos cuatro trimestres, detectamos proactivamente m\u00e1s del 99% del contenido que eliminamos por violar esta pol\u00edtica. Si bien incluimos datos de Instagram por primera vez, en estas categor\u00edas hemos aumentado tanto nuestras acciones como la tasa de proactividad en los \u00faltimos dos trimestres: En el segundo trimestre del 2019, eliminamos unas 512.000 piezas, de las cuales el 92,5% fueron detectadas proactivamente. En el tercer trimestre, registramos un mayor progreso y eliminamos 754.000 piezas, con el 94,6% detectadas proactivamente. Para nuestra pol\u00edtica sobre bienes regulados, que proh\u00edbe la venta il\u00edcita de armas de fuego y drogas, la constante inversi\u00f3n en sistemas de detecci\u00f3n proactiva y los avances en nuestras t\u00e9cnicas de aplicaci\u00f3n nos han permitido progresar desde el informe anterior. En Facebook: En el tercer trimestre del 2019, eliminamos cerca de 4,4 millones de piezas ligadas a la venta de drogas, con una tasa de detecci\u00f3n proactiva del 97,6%, por encima de las cerca de 841.000 piezas removidas en el primer trimestre del a\u00f1o, con una tasa del 84,4% de detecci\u00f3n proactiva. Tambi\u00e9n en el tercer trimestre del 2019 eliminamos aproximadamente 2,3 millones de piezas sobre ventas de armas de fuego, con una tasa de detecci\u00f3n proactiva del 97,3%, superando las 609.000 piezas del primer trimestre de ese mismo a\u00f1o, con una tasa de detecci\u00f3n proactiva del 69,9%. En Instagram: En el tercer trimestre de 2019, eliminamos aproximadamente 1,5 millones de piezas asociadas a la venta de drogas, con una tasa de detecci\u00f3n proactiva del 95,6%. En el tercer trimestre de 2019, removimos unas 58.600 piezas sobre ventas de armas de fuego, con una tasa de detecci\u00f3n proactiva del 91,3%. Nuevas t\u00e1cticas para combatir el discurso del odio En los \u00faltimos dos a\u00f1os, invertimos en la detecci\u00f3n proactiva del discurso de odio para poder identificar este contenido antes de que sea reportado, o incluso antes de que alguien lo vea. Nuestras t\u00e9cnicas de detecci\u00f3n incluyen matching de texto e imagen, lo que nos permite identificar im\u00e1genes y cadenas id\u00e9nticas de texto que ya han sido eliminadas por contenter discurso de odio; y clasificadores de aprendizaje autom\u00e1tico que analizan el lenguaje, o las reacciones y comentarios a una publicaci\u00f3n, para evaluar qu\u00e9 tanto coinciden con frases, patrones y ataques comunes que ya hemos identificado en el pasado. Inicialmente, utilizamos estos sistemas para detectar proactivamente posible discurso de odio y enviarlo a nuestros equipos de revisi\u00f3n de contenido, ya que las personas pueden interpretar el contexto de una publicaci\u00f3n con m\u00e1s precisi\u00f3n que la inteligencia artificial. A partir del segundo trimestre del 2019, gracias al progreso de nuestros sistemas, comenzamos a eliminar textos o im\u00e1genes en forma autom\u00e1tica en casos donde el contenido es id\u00e9ntico, o casi id\u00e9ntico, a uno ya eliminado previamente por nuestro equipo de revisi\u00f3n humana. Solo usamos esta pr\u00e1ctica en casos espec\u00edficos, gracias a que nuestros sistemas automatizados han sido entrenados con cientos de miles, sino millones, de diferentes ejemplos de contenido violatorio y ataques comunes. En todos los dem\u00e1s casos, cuando nuestros sistemas detectan posible discurso de odio, el contenido a\u00fan es cursado a nuestros equipos de revisi\u00f3n para una decisi\u00f3n final. Con estas mejoras, nuestra tasa de proactividad ha aumentado al 80% (desde\u00a0 el 68% del \u00faltimo informe) y hemos aumentado la cantidad de volumen de contenido que encontramos y eliminamos por violar nuestras pol\u00edticas contra el discurso de odio. Si bien estamos satisfechos con este progreso, este tipo de tecnolog\u00eda no es perfecta y pueden producirse errores. Es por eso que continuaremos invirtiendo en sistemas que nos permitan mejorar nuestra precisi\u00f3n en la remoci\u00f3n\u00a0 de contenido que viole nuestras pol\u00edticas y salvaguardar el contenido que debate o condena el discurso de odio. De manera similar a como examinamos las decisiones tomadas por nuestros equipos de revisi\u00f3n de contenido para asegurar la precisi\u00f3n de nuestras decisiones, tambi\u00e9n analizamos rutinariamente los contenidos eliminados por nuestros sistemas automatizados. Tambi\u00e9n seguimos revisando contenido cuando nuestras decisiones son apeladas y nos comunican que cometimos un error al eliminar su publicaci\u00f3n. Actualizamos nuestras estad\u00edsticas Desde nuestro \u00faltimo informe, hemos mejorado la forma en que medimos la cantidad de contenido sobre el que actuamos despu\u00e9s de identificar un problema en nuestras mediciones. En esta ocasi\u00f3n, estamos actualizando los n\u00fameros previos del contenido sobre el que actuamos, la tasa de proactividad, el contenido que fue apelado, y el que fue restaurado, para el per\u00edodo entre el tercer trimestre del 2018 y el primer trimestre del 2019. Durante esos trimestres, el problema con nuestros procesos contables no afect\u00f3 la forma en que aplicamos nuestras pol\u00edticas o c\u00f3mo informamos a las personas sobre esas acciones; solo impact\u00f3 en c\u00f3mo contamos nuestras intervenciones. Por ejemplo, si descubrimos que una publicaci\u00f3n que contiene una foto viola nuestras pol\u00edticas, queremos que nuestra medici\u00f3n refleje que actuamos sobre una pieza de contenido, y no dos acciones diferentes para eliminar la foto y la publicaci\u00f3n. Sin embargo, en julio del 2019, descubrimos que los sistemas que registran y cuentan estas acciones no las contabilizaron correctamente, debido en gran medida a la necesidad de contar varias acciones que ocurren en unos pocos milisegundos y no omitir, ni exagerar, ninguna de las acciones individuales tomadas.\u00a0 Continuaremos refinando los procesos para construir un sistema robusto que garantice estad\u00edsticas precisas. Compartimos m\u00e1s detalles sobre estos procesos aqu\u00ed. Informaci\u00f3n adicional sobre estad\u00edsticas de remoci\u00f3n de contenido ligadas al ataque en Christchurch aqu\u00ed","protected":false},"author":4947538,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[1],"tags":[243948072],"class_list":["post-8098","post","type-post","status-publish","format-standard","hentry","category-uncategorized","tag-portabilidad-de-datos"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Informe de cumplimiento de nuestras Normas Comunitarias, Edici\u00f3n de Noviembre de 2019 | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Informe de cumplimiento de nuestras Normas Comunitarias, Edici\u00f3n de Noviembre de 2019 | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Por Guy Rosen, Vicepresidente de Integridad Hoy publicamos la cuarta edici\u00f3n del Informe de Cumplimiento de nuestras Normas Comunitarias, detallando las acciones del segundo y el tercer trimestre del 2019. Este reporte contempla estad\u00edsticas de diez categor\u00edas en el caso de Facebook y de cuatro para Instagram.\u00a0 Los datos incluyen: Prevalencia: frecuencia con la que es visto contenido que viola nuestras pol\u00edticas. Acciones sobre el contenido: volumen de contenido sobre el que actuamos por violar nuestras pol\u00edticas. Tasa de proactividad: cantidad de contenido sobre el que actuamos, y que fue detectado por nuestros sistemas antes de que alguien lo reportara. Contenido apelado: cantidad de contenido apelado tras la actuaci\u00f3n inicial. Contenido restaurado: cantidad de contenido restaurado tras la actuaci\u00f3n inicial.\u00a0 Tambi\u00e9n presentamos una nueva p\u00e1gina con ejemplos de c\u00f3mo se aplican nuestras Normas Comunitarias sobre los diferentes tipos de contenido, y el lugar donde trazamos la l\u00ednea.\u00a0 Sumamos a Instagram al informe Por primera vez, incorporamos datos sobre la aplicaci\u00f3n de nuestras pol\u00edticas en Instagram. En este primer informe, proporcionamos estad\u00edsticas en cuatro categor\u00edas: desnudez infantil, explotaci\u00f3n sexual infantil; bienes regulados -espec\u00edficamente, venta il\u00edcita de armas de fuego y drogas-, suicidio y autolesiones; y propaganda terrorista. En esta ocasi\u00f3n no incluimos datos de apelaciones ni contenido restaurado, ya que el sistema que permite recurrir una decisi\u00f3n en Instagram fue introducido en el segundo trimestre de este a\u00f1o. Esa informaci\u00f3n ser\u00e1 incluida en reportes futuros. Si bien utilizamos los mismos sistemas de detecci\u00f3n proactiva para encontrar y eliminar contenido malicioso en Instagram y Facebook, los datos pueden diferir en ambos servicios. Existen numerosas razones para esto, incluidas diferencias en las funcionalidades de las aplicaciones y c\u00f3mo son usadas -por caso, Instagram no emplea links, compartir m\u00e1s de una vez en el feed, P\u00e1ginas o Grupos-, los diferentes tama\u00f1os de nuestras comunidades, lugares en donde las personas utilizan una aplicaci\u00f3n m\u00e1s que la otra, y d\u00f3nde hemos tenido m\u00e1s capacidad para usar nuestra tecnolog\u00eda de detecci\u00f3n proactiva. Al comparar los datos para identificar nuestro progreso y los lugares donde tenemos que mejorar, recomendamos a las personas analizar c\u00f3mo cambian las mediciones, trimestre a trimestre, en las categor\u00edas individuales dentro de una misma aplicaci\u00f3n. Otras Novedades de la Cuarta Edici\u00f3n del Reporte Datos sobre suicidio y autolesiones: en este informe comenzamos a detallar la forma en que actuamos sobre el contenido vinculado a suicidios y autolesiones. Esta es un \u00e1rea es sensible y compleja, y trabajamos con especialistas para garantizar que la seguridad de todos sea considerada. Eliminamos el contenido que representa o fomenta el suicidio o la autolesi\u00f3n, incluidas ciertas im\u00e1genes y representaciones en tiempo real que, seg\u00fan expertos, podr\u00edan llevar a otros a comportarse de manera similar. Colocamos una pantalla sobre el contenido que no viola nuestras pol\u00edticas, pero que puede ser delicado para algunas personas, como cortes ya sanados u otros elementos no gr\u00e1ficos acerca de la recuperaci\u00f3n de ese tipo de lesiones. Recientemente, tambi\u00e9n fortalecimos nuestras pol\u00edticas sobre autolesiones y optimizamos nuestra tecnolog\u00eda para encontrar y eliminar contenido violatorio de nuestras normas. En Facebook actuamos sobre aproximadamente 2 millones de piezas de contenido en el segundo trimestre del 2019, de las cuales el 96,1% fue detectado proactivamente. Registramos un progreso mayor en el tercer trimestre, donde eliminamos 2,5 millones de piezas y detectamos de manera proactiva al 97,1%. En Instagram, eliminamos aproximadamente 835.000 piezas en el segundo trimestre del 2019, de las cuales el 77,8% fue detectada proactivamente, y en el tercer trimestre del 2019, removimos aproximadamente 845.000 piezas, de las cuales el 79,1% fue detectado proactivamente. Ampliaci\u00f3n de datos sobre propaganda terrorista: nuestra Pol\u00edtica sobre Individuos y Organizaciones Peligrosas proh\u00edbe la presencia de grupos terroristas en nuestros servicios. A la fecha, hemos logrado identificar un amplio espectro de organizaciones terroristas en base a su comportamiento. Los reportes anteriores solo inclu\u00edan nuestro trabajo sobre Al Qaeda, ISIS y sus afiliados, porque enfocamos nuestros esfuerzos de medici\u00f3n en aquellos grupos que representaban la mayor amenaza global. Ahora, ampliamos el reporte para incluir las acciones contra todas las organizaciones terroristas. Detectamos y eliminamos m\u00e1s del 99% del contenido en Facebook asociado con Al Qaeda, ISIS y sus afiliados. La tasa de detecci\u00f3n proactiva de contenido asociado a cualquier organizaci\u00f3n terrorista en Facebook es del 98,5%, y en Instagram, del 92,2%. Continuaremos invirtiendo en t\u00e9cnicas automatizadas para combatir este tipo de contenido y para mejorar nuestras t\u00e1cticas, porque sabemos que los actores maliciosos continuar\u00e1n modificando las suyas. Estimaci\u00f3n de la prevalencia de contenido vinculado al suicidio, las autolesiones y los bienes regulados: en este reporte, agregamos por primera vez estad\u00edsticas de prevalencia para contenido que viola nuestras pol\u00edticas sobre suicidio, autolesiones y bienes regulados (venta il\u00edcita de armas de fuego y drogas). Nuestro principal foco es la frecuencia con la que las personas pueden ver contenido violatorio de nuestras pol\u00edticas, y es por eso que medimos la prevalencia o la frecuencia de exposici\u00f3n a este tipo de contenido. En lo que respecta a las categor\u00edas m\u00e1s severas &#8211; desnudez infantil y explotaci\u00f3n sexual de ni\u00f1os, bienes regulados, suicidio y autolesiones, y propaganda terrorista &#8211; la probabilidad de que las personas vean contenido es muy baja, y eliminamos la mayor parte de ese material mucho antes de que las personas lo vean. Como resultado, cuando analizamos una muestra de contenido para medir la tasa de prevalencia de estas categor\u00edas no encontramos suficientes datos, y en ocasiones ni siquiera eso, para construir una estimaci\u00f3n confiable. En cambio, s\u00ed podemos estimar el l\u00edmite m\u00e1ximo de la frecuencia con la que alguien ver\u00e1 contenido de esas categor\u00edas. En el tercer trimestre del 2019, ese valor m\u00e1ximo fue de 0,04%. Esto significa que para cada una de estas categor\u00edas, de cada 10.000 visualizaciones en Facebook o Instagram registradas durante ese per\u00edodo, no m\u00e1s de 4 eran piezas que violaban nuestras pol\u00edticas. Tambi\u00e9n es importante tener en cuenta que cuando la prevalencia es tan baja, que solo nos permite establecer l\u00edmites m\u00e1ximos, ese tope puede cambiar en algunas cent\u00e9simas de un punto porcentual entre los per\u00edodos. Pero esos cambios son muy peque\u00f1os como para marcar una diferencia real en la prevalencia de ese tipo de contenido en la plataforma. Nuestros avances para ayudar a mantener a las personas seguras Seguimos fortaleciendo nuestros esfuerzos para aplicar nuestras pol\u00edticas y brindar una mayor transparencia en todas las categor\u00edas m\u00e1s nocivas. Este progreso se refleja en las categor\u00edas de suicidio y autolesiones, propaganda terrorista, desnudez infantil y explotaci\u00f3n sexual de ni\u00f1os, y de bienes regulados. Las inversiones que realizamos en inteligencia artificial a lo largo de los \u00faltimos cinco a\u00f1os contin\u00faan siendo un factor clave para abordar estos problemas. De hecho, los avances recientes en esta tecnolog\u00eda han ayudado a detectar y eliminar contenido violatorio de nuestras normas.\u00a0 En materia de desnudez infantil y explotaci\u00f3n sexual de ni\u00f1os, hemos mejorado nuestros procesos mediante los cuales agregamos distintas violaciones a nuestra base de datos interna con el fin de detectar y eliminar instancias adicionales del mismo contenido compartido en Facebook e Instagram, lo que nos permite identificar y remover m\u00e1s contenido no permitido. En Facebook: En el tercer trimestre del 2019, eliminamos aproximadamente 11,6 millones de piezas de contenido, en comparaci\u00f3n con el primer trimestre de ese mismo a\u00f1o, cuando removimos aproximadamente 5,8 millones. Durante los \u00faltimos cuatro trimestres, detectamos proactivamente m\u00e1s del 99% del contenido que eliminamos por violar esta pol\u00edtica. Si bien incluimos datos de Instagram por primera vez, en estas categor\u00edas hemos aumentado tanto nuestras acciones como la tasa de proactividad en los \u00faltimos dos trimestres: En el segundo trimestre del 2019, eliminamos unas 512.000 piezas, de las cuales el 92,5% fueron detectadas proactivamente. En el tercer trimestre, registramos un mayor progreso y eliminamos 754.000 piezas, con el 94,6% detectadas proactivamente. Para nuestra pol\u00edtica sobre bienes regulados, que proh\u00edbe la venta il\u00edcita de armas de fuego y drogas, la constante inversi\u00f3n en sistemas de detecci\u00f3n proactiva y los avances en nuestras t\u00e9cnicas de aplicaci\u00f3n nos han permitido progresar desde el informe anterior. En Facebook: En el tercer trimestre del 2019, eliminamos cerca de 4,4 millones de piezas ligadas a la venta de drogas, con una tasa de detecci\u00f3n proactiva del 97,6%, por encima de las cerca de 841.000 piezas removidas en el primer trimestre del a\u00f1o, con una tasa del 84,4% de detecci\u00f3n proactiva. Tambi\u00e9n en el tercer trimestre del 2019 eliminamos aproximadamente 2,3 millones de piezas sobre ventas de armas de fuego, con una tasa de detecci\u00f3n proactiva del 97,3%, superando las 609.000 piezas del primer trimestre de ese mismo a\u00f1o, con una tasa de detecci\u00f3n proactiva del 69,9%. En Instagram: En el tercer trimestre de 2019, eliminamos aproximadamente 1,5 millones de piezas asociadas a la venta de drogas, con una tasa de detecci\u00f3n proactiva del 95,6%. En el tercer trimestre de 2019, removimos unas 58.600 piezas sobre ventas de armas de fuego, con una tasa de detecci\u00f3n proactiva del 91,3%. Nuevas t\u00e1cticas para combatir el discurso del odio En los \u00faltimos dos a\u00f1os, invertimos en la detecci\u00f3n proactiva del discurso de odio para poder identificar este contenido antes de que sea reportado, o incluso antes de que alguien lo vea. Nuestras t\u00e9cnicas de detecci\u00f3n incluyen matching de texto e imagen, lo que nos permite identificar im\u00e1genes y cadenas id\u00e9nticas de texto que ya han sido eliminadas por contenter discurso de odio; y clasificadores de aprendizaje autom\u00e1tico que analizan el lenguaje, o las reacciones y comentarios a una publicaci\u00f3n, para evaluar qu\u00e9 tanto coinciden con frases, patrones y ataques comunes que ya hemos identificado en el pasado. Inicialmente, utilizamos estos sistemas para detectar proactivamente posible discurso de odio y enviarlo a nuestros equipos de revisi\u00f3n de contenido, ya que las personas pueden interpretar el contexto de una publicaci\u00f3n con m\u00e1s precisi\u00f3n que la inteligencia artificial. A partir del segundo trimestre del 2019, gracias al progreso de nuestros sistemas, comenzamos a eliminar textos o im\u00e1genes en forma autom\u00e1tica en casos donde el contenido es id\u00e9ntico, o casi id\u00e9ntico, a uno ya eliminado previamente por nuestro equipo de revisi\u00f3n humana. Solo usamos esta pr\u00e1ctica en casos espec\u00edficos, gracias a que nuestros sistemas automatizados han sido entrenados con cientos de miles, sino millones, de diferentes ejemplos de contenido violatorio y ataques comunes. En todos los dem\u00e1s casos, cuando nuestros sistemas detectan posible discurso de odio, el contenido a\u00fan es cursado a nuestros equipos de revisi\u00f3n para una decisi\u00f3n final. Con estas mejoras, nuestra tasa de proactividad ha aumentado al 80% (desde\u00a0 el 68% del \u00faltimo informe) y hemos aumentado la cantidad de volumen de contenido que encontramos y eliminamos por violar nuestras pol\u00edticas contra el discurso de odio. Si bien estamos satisfechos con este progreso, este tipo de tecnolog\u00eda no es perfecta y pueden producirse errores. Es por eso que continuaremos invirtiendo en sistemas que nos permitan mejorar nuestra precisi\u00f3n en la remoci\u00f3n\u00a0 de contenido que viole nuestras pol\u00edticas y salvaguardar el contenido que debate o condena el discurso de odio. De manera similar a como examinamos las decisiones tomadas por nuestros equipos de revisi\u00f3n de contenido para asegurar la precisi\u00f3n de nuestras decisiones, tambi\u00e9n analizamos rutinariamente los contenidos eliminados por nuestros sistemas automatizados. Tambi\u00e9n seguimos revisando contenido cuando nuestras decisiones son apeladas y nos comunican que cometimos un error al eliminar su publicaci\u00f3n. Actualizamos nuestras estad\u00edsticas Desde nuestro \u00faltimo informe, hemos mejorado la forma en que medimos la cantidad de contenido sobre el que actuamos despu\u00e9s de identificar un problema en nuestras mediciones. En esta ocasi\u00f3n, estamos actualizando los n\u00fameros previos del contenido sobre el que actuamos, la tasa de proactividad, el contenido que fue apelado, y el que fue restaurado, para el per\u00edodo entre el tercer trimestre del 2018 y el primer trimestre del 2019. Durante esos trimestres, el problema con nuestros procesos contables no afect\u00f3 la forma en que aplicamos nuestras pol\u00edticas o c\u00f3mo informamos a las personas sobre esas acciones; solo impact\u00f3 en c\u00f3mo contamos nuestras intervenciones. Por ejemplo, si descubrimos que una publicaci\u00f3n que contiene una foto viola nuestras pol\u00edticas, queremos que nuestra medici\u00f3n refleje que actuamos sobre una pieza de contenido, y no dos acciones diferentes para eliminar la foto y la publicaci\u00f3n. Sin embargo, en julio del 2019, descubrimos que los sistemas que registran y cuentan estas acciones no las contabilizaron correctamente, debido en gran medida a la necesidad de contar varias acciones que ocurren en unos pocos milisegundos y no omitir, ni exagerar, ninguna de las acciones individuales tomadas.\u00a0 Continuaremos refinando los procesos para construir un sistema robusto que garantice estad\u00edsticas precisas. Compartimos m\u00e1s detalles sobre estos procesos aqu\u00ed. Informaci\u00f3n adicional sobre estad\u00edsticas de remoci\u00f3n de contenido ligadas al ataque en Christchurch aqu\u00ed\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2019-11-13T17:38:29+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2020-09-07T16:51:41+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"bdarwell\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"11 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/\"},\"author\":\"Facebook company\",\"headline\":\"Informe de cumplimiento de nuestras Normas Comunitarias, Edici\u00f3n de Noviembre de 2019\",\"datePublished\":\"2019-11-13T17:38:29+00:00\",\"dateModified\":\"2020-09-07T16:51:41+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/\"},\"wordCount\":2220,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"keywords\":[\"portabilidad de datos\"],\"articleSection\":[\"Uncategorized\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/\",\"name\":\"Informe de cumplimiento de nuestras Normas Comunitarias, Edici\u00f3n de Noviembre de 2019 | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"datePublished\":\"2019-11-13T17:38:29+00:00\",\"dateModified\":\"2020-09-07T16:51:41+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Informe de cumplimiento de nuestras Normas Comunitarias, Edici\u00f3n de Noviembre de 2019\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Informe de cumplimiento de nuestras Normas Comunitarias, Edici\u00f3n de Noviembre de 2019 | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/","og_locale":"es_ES","og_type":"article","og_title":"Informe de cumplimiento de nuestras Normas Comunitarias, Edici\u00f3n de Noviembre de 2019 | Acerca de Meta","og_description":"Por Guy Rosen, Vicepresidente de Integridad Hoy publicamos la cuarta edici\u00f3n del Informe de Cumplimiento de nuestras Normas Comunitarias, detallando las acciones del segundo y el tercer trimestre del 2019. Este reporte contempla estad\u00edsticas de diez categor\u00edas en el caso de Facebook y de cuatro para Instagram.\u00a0 Los datos incluyen: Prevalencia: frecuencia con la que es visto contenido que viola nuestras pol\u00edticas. Acciones sobre el contenido: volumen de contenido sobre el que actuamos por violar nuestras pol\u00edticas. Tasa de proactividad: cantidad de contenido sobre el que actuamos, y que fue detectado por nuestros sistemas antes de que alguien lo reportara. Contenido apelado: cantidad de contenido apelado tras la actuaci\u00f3n inicial. Contenido restaurado: cantidad de contenido restaurado tras la actuaci\u00f3n inicial.\u00a0 Tambi\u00e9n presentamos una nueva p\u00e1gina con ejemplos de c\u00f3mo se aplican nuestras Normas Comunitarias sobre los diferentes tipos de contenido, y el lugar donde trazamos la l\u00ednea.\u00a0 Sumamos a Instagram al informe Por primera vez, incorporamos datos sobre la aplicaci\u00f3n de nuestras pol\u00edticas en Instagram. En este primer informe, proporcionamos estad\u00edsticas en cuatro categor\u00edas: desnudez infantil, explotaci\u00f3n sexual infantil; bienes regulados -espec\u00edficamente, venta il\u00edcita de armas de fuego y drogas-, suicidio y autolesiones; y propaganda terrorista. En esta ocasi\u00f3n no incluimos datos de apelaciones ni contenido restaurado, ya que el sistema que permite recurrir una decisi\u00f3n en Instagram fue introducido en el segundo trimestre de este a\u00f1o. Esa informaci\u00f3n ser\u00e1 incluida en reportes futuros. Si bien utilizamos los mismos sistemas de detecci\u00f3n proactiva para encontrar y eliminar contenido malicioso en Instagram y Facebook, los datos pueden diferir en ambos servicios. Existen numerosas razones para esto, incluidas diferencias en las funcionalidades de las aplicaciones y c\u00f3mo son usadas -por caso, Instagram no emplea links, compartir m\u00e1s de una vez en el feed, P\u00e1ginas o Grupos-, los diferentes tama\u00f1os de nuestras comunidades, lugares en donde las personas utilizan una aplicaci\u00f3n m\u00e1s que la otra, y d\u00f3nde hemos tenido m\u00e1s capacidad para usar nuestra tecnolog\u00eda de detecci\u00f3n proactiva. Al comparar los datos para identificar nuestro progreso y los lugares donde tenemos que mejorar, recomendamos a las personas analizar c\u00f3mo cambian las mediciones, trimestre a trimestre, en las categor\u00edas individuales dentro de una misma aplicaci\u00f3n. Otras Novedades de la Cuarta Edici\u00f3n del Reporte Datos sobre suicidio y autolesiones: en este informe comenzamos a detallar la forma en que actuamos sobre el contenido vinculado a suicidios y autolesiones. Esta es un \u00e1rea es sensible y compleja, y trabajamos con especialistas para garantizar que la seguridad de todos sea considerada. Eliminamos el contenido que representa o fomenta el suicidio o la autolesi\u00f3n, incluidas ciertas im\u00e1genes y representaciones en tiempo real que, seg\u00fan expertos, podr\u00edan llevar a otros a comportarse de manera similar. Colocamos una pantalla sobre el contenido que no viola nuestras pol\u00edticas, pero que puede ser delicado para algunas personas, como cortes ya sanados u otros elementos no gr\u00e1ficos acerca de la recuperaci\u00f3n de ese tipo de lesiones. Recientemente, tambi\u00e9n fortalecimos nuestras pol\u00edticas sobre autolesiones y optimizamos nuestra tecnolog\u00eda para encontrar y eliminar contenido violatorio de nuestras normas. En Facebook actuamos sobre aproximadamente 2 millones de piezas de contenido en el segundo trimestre del 2019, de las cuales el 96,1% fue detectado proactivamente. Registramos un progreso mayor en el tercer trimestre, donde eliminamos 2,5 millones de piezas y detectamos de manera proactiva al 97,1%. En Instagram, eliminamos aproximadamente 835.000 piezas en el segundo trimestre del 2019, de las cuales el 77,8% fue detectada proactivamente, y en el tercer trimestre del 2019, removimos aproximadamente 845.000 piezas, de las cuales el 79,1% fue detectado proactivamente. Ampliaci\u00f3n de datos sobre propaganda terrorista: nuestra Pol\u00edtica sobre Individuos y Organizaciones Peligrosas proh\u00edbe la presencia de grupos terroristas en nuestros servicios. A la fecha, hemos logrado identificar un amplio espectro de organizaciones terroristas en base a su comportamiento. Los reportes anteriores solo inclu\u00edan nuestro trabajo sobre Al Qaeda, ISIS y sus afiliados, porque enfocamos nuestros esfuerzos de medici\u00f3n en aquellos grupos que representaban la mayor amenaza global. Ahora, ampliamos el reporte para incluir las acciones contra todas las organizaciones terroristas. Detectamos y eliminamos m\u00e1s del 99% del contenido en Facebook asociado con Al Qaeda, ISIS y sus afiliados. La tasa de detecci\u00f3n proactiva de contenido asociado a cualquier organizaci\u00f3n terrorista en Facebook es del 98,5%, y en Instagram, del 92,2%. Continuaremos invirtiendo en t\u00e9cnicas automatizadas para combatir este tipo de contenido y para mejorar nuestras t\u00e1cticas, porque sabemos que los actores maliciosos continuar\u00e1n modificando las suyas. Estimaci\u00f3n de la prevalencia de contenido vinculado al suicidio, las autolesiones y los bienes regulados: en este reporte, agregamos por primera vez estad\u00edsticas de prevalencia para contenido que viola nuestras pol\u00edticas sobre suicidio, autolesiones y bienes regulados (venta il\u00edcita de armas de fuego y drogas). Nuestro principal foco es la frecuencia con la que las personas pueden ver contenido violatorio de nuestras pol\u00edticas, y es por eso que medimos la prevalencia o la frecuencia de exposici\u00f3n a este tipo de contenido. En lo que respecta a las categor\u00edas m\u00e1s severas &#8211; desnudez infantil y explotaci\u00f3n sexual de ni\u00f1os, bienes regulados, suicidio y autolesiones, y propaganda terrorista &#8211; la probabilidad de que las personas vean contenido es muy baja, y eliminamos la mayor parte de ese material mucho antes de que las personas lo vean. Como resultado, cuando analizamos una muestra de contenido para medir la tasa de prevalencia de estas categor\u00edas no encontramos suficientes datos, y en ocasiones ni siquiera eso, para construir una estimaci\u00f3n confiable. En cambio, s\u00ed podemos estimar el l\u00edmite m\u00e1ximo de la frecuencia con la que alguien ver\u00e1 contenido de esas categor\u00edas. En el tercer trimestre del 2019, ese valor m\u00e1ximo fue de 0,04%. Esto significa que para cada una de estas categor\u00edas, de cada 10.000 visualizaciones en Facebook o Instagram registradas durante ese per\u00edodo, no m\u00e1s de 4 eran piezas que violaban nuestras pol\u00edticas. Tambi\u00e9n es importante tener en cuenta que cuando la prevalencia es tan baja, que solo nos permite establecer l\u00edmites m\u00e1ximos, ese tope puede cambiar en algunas cent\u00e9simas de un punto porcentual entre los per\u00edodos. Pero esos cambios son muy peque\u00f1os como para marcar una diferencia real en la prevalencia de ese tipo de contenido en la plataforma. Nuestros avances para ayudar a mantener a las personas seguras Seguimos fortaleciendo nuestros esfuerzos para aplicar nuestras pol\u00edticas y brindar una mayor transparencia en todas las categor\u00edas m\u00e1s nocivas. Este progreso se refleja en las categor\u00edas de suicidio y autolesiones, propaganda terrorista, desnudez infantil y explotaci\u00f3n sexual de ni\u00f1os, y de bienes regulados. Las inversiones que realizamos en inteligencia artificial a lo largo de los \u00faltimos cinco a\u00f1os contin\u00faan siendo un factor clave para abordar estos problemas. De hecho, los avances recientes en esta tecnolog\u00eda han ayudado a detectar y eliminar contenido violatorio de nuestras normas.\u00a0 En materia de desnudez infantil y explotaci\u00f3n sexual de ni\u00f1os, hemos mejorado nuestros procesos mediante los cuales agregamos distintas violaciones a nuestra base de datos interna con el fin de detectar y eliminar instancias adicionales del mismo contenido compartido en Facebook e Instagram, lo que nos permite identificar y remover m\u00e1s contenido no permitido. En Facebook: En el tercer trimestre del 2019, eliminamos aproximadamente 11,6 millones de piezas de contenido, en comparaci\u00f3n con el primer trimestre de ese mismo a\u00f1o, cuando removimos aproximadamente 5,8 millones. Durante los \u00faltimos cuatro trimestres, detectamos proactivamente m\u00e1s del 99% del contenido que eliminamos por violar esta pol\u00edtica. Si bien incluimos datos de Instagram por primera vez, en estas categor\u00edas hemos aumentado tanto nuestras acciones como la tasa de proactividad en los \u00faltimos dos trimestres: En el segundo trimestre del 2019, eliminamos unas 512.000 piezas, de las cuales el 92,5% fueron detectadas proactivamente. En el tercer trimestre, registramos un mayor progreso y eliminamos 754.000 piezas, con el 94,6% detectadas proactivamente. Para nuestra pol\u00edtica sobre bienes regulados, que proh\u00edbe la venta il\u00edcita de armas de fuego y drogas, la constante inversi\u00f3n en sistemas de detecci\u00f3n proactiva y los avances en nuestras t\u00e9cnicas de aplicaci\u00f3n nos han permitido progresar desde el informe anterior. En Facebook: En el tercer trimestre del 2019, eliminamos cerca de 4,4 millones de piezas ligadas a la venta de drogas, con una tasa de detecci\u00f3n proactiva del 97,6%, por encima de las cerca de 841.000 piezas removidas en el primer trimestre del a\u00f1o, con una tasa del 84,4% de detecci\u00f3n proactiva. Tambi\u00e9n en el tercer trimestre del 2019 eliminamos aproximadamente 2,3 millones de piezas sobre ventas de armas de fuego, con una tasa de detecci\u00f3n proactiva del 97,3%, superando las 609.000 piezas del primer trimestre de ese mismo a\u00f1o, con una tasa de detecci\u00f3n proactiva del 69,9%. En Instagram: En el tercer trimestre de 2019, eliminamos aproximadamente 1,5 millones de piezas asociadas a la venta de drogas, con una tasa de detecci\u00f3n proactiva del 95,6%. En el tercer trimestre de 2019, removimos unas 58.600 piezas sobre ventas de armas de fuego, con una tasa de detecci\u00f3n proactiva del 91,3%. Nuevas t\u00e1cticas para combatir el discurso del odio En los \u00faltimos dos a\u00f1os, invertimos en la detecci\u00f3n proactiva del discurso de odio para poder identificar este contenido antes de que sea reportado, o incluso antes de que alguien lo vea. Nuestras t\u00e9cnicas de detecci\u00f3n incluyen matching de texto e imagen, lo que nos permite identificar im\u00e1genes y cadenas id\u00e9nticas de texto que ya han sido eliminadas por contenter discurso de odio; y clasificadores de aprendizaje autom\u00e1tico que analizan el lenguaje, o las reacciones y comentarios a una publicaci\u00f3n, para evaluar qu\u00e9 tanto coinciden con frases, patrones y ataques comunes que ya hemos identificado en el pasado. Inicialmente, utilizamos estos sistemas para detectar proactivamente posible discurso de odio y enviarlo a nuestros equipos de revisi\u00f3n de contenido, ya que las personas pueden interpretar el contexto de una publicaci\u00f3n con m\u00e1s precisi\u00f3n que la inteligencia artificial. A partir del segundo trimestre del 2019, gracias al progreso de nuestros sistemas, comenzamos a eliminar textos o im\u00e1genes en forma autom\u00e1tica en casos donde el contenido es id\u00e9ntico, o casi id\u00e9ntico, a uno ya eliminado previamente por nuestro equipo de revisi\u00f3n humana. Solo usamos esta pr\u00e1ctica en casos espec\u00edficos, gracias a que nuestros sistemas automatizados han sido entrenados con cientos de miles, sino millones, de diferentes ejemplos de contenido violatorio y ataques comunes. En todos los dem\u00e1s casos, cuando nuestros sistemas detectan posible discurso de odio, el contenido a\u00fan es cursado a nuestros equipos de revisi\u00f3n para una decisi\u00f3n final. Con estas mejoras, nuestra tasa de proactividad ha aumentado al 80% (desde\u00a0 el 68% del \u00faltimo informe) y hemos aumentado la cantidad de volumen de contenido que encontramos y eliminamos por violar nuestras pol\u00edticas contra el discurso de odio. Si bien estamos satisfechos con este progreso, este tipo de tecnolog\u00eda no es perfecta y pueden producirse errores. Es por eso que continuaremos invirtiendo en sistemas que nos permitan mejorar nuestra precisi\u00f3n en la remoci\u00f3n\u00a0 de contenido que viole nuestras pol\u00edticas y salvaguardar el contenido que debate o condena el discurso de odio. De manera similar a como examinamos las decisiones tomadas por nuestros equipos de revisi\u00f3n de contenido para asegurar la precisi\u00f3n de nuestras decisiones, tambi\u00e9n analizamos rutinariamente los contenidos eliminados por nuestros sistemas automatizados. Tambi\u00e9n seguimos revisando contenido cuando nuestras decisiones son apeladas y nos comunican que cometimos un error al eliminar su publicaci\u00f3n. Actualizamos nuestras estad\u00edsticas Desde nuestro \u00faltimo informe, hemos mejorado la forma en que medimos la cantidad de contenido sobre el que actuamos despu\u00e9s de identificar un problema en nuestras mediciones. En esta ocasi\u00f3n, estamos actualizando los n\u00fameros previos del contenido sobre el que actuamos, la tasa de proactividad, el contenido que fue apelado, y el que fue restaurado, para el per\u00edodo entre el tercer trimestre del 2018 y el primer trimestre del 2019. Durante esos trimestres, el problema con nuestros procesos contables no afect\u00f3 la forma en que aplicamos nuestras pol\u00edticas o c\u00f3mo informamos a las personas sobre esas acciones; solo impact\u00f3 en c\u00f3mo contamos nuestras intervenciones. Por ejemplo, si descubrimos que una publicaci\u00f3n que contiene una foto viola nuestras pol\u00edticas, queremos que nuestra medici\u00f3n refleje que actuamos sobre una pieza de contenido, y no dos acciones diferentes para eliminar la foto y la publicaci\u00f3n. Sin embargo, en julio del 2019, descubrimos que los sistemas que registran y cuentan estas acciones no las contabilizaron correctamente, debido en gran medida a la necesidad de contar varias acciones que ocurren en unos pocos milisegundos y no omitir, ni exagerar, ninguna de las acciones individuales tomadas.\u00a0 Continuaremos refinando los procesos para construir un sistema robusto que garantice estad\u00edsticas precisas. Compartimos m\u00e1s detalles sobre estos procesos aqu\u00ed. Informaci\u00f3n adicional sobre estad\u00edsticas de remoci\u00f3n de contenido ligadas al ataque en Christchurch aqu\u00ed","og_url":"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/","og_site_name":"Acerca de Meta","article_published_time":"2019-11-13T17:38:29+00:00","article_modified_time":"2020-09-07T16:51:41+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"bdarwell","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"11 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/"},"author":"Facebook company","headline":"Informe de cumplimiento de nuestras Normas Comunitarias, Edici\u00f3n de Noviembre de 2019","datePublished":"2019-11-13T17:38:29+00:00","dateModified":"2020-09-07T16:51:41+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/"},"wordCount":2220,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"keywords":["portabilidad de datos"],"articleSection":["Uncategorized"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/","url":"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/","name":"Informe de cumplimiento de nuestras Normas Comunitarias, Edici\u00f3n de Noviembre de 2019 | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"datePublished":"2019-11-13T17:38:29+00:00","dateModified":"2020-09-07T16:51:41+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/"]}],"author":"Acerca de Meta"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2019\/11\/informe-de-cumplimiento-de-nuestras-normas-comunitarias-edicion-de-noviembre-de-2019\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Informe de cumplimiento de nuestras Normas Comunitarias, Edici\u00f3n de Noviembre de 2019"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/8098","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/4947538"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=8098"}],"version-history":[{"count":2,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/8098\/revisions"}],"predecessor-version":[{"id":21924,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/8098\/revisions\/21924"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=8098"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=8098"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=8098"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}