{"id":6400,"date":"2018-05-15T09:21:10","date_gmt":"2018-05-15T14:21:10","guid":{"rendered":"http:\/\/ltam.newsroom.fb.com\/?p=6400"},"modified":"2019-11-04T13:16:55","modified_gmt":"2019-11-04T19:16:55","slug":"facebook-publica-informe-sobre-remocion-de-contenido","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/","title":{"rendered":"Facebook publica informe sobre remoci\u00f3n de contenido"},"content":{"rendered":"<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-6410\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/05\/hero-1.png?resize=960%2C480\" alt=\"\" width=\"960\" height=\"480\" \/><\/p>\n<p><em>Por <a href=\"https:\/\/www.facebook.com\/guyro?ref=br_rs\">Guy Rosen<\/a>, VP de Producto<\/em><\/p>\n<p>A menudo nos preguntan c\u00f3mo decidimos qu\u00e9 contenido puede ser publicado en Facebook y cu\u00e1l es considerado inapropiado. Nuestras Normas Comunitarias, vigentes desde hace a\u00f1os, determinan qu\u00e9 puede permanecer en la plataforma y qu\u00e9 debe ser retirado. Hace tres semanas publicamos por primera vez los <a href=\"https:\/\/www.facebook.com\/communitystandards#attacks-on-public-figures\">criterios internos que usamos para hacer cumplir esas normas<\/a> y hoy divulgamos las estad\u00edsticas sobre el<a href=\"https:\/\/transparency.facebook.com\/\"> Cumplimiento de Normas Comunitarias<\/a>, para que todo el mundo pueda analizarlas.<\/p>\n<p>Alex Schultz, Vicepresidente de An\u00e1lisis de Datos, explica en una publicaci\u00f3n en nuestro blog de <a href=\"http:\/\/ltam.newsroom.fb.com\/news\/2018\/05\/preguntas-dificiles-como-medimos-nuestros-esfuerzos-para-mantener-el-contenido-inapropiado-fuera-de-facebook\/\">Preguntas Dif\u00edciles<\/a> y en una gu\u00eda para <a href=\"https:\/\/transparency.facebook.com\/community-standards-enforcement\">Comprender el Informe de Cumplimiento de Normas Comunitarias<\/a>, c\u00f3mo Facebook realiza ese trabajo. Es importante remarcar que por tratarse de una tarea en constante evoluci\u00f3n, la metodolog\u00eda puede ser modificada a medida que aprendamos m\u00e1s y podamos identificar las pr\u00e1cticas que funcionan mejor.<\/p>\n<p>Este <a href=\"https:\/\/transparency.facebook.com\/\">informe<\/a> cubre seis \u00e1reas: violencia gr\u00e1fica, desnudez en adultos y actividad sexual, propaganda terrorista, discurso de odio, spam y cuentas falsas.<\/p>\n<p>El reporte detalla:<\/p>\n<ul>\n<li>La cantidad de contenido que viola nuestras normas visto por usuarios de Facebook.<\/li>\n<li>La cantidad de contenido que fue eliminado.<\/li>\n<li>La cantidad de contenido que fue detectado a trav\u00e9s de la tecnolog\u00eda antes de que los usuarios de Facebook lo reportaran.<\/li>\n<\/ul>\n<p><img data-recalc-dims=\"1\" loading=\"lazy\" decoding=\"async\" class=\"aligncenter size-large wp-image-6403\" src=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/05\/graphic_fa-am-1.png?resize=960%2C536\" alt=\"\" width=\"960\" height=\"536\" \/><\/p>\n<p>La mayor parte del trabajo que hacemos para eliminar contenido inapropiado involucra cuentas falsas y el spam que estas generan. Los resultados del primer trimestre de 2018 muestran que:<\/p>\n<ul>\n<li>Eliminamos 837 millones de mensajes no deseados, casi todos detectados antes de que fueran reportados por los usuarios.<\/li>\n<li>Desactivamos alrededor de 583 millones de cuentas falsas, la mayor\u00eda apenas unos minutos despu\u00e9s de que fueran registradas. Este dato se suma a las tareas de prevenci\u00f3n que evitan que millones de cuentas falsas sean creadas diariamente. Calculamos que entre 3 y 4 por ciento de las cuentas activas durante el per\u00edodo analizado eran falsas.<\/li>\n<\/ul>\n<p>Otros tipos de contenido inapropiado:<\/p>\n<ul>\n<li>Eliminamos 21 millones de publicaciones de desnudos de adultos o material pornogr\u00e1fico durante el primer trimestre de 2018. Un 96 por ciento fue detectado y marcado con herramientas tecnol\u00f3gicas antes de que fuera reportado. Nuestros estudios indican que de cada 10.000 publicaciones visualizadas en Facebook, entre siete y nueve inclu\u00edan material que violaba nuestros est\u00e1ndares.<\/li>\n<\/ul>\n<ul>\n<li>En casos m\u00e1s graves, como violencia gr\u00e1fica o discursos de odio, nuestra tecnolog\u00eda a\u00fan no es lo suficientemente eficaz y requiere de la participaci\u00f3n de equipos de revisi\u00f3n. Dimos de baja o colocamos advertencias sobre cerca de 3,5 millones de publicaciones con contenido violento en el primer trimestre de 2018, un 86% de las cuales fueron identificadas por nuestra tecnolog\u00eda antes de que fueran reportadas. Tambi\u00e9n fueron eliminados 2,5 millones de art\u00edculos que conten\u00edan discurso de odio, un 38% de los cuales fueron identificado por nuestra tecnolog\u00eda.<\/li>\n<\/ul>\n<p>Como dijo Mark Zuckerberg durante la conferencia de desarrolladores F8 el mes pasado, todav\u00eda tenemos mucho trabajo por hacer para evitar los abusos en la plataforma. Y debido a que prometedoras tecnolog\u00edas como la inteligencia artificial a\u00fan est\u00e1n lejos de ser efectivas para detectar la mayor\u00eda del contenido inapropiado, el contexto es clave. Por ejemplo, la inteligencia artificial no es lo suficientemente buena para determinar si alguien est\u00e1 publicando discurso de odio o lo est\u00e1 mencionando para darlo a conocer. Como <a href=\"https:\/\/newsroom.fb.com\/news\/2018\/05\/removing-content-using-ai\/\">explicamos la semana pasada<\/a>, la tecnolog\u00eda necesita de grandes cantidades de datos para aprender a reconocer patrones de comportamiento, que frecuentemente no est\u00e1n disponibles en los idiomas menos utilizados o en los casos reportados con menor frecuencia. Adem\u00e1s, en muchas \u00e1reas, como la pornograf\u00eda, el spam o las cuentas falsas, enfrentamos adversarios sofisticados que cambian continuamente de t\u00e1ctica para eludir nuestros controles y eso exige una adaptaci\u00f3n continua en nuestros esfuerzos. Es por eso que estamos invirtiendo en personal y en desarrollar una mejor tecnolog\u00eda para hacer que Facebook sea un lugar m\u00e1s seguro para todos.<\/p>\n<p>Tambi\u00e9n es por eso que estamos publicando esta informaci\u00f3n. Creemos que una mayor transparencia contribuye a crear una mayor responsabilidad y el hecho de divulgar estos datos tambi\u00e9n nos ayudar\u00e1 a mejorar m\u00e1s r\u00e1pidamente. Esta es la misma informaci\u00f3n que empleamos para medir internamente nuestro progreso y ahora ustedes tambi\u00e9n pueden juzgar nuestro trabajo. Esperamos poder contar con sus comentarios.<\/p>\n","protected":false},"excerpt":{"rendered":"Por Guy Rosen, VP de Producto A menudo nos preguntan c\u00f3mo decidimos qu\u00e9 contenido puede ser publicado en Facebook y cu\u00e1l es considerado inapropiado. Nuestras Normas Comunitarias, vigentes desde hace a\u00f1os, determinan qu\u00e9 puede permanecer en la plataforma y qu\u00e9 debe ser retirado. Hace tres semanas publicamos por primera vez los criterios internos que usamos para hacer cumplir esas normas y hoy divulgamos las estad\u00edsticas sobre el Cumplimiento de Normas Comunitarias, para que todo el mundo pueda analizarlas. Alex Schultz, Vicepresidente de An\u00e1lisis de Datos, explica en una publicaci\u00f3n en nuestro blog de Preguntas Dif\u00edciles y en una gu\u00eda para Comprender el Informe de Cumplimiento de Normas Comunitarias, c\u00f3mo Facebook realiza ese trabajo. Es importante remarcar que por tratarse de una tarea en constante evoluci\u00f3n, la metodolog\u00eda puede ser modificada a medida que aprendamos m\u00e1s y podamos identificar las pr\u00e1cticas que funcionan mejor. Este informe cubre seis \u00e1reas: violencia gr\u00e1fica, desnudez en adultos y actividad sexual, propaganda terrorista, discurso de odio, spam y cuentas falsas. El reporte detalla: La cantidad de contenido que viola nuestras normas visto por usuarios de Facebook. La cantidad de contenido que fue eliminado. La cantidad de contenido que fue detectado a trav\u00e9s de la tecnolog\u00eda antes de que los usuarios de Facebook lo reportaran. La mayor parte del trabajo que hacemos para eliminar contenido inapropiado involucra cuentas falsas y el spam que estas generan. Los resultados del primer trimestre de 2018 muestran que: Eliminamos 837 millones de mensajes no deseados, casi todos detectados antes de que fueran reportados por los usuarios. Desactivamos alrededor de 583 millones de cuentas falsas, la mayor\u00eda apenas unos minutos despu\u00e9s de que fueran registradas. Este dato se suma a las tareas de prevenci\u00f3n que evitan que millones de cuentas falsas sean creadas diariamente. Calculamos que entre 3 y 4 por ciento de las cuentas activas durante el per\u00edodo analizado eran falsas. Otros tipos de contenido inapropiado: Eliminamos 21 millones de publicaciones de desnudos de adultos o material pornogr\u00e1fico durante el primer trimestre de 2018. Un 96 por ciento fue detectado y marcado con herramientas tecnol\u00f3gicas antes de que fuera reportado. Nuestros estudios indican que de cada 10.000 publicaciones visualizadas en Facebook, entre siete y nueve inclu\u00edan material que violaba nuestros est\u00e1ndares. En casos m\u00e1s graves, como violencia gr\u00e1fica o discursos de odio, nuestra tecnolog\u00eda a\u00fan no es lo suficientemente eficaz y requiere de la participaci\u00f3n de equipos de revisi\u00f3n. Dimos de baja o colocamos advertencias sobre cerca de 3,5 millones de publicaciones con contenido violento en el primer trimestre de 2018, un 86% de las cuales fueron identificadas por nuestra tecnolog\u00eda antes de que fueran reportadas. Tambi\u00e9n fueron eliminados 2,5 millones de art\u00edculos que conten\u00edan discurso de odio, un 38% de los cuales fueron identificado por nuestra tecnolog\u00eda. Como dijo Mark Zuckerberg durante la conferencia de desarrolladores F8 el mes pasado, todav\u00eda tenemos mucho trabajo por hacer para evitar los abusos en la plataforma. Y debido a que prometedoras tecnolog\u00edas como la inteligencia artificial a\u00fan est\u00e1n lejos de ser efectivas para detectar la mayor\u00eda del contenido inapropiado, el contexto es clave. Por ejemplo, la inteligencia artificial no es lo suficientemente buena para determinar si alguien est\u00e1 publicando discurso de odio o lo est\u00e1 mencionando para darlo a conocer. Como explicamos la semana pasada, la tecnolog\u00eda necesita de grandes cantidades de datos para aprender a reconocer patrones de comportamiento, que frecuentemente no est\u00e1n disponibles en los idiomas menos utilizados o en los casos reportados con menor frecuencia. Adem\u00e1s, en muchas \u00e1reas, como la pornograf\u00eda, el spam o las cuentas falsas, enfrentamos adversarios sofisticados que cambian continuamente de t\u00e1ctica para eludir nuestros controles y eso exige una adaptaci\u00f3n continua en nuestros esfuerzos. Es por eso que estamos invirtiendo en personal y en desarrollar una mejor tecnolog\u00eda para hacer que Facebook sea un lugar m\u00e1s seguro para todos. Tambi\u00e9n es por eso que estamos publicando esta informaci\u00f3n. Creemos que una mayor transparencia contribuye a crear una mayor responsabilidad y el hecho de divulgar estos datos tambi\u00e9n nos ayudar\u00e1 a mejorar m\u00e1s r\u00e1pidamente. Esta es la misma informaci\u00f3n que empleamos para medir internamente nuestro progreso y ahora ustedes tambi\u00e9n pueden juzgar nuestro trabajo. Esperamos poder contar con sus comentarios.","protected":false},"author":128816270,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243947987],"tags":[],"class_list":["post-6400","post","type-post","status-publish","format-standard","hentry","category-integridad-y-seguridad"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Facebook publica informe sobre remoci\u00f3n de contenido | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Facebook publica informe sobre remoci\u00f3n de contenido | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Por Guy Rosen, VP de Producto A menudo nos preguntan c\u00f3mo decidimos qu\u00e9 contenido puede ser publicado en Facebook y cu\u00e1l es considerado inapropiado. Nuestras Normas Comunitarias, vigentes desde hace a\u00f1os, determinan qu\u00e9 puede permanecer en la plataforma y qu\u00e9 debe ser retirado. Hace tres semanas publicamos por primera vez los criterios internos que usamos para hacer cumplir esas normas y hoy divulgamos las estad\u00edsticas sobre el Cumplimiento de Normas Comunitarias, para que todo el mundo pueda analizarlas. Alex Schultz, Vicepresidente de An\u00e1lisis de Datos, explica en una publicaci\u00f3n en nuestro blog de Preguntas Dif\u00edciles y en una gu\u00eda para Comprender el Informe de Cumplimiento de Normas Comunitarias, c\u00f3mo Facebook realiza ese trabajo. Es importante remarcar que por tratarse de una tarea en constante evoluci\u00f3n, la metodolog\u00eda puede ser modificada a medida que aprendamos m\u00e1s y podamos identificar las pr\u00e1cticas que funcionan mejor. Este informe cubre seis \u00e1reas: violencia gr\u00e1fica, desnudez en adultos y actividad sexual, propaganda terrorista, discurso de odio, spam y cuentas falsas. El reporte detalla: La cantidad de contenido que viola nuestras normas visto por usuarios de Facebook. La cantidad de contenido que fue eliminado. La cantidad de contenido que fue detectado a trav\u00e9s de la tecnolog\u00eda antes de que los usuarios de Facebook lo reportaran. La mayor parte del trabajo que hacemos para eliminar contenido inapropiado involucra cuentas falsas y el spam que estas generan. Los resultados del primer trimestre de 2018 muestran que: Eliminamos 837 millones de mensajes no deseados, casi todos detectados antes de que fueran reportados por los usuarios. Desactivamos alrededor de 583 millones de cuentas falsas, la mayor\u00eda apenas unos minutos despu\u00e9s de que fueran registradas. Este dato se suma a las tareas de prevenci\u00f3n que evitan que millones de cuentas falsas sean creadas diariamente. Calculamos que entre 3 y 4 por ciento de las cuentas activas durante el per\u00edodo analizado eran falsas. Otros tipos de contenido inapropiado: Eliminamos 21 millones de publicaciones de desnudos de adultos o material pornogr\u00e1fico durante el primer trimestre de 2018. Un 96 por ciento fue detectado y marcado con herramientas tecnol\u00f3gicas antes de que fuera reportado. Nuestros estudios indican que de cada 10.000 publicaciones visualizadas en Facebook, entre siete y nueve inclu\u00edan material que violaba nuestros est\u00e1ndares. En casos m\u00e1s graves, como violencia gr\u00e1fica o discursos de odio, nuestra tecnolog\u00eda a\u00fan no es lo suficientemente eficaz y requiere de la participaci\u00f3n de equipos de revisi\u00f3n. Dimos de baja o colocamos advertencias sobre cerca de 3,5 millones de publicaciones con contenido violento en el primer trimestre de 2018, un 86% de las cuales fueron identificadas por nuestra tecnolog\u00eda antes de que fueran reportadas. Tambi\u00e9n fueron eliminados 2,5 millones de art\u00edculos que conten\u00edan discurso de odio, un 38% de los cuales fueron identificado por nuestra tecnolog\u00eda. Como dijo Mark Zuckerberg durante la conferencia de desarrolladores F8 el mes pasado, todav\u00eda tenemos mucho trabajo por hacer para evitar los abusos en la plataforma. Y debido a que prometedoras tecnolog\u00edas como la inteligencia artificial a\u00fan est\u00e1n lejos de ser efectivas para detectar la mayor\u00eda del contenido inapropiado, el contexto es clave. Por ejemplo, la inteligencia artificial no es lo suficientemente buena para determinar si alguien est\u00e1 publicando discurso de odio o lo est\u00e1 mencionando para darlo a conocer. Como explicamos la semana pasada, la tecnolog\u00eda necesita de grandes cantidades de datos para aprender a reconocer patrones de comportamiento, que frecuentemente no est\u00e1n disponibles en los idiomas menos utilizados o en los casos reportados con menor frecuencia. Adem\u00e1s, en muchas \u00e1reas, como la pornograf\u00eda, el spam o las cuentas falsas, enfrentamos adversarios sofisticados que cambian continuamente de t\u00e1ctica para eludir nuestros controles y eso exige una adaptaci\u00f3n continua en nuestros esfuerzos. Es por eso que estamos invirtiendo en personal y en desarrollar una mejor tecnolog\u00eda para hacer que Facebook sea un lugar m\u00e1s seguro para todos. Tambi\u00e9n es por eso que estamos publicando esta informaci\u00f3n. Creemos que una mayor transparencia contribuye a crear una mayor responsabilidad y el hecho de divulgar estos datos tambi\u00e9n nos ayudar\u00e1 a mejorar m\u00e1s r\u00e1pidamente. Esta es la misma informaci\u00f3n que empleamos para medir internamente nuestro progreso y ahora ustedes tambi\u00e9n pueden juzgar nuestro trabajo. Esperamos poder contar con sus comentarios.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2018-05-15T14:21:10+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2019-11-04T19:16:55+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/05\/hero-1.png\" \/>\n<meta name=\"author\" content=\"acp1103\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/\"},\"author\":\"Facebook company\",\"headline\":\"Facebook publica informe sobre remoci\u00f3n de contenido\",\"datePublished\":\"2018-05-15T14:21:10+00:00\",\"dateModified\":\"2019-11-04T19:16:55+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/\"},\"wordCount\":744,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/05\/hero-1.png\",\"articleSection\":[\"Integridad &amp; Seguridad\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/\",\"name\":\"Facebook publica informe sobre remoci\u00f3n de contenido | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/05\/hero-1.png\",\"datePublished\":\"2018-05-15T14:21:10+00:00\",\"dateModified\":\"2019-11-04T19:16:55+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/05\/hero-1.png?fit=960%2C480\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/05\/hero-1.png?fit=960%2C480\",\"width\":960,\"height\":480},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Facebook publica informe sobre remoci\u00f3n de contenido\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Facebook publica informe sobre remoci\u00f3n de contenido | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/","og_locale":"es_ES","og_type":"article","og_title":"Facebook publica informe sobre remoci\u00f3n de contenido | Acerca de Meta","og_description":"Por Guy Rosen, VP de Producto A menudo nos preguntan c\u00f3mo decidimos qu\u00e9 contenido puede ser publicado en Facebook y cu\u00e1l es considerado inapropiado. Nuestras Normas Comunitarias, vigentes desde hace a\u00f1os, determinan qu\u00e9 puede permanecer en la plataforma y qu\u00e9 debe ser retirado. Hace tres semanas publicamos por primera vez los criterios internos que usamos para hacer cumplir esas normas y hoy divulgamos las estad\u00edsticas sobre el Cumplimiento de Normas Comunitarias, para que todo el mundo pueda analizarlas. Alex Schultz, Vicepresidente de An\u00e1lisis de Datos, explica en una publicaci\u00f3n en nuestro blog de Preguntas Dif\u00edciles y en una gu\u00eda para Comprender el Informe de Cumplimiento de Normas Comunitarias, c\u00f3mo Facebook realiza ese trabajo. Es importante remarcar que por tratarse de una tarea en constante evoluci\u00f3n, la metodolog\u00eda puede ser modificada a medida que aprendamos m\u00e1s y podamos identificar las pr\u00e1cticas que funcionan mejor. Este informe cubre seis \u00e1reas: violencia gr\u00e1fica, desnudez en adultos y actividad sexual, propaganda terrorista, discurso de odio, spam y cuentas falsas. El reporte detalla: La cantidad de contenido que viola nuestras normas visto por usuarios de Facebook. La cantidad de contenido que fue eliminado. La cantidad de contenido que fue detectado a trav\u00e9s de la tecnolog\u00eda antes de que los usuarios de Facebook lo reportaran. La mayor parte del trabajo que hacemos para eliminar contenido inapropiado involucra cuentas falsas y el spam que estas generan. Los resultados del primer trimestre de 2018 muestran que: Eliminamos 837 millones de mensajes no deseados, casi todos detectados antes de que fueran reportados por los usuarios. Desactivamos alrededor de 583 millones de cuentas falsas, la mayor\u00eda apenas unos minutos despu\u00e9s de que fueran registradas. Este dato se suma a las tareas de prevenci\u00f3n que evitan que millones de cuentas falsas sean creadas diariamente. Calculamos que entre 3 y 4 por ciento de las cuentas activas durante el per\u00edodo analizado eran falsas. Otros tipos de contenido inapropiado: Eliminamos 21 millones de publicaciones de desnudos de adultos o material pornogr\u00e1fico durante el primer trimestre de 2018. Un 96 por ciento fue detectado y marcado con herramientas tecnol\u00f3gicas antes de que fuera reportado. Nuestros estudios indican que de cada 10.000 publicaciones visualizadas en Facebook, entre siete y nueve inclu\u00edan material que violaba nuestros est\u00e1ndares. En casos m\u00e1s graves, como violencia gr\u00e1fica o discursos de odio, nuestra tecnolog\u00eda a\u00fan no es lo suficientemente eficaz y requiere de la participaci\u00f3n de equipos de revisi\u00f3n. Dimos de baja o colocamos advertencias sobre cerca de 3,5 millones de publicaciones con contenido violento en el primer trimestre de 2018, un 86% de las cuales fueron identificadas por nuestra tecnolog\u00eda antes de que fueran reportadas. Tambi\u00e9n fueron eliminados 2,5 millones de art\u00edculos que conten\u00edan discurso de odio, un 38% de los cuales fueron identificado por nuestra tecnolog\u00eda. Como dijo Mark Zuckerberg durante la conferencia de desarrolladores F8 el mes pasado, todav\u00eda tenemos mucho trabajo por hacer para evitar los abusos en la plataforma. Y debido a que prometedoras tecnolog\u00edas como la inteligencia artificial a\u00fan est\u00e1n lejos de ser efectivas para detectar la mayor\u00eda del contenido inapropiado, el contexto es clave. Por ejemplo, la inteligencia artificial no es lo suficientemente buena para determinar si alguien est\u00e1 publicando discurso de odio o lo est\u00e1 mencionando para darlo a conocer. Como explicamos la semana pasada, la tecnolog\u00eda necesita de grandes cantidades de datos para aprender a reconocer patrones de comportamiento, que frecuentemente no est\u00e1n disponibles en los idiomas menos utilizados o en los casos reportados con menor frecuencia. Adem\u00e1s, en muchas \u00e1reas, como la pornograf\u00eda, el spam o las cuentas falsas, enfrentamos adversarios sofisticados que cambian continuamente de t\u00e1ctica para eludir nuestros controles y eso exige una adaptaci\u00f3n continua en nuestros esfuerzos. Es por eso que estamos invirtiendo en personal y en desarrollar una mejor tecnolog\u00eda para hacer que Facebook sea un lugar m\u00e1s seguro para todos. Tambi\u00e9n es por eso que estamos publicando esta informaci\u00f3n. Creemos que una mayor transparencia contribuye a crear una mayor responsabilidad y el hecho de divulgar estos datos tambi\u00e9n nos ayudar\u00e1 a mejorar m\u00e1s r\u00e1pidamente. Esta es la misma informaci\u00f3n que empleamos para medir internamente nuestro progreso y ahora ustedes tambi\u00e9n pueden juzgar nuestro trabajo. Esperamos poder contar con sus comentarios.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/","og_site_name":"Acerca de Meta","article_published_time":"2018-05-15T14:21:10+00:00","article_modified_time":"2019-11-04T19:16:55+00:00","og_image":[{"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/05\/hero-1.png","type":"","width":"","height":""}],"author":"acp1103","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"4 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/"},"author":"Facebook company","headline":"Facebook publica informe sobre remoci\u00f3n de contenido","datePublished":"2018-05-15T14:21:10+00:00","dateModified":"2019-11-04T19:16:55+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/"},"wordCount":744,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/05\/hero-1.png","articleSection":["Integridad &amp; Seguridad"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/","url":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/","name":"Facebook publica informe sobre remoci\u00f3n de contenido | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/05\/hero-1.png","datePublished":"2018-05-15T14:21:10+00:00","dateModified":"2019-11-04T19:16:55+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/05\/hero-1.png?fit=960%2C480","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2018\/05\/hero-1.png?fit=960%2C480","width":960,"height":480},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/facebook-publica-informe-sobre-remocion-de-contenido\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Facebook publica informe sobre remoci\u00f3n de contenido"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6400","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/128816270"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=6400"}],"version-history":[{"count":6,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6400\/revisions"}],"predecessor-version":[{"id":7681,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6400\/revisions\/7681"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=6400"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=6400"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=6400"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}