{"id":6384,"date":"2018-05-02T12:28:32","date_gmt":"2018-05-02T17:28:32","guid":{"rendered":"http:\/\/ltam.newsroom.fb.com\/?p=6384"},"modified":"2018-05-02T12:28:32","modified_gmt":"2018-05-02T17:28:32","slug":"como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/","title":{"rendered":"C\u00f3mo la tecnolog\u00eda nos ayuda a eliminar el contenido inapropiado de Facebook"},"content":{"rendered":"<p><em>Por Guy Rosen, Vicepresidente de Gesti\u00f3n de Productos.<\/em><\/p>\n<p>Hay dos formas para reconocer contenido inapropiado como videos terroristas, incitaci\u00f3n al odio, pornograf\u00eda o violencia: eliminarla cuando alguien lo reporte o encontrarlo proactivamente a trav\u00e9s de la tecnolog\u00eda. Ambos son importantes, pero los avances en tecnolog\u00eda, incluso en inteligencia artificial, aprendizaje autom\u00e1tico y visi\u00f3n artificial, significan que ahora podemos:<\/p>\n<ul>\n<li><b>Eliminar contenido inapropiado m\u00e1s r\u00e1pido<\/b> porque no siempre tenemos que esperar a que sea reportado. Cuando se trata de un suicidio, esto puede significar la diferencia entre la vida y la muerte porque en cuanto nuestra tecnolog\u00eda identifique que alguien expres\u00f3 sentimientos de suicidio, podemos ofrecer ayuda o trabajar con los primeros en responder, lo que hemos hecho en <a href=\"https:\/\/newsroom.fb.com\/noticias\/2017\/11\/getting-our-community-help-in-real-time\/\">m\u00e1s de mil casos<\/a><\/li>\n<li><b>Detectar m\u00e1s contenido<\/b> porque no tenemos que esperar a que alguien m\u00e1s lo encuentre y reporte. Como anunciamos hace dos semanas, en el primer trimestre de 2018 <a href=\"https:\/\/newsroom.fb.com\/news\/2018\/04\/%20keeping-%20terrorists-off-facebook%20\/\">eliminamos proactivamente casi dos millones de publicaciones de contenido de ISIS y Al-Qaeda<\/a>: el 99 por ciento de las cuales fueron eliminadas antes de que alguien lo reportara a Facebook.<\/li>\n<li><b>Aumentar la capacidad de nuestro equipo de revisi\u00f3n<\/b> para trabajar en casos en que se necesita experiencia humana para comprender el contexto o los matices de una situaci\u00f3n particular. Por ejemplo, \u00bfalguien est\u00e1 hablando sobre su propia adicci\u00f3n a las drogas o animando a otros a tomar drogas?<\/li>\n<\/ul>\n<p>Nos llev\u00f3 tiempo desarrollar este software y estamos constantemente trabajando para mejorarlo. Hacemos esto mediante el an\u00e1lisis de ejemplos espec\u00edficos de contenido inapropiado que ya fue reportado y eliminado, con el fin de identificar patrones de comportamiento. Estos patrones se pueden usar para ense\u00f1ar a nuestro software a buscar proactivamente otros problemas similares.<\/p>\n<ul>\n<li><b><a href=\"https:\/\/www.facebook.com\/communitystandards\/objectionable_content\/adult_nudity_sexual_activity\/\">Desnudos<\/a><a href=\"https:\/\/www.facebook.com\/communitystandards\/objectionable_content\/graphic_violence\">y violencia gr\u00e1fica<\/a><\/b>: Estos son dos tipos muy diferentes de contenido, pero estamos utilizando mejoras en la visi\u00f3n computacional para eliminar ambos de forma proactiva.<\/li>\n<li><b><a href=\"https:\/\/www.facebook.com\/communitystandards\/objectionable_content\/hate_speech\/\">Discurso de odio<\/a><\/b>: Comprender el contexto del discurso por lo general requiere ojos humanos: es un discurso de odio, o se lo comparte para condenar el discurso de odio o aumentar la conciencia al respecto? Comenzamos a implementar la tecnolog\u00eda para detectar de manera proactiva algo que pueda violar nuestras pol\u00edticas, comenzando con ciertos idiomas, como ingl\u00e9s y portugu\u00e9s. Luego, nuestros equipos revisan el contenido, de modo que lo que est\u00e1 bien permanece en la plataforma. Un ejemplo es alguien que describe el odio que encontraron para concientizar sobre el problema.<\/li>\n<li><a href=\"https:\/\/www.facebook.com\/communitystandards\/integrity_authenticity\/misrepresentation\"><b>Cuentas falsas<\/b><\/a><b>:<\/b> Bloqueamos millones de cuentas falsas todos los d\u00edas cuando se crean y antes de que puedan causar alg\u00fan da\u00f1o. Esto es muy importante en la lucha contra el spam, las noticias falsas, la desinformaci\u00f3n y los anuncios inapropiados. Recientemente, <a href=\"https:\/\/www.facebook.com\/notes\/facebook-security\/introducing-new-machine-learning-techniques-to-help-stop-scams\/10155213964780766\/\">empezamos a usar<\/a> inteligencia artificial para detectar cuentas vinculadas a estafas financieras.<\/li>\n<li><b><a href=\"https:\/\/www.facebook.com\/communitystandards\/integrity_authenticity\/spam\/\">Spam<\/a><\/b>: La gran mayor\u00eda de nuestro trabajo para combatir el spam se realiza autom\u00e1ticamente mediante patrones reconocibles de comportamiento problem\u00e1tico. Por ejemplo, si una cuenta se publica una y otra vez en una sucesi\u00f3n r\u00e1pida, eso es una se\u00f1al fuerte de que algo est\u00e1 mal.<\/li>\n<li><a href=\"https:\/\/www.facebook.com\/communitystandards\/violence_criminal_behavior\/dangerous_individuals_organizations\"><b>Propaganda terrorista<\/b><\/a>: La gran mayor\u00eda de este contenido se elimina autom\u00e1ticamente, sin la necesidad de que alguien lo reporte primero.<\/li>\n<li><a href=\"https:\/\/www.facebook.com\/communitystandards\/safety\/suicide_self_injury_violence\/\"><b>Prevenci\u00f3n del suicidio<\/b><\/a>: Como se explic\u00f3 anteriormente, identificamos de manera proactiva las publicaciones que pueden manifestar que las personas est\u00e1n en riesgo para que puedan obtener ayuda.<\/li>\n<\/ul>\n<p>Cuando hablo de tecnolog\u00eda como la inteligencia artificial, la visi\u00f3n computacional o el aprendizaje autom\u00e1tico, las personas a menudo se preguntan por qu\u00e9 no progresamos m\u00e1s r\u00e1pido &#8211; y es una buena pregunta. La Inteligencia Artificial, por ejemplo, es muy prometedora, pero todav\u00eda estamos a a\u00f1os de que sea efectiva para todo tipo de contenido inapropiado porque el contexto es muy importante. Es por eso que tenemos personas que siguen revisando los informes.<\/p>\n<p>Y, en t\u00e9rminos m\u00e1s generales, la tecnolog\u00eda necesita grandes cantidades de datos de capacitaci\u00f3n para reconocer patrones de comportamiento significativos, que a menudo nos faltan en los idiomas menos utilizados o en los casos que no se informan con frecuencia. Es por eso que normalmente podemos hacer m\u00e1s en ingl\u00e9s, ya que es el mayor conjunto de datos que tenemos en Facebook.<\/p>\n<p>Pero estamos invirtiendo en tecnolog\u00eda para aumentar nuestra precisi\u00f3n en nuevos idiomas. Por ejemplo, Facebook AI Research (FAIR) est\u00e1 trabajando en un \u00e1rea llamada <a href=\"https:\/\/research.fb.com\/publications\/word-translation-without-parallel-data\/\">embeddings multilenguas<\/a> como una forma potencial de abordar el tema desaf\u00edo del lenguaje. Es por eso que a veces pedimos a las personas que reporten si las publicaciones contienen cierto tipo de contenido, para alentarlas a marcarlo para su revisi\u00f3n. Y es por eso que los informes que provienen de personas que usan Facebook son tan importantes, y por lo que pedimos a nuestra comunidad que por favor siga reportando. Trabajando juntos podemos ayudar a que Facebook sea m\u00e1s seguro para todos.<\/p>\n","protected":false},"excerpt":{"rendered":"Por Guy Rosen, Vicepresidente de Gesti\u00f3n de Productos. Hay dos formas para reconocer contenido inapropiado como videos terroristas, incitaci\u00f3n al odio, pornograf\u00eda o violencia: eliminarla cuando alguien lo reporte o encontrarlo proactivamente a trav\u00e9s de la tecnolog\u00eda. Ambos son importantes, pero los avances en tecnolog\u00eda, incluso en inteligencia artificial, aprendizaje autom\u00e1tico y visi\u00f3n artificial, significan que ahora podemos: Eliminar contenido inapropiado m\u00e1s r\u00e1pido porque no siempre tenemos que esperar a que sea reportado. Cuando se trata de un suicidio, esto puede significar la diferencia entre la vida y la muerte porque en cuanto nuestra tecnolog\u00eda identifique que alguien expres\u00f3 sentimientos de suicidio, podemos ofrecer ayuda o trabajar con los primeros en responder, lo que hemos hecho en m\u00e1s de mil casos Detectar m\u00e1s contenido porque no tenemos que esperar a que alguien m\u00e1s lo encuentre y reporte. Como anunciamos hace dos semanas, en el primer trimestre de 2018 eliminamos proactivamente casi dos millones de publicaciones de contenido de ISIS y Al-Qaeda: el 99 por ciento de las cuales fueron eliminadas antes de que alguien lo reportara a Facebook. Aumentar la capacidad de nuestro equipo de revisi\u00f3n para trabajar en casos en que se necesita experiencia humana para comprender el contexto o los matices de una situaci\u00f3n particular. Por ejemplo, \u00bfalguien est\u00e1 hablando sobre su propia adicci\u00f3n a las drogas o animando a otros a tomar drogas? Nos llev\u00f3 tiempo desarrollar este software y estamos constantemente trabajando para mejorarlo. Hacemos esto mediante el an\u00e1lisis de ejemplos espec\u00edficos de contenido inapropiado que ya fue reportado y eliminado, con el fin de identificar patrones de comportamiento. Estos patrones se pueden usar para ense\u00f1ar a nuestro software a buscar proactivamente otros problemas similares. Desnudosy violencia gr\u00e1fica: Estos son dos tipos muy diferentes de contenido, pero estamos utilizando mejoras en la visi\u00f3n computacional para eliminar ambos de forma proactiva. Discurso de odio: Comprender el contexto del discurso por lo general requiere ojos humanos: es un discurso de odio, o se lo comparte para condenar el discurso de odio o aumentar la conciencia al respecto? Comenzamos a implementar la tecnolog\u00eda para detectar de manera proactiva algo que pueda violar nuestras pol\u00edticas, comenzando con ciertos idiomas, como ingl\u00e9s y portugu\u00e9s. Luego, nuestros equipos revisan el contenido, de modo que lo que est\u00e1 bien permanece en la plataforma. Un ejemplo es alguien que describe el odio que encontraron para concientizar sobre el problema. Cuentas falsas: Bloqueamos millones de cuentas falsas todos los d\u00edas cuando se crean y antes de que puedan causar alg\u00fan da\u00f1o. Esto es muy importante en la lucha contra el spam, las noticias falsas, la desinformaci\u00f3n y los anuncios inapropiados. Recientemente, empezamos a usar inteligencia artificial para detectar cuentas vinculadas a estafas financieras. Spam: La gran mayor\u00eda de nuestro trabajo para combatir el spam se realiza autom\u00e1ticamente mediante patrones reconocibles de comportamiento problem\u00e1tico. Por ejemplo, si una cuenta se publica una y otra vez en una sucesi\u00f3n r\u00e1pida, eso es una se\u00f1al fuerte de que algo est\u00e1 mal. Propaganda terrorista: La gran mayor\u00eda de este contenido se elimina autom\u00e1ticamente, sin la necesidad de que alguien lo reporte primero. Prevenci\u00f3n del suicidio: Como se explic\u00f3 anteriormente, identificamos de manera proactiva las publicaciones que pueden manifestar que las personas est\u00e1n en riesgo para que puedan obtener ayuda. Cuando hablo de tecnolog\u00eda como la inteligencia artificial, la visi\u00f3n computacional o el aprendizaje autom\u00e1tico, las personas a menudo se preguntan por qu\u00e9 no progresamos m\u00e1s r\u00e1pido &#8211; y es una buena pregunta. La Inteligencia Artificial, por ejemplo, es muy prometedora, pero todav\u00eda estamos a a\u00f1os de que sea efectiva para todo tipo de contenido inapropiado porque el contexto es muy importante. Es por eso que tenemos personas que siguen revisando los informes. Y, en t\u00e9rminos m\u00e1s generales, la tecnolog\u00eda necesita grandes cantidades de datos de capacitaci\u00f3n para reconocer patrones de comportamiento significativos, que a menudo nos faltan en los idiomas menos utilizados o en los casos que no se informan con frecuencia. Es por eso que normalmente podemos hacer m\u00e1s en ingl\u00e9s, ya que es el mayor conjunto de datos que tenemos en Facebook. Pero estamos invirtiendo en tecnolog\u00eda para aumentar nuestra precisi\u00f3n en nuevos idiomas. Por ejemplo, Facebook AI Research (FAIR) est\u00e1 trabajando en un \u00e1rea llamada embeddings multilenguas como una forma potencial de abordar el tema desaf\u00edo del lenguaje. Es por eso que a veces pedimos a las personas que reporten si las publicaciones contienen cierto tipo de contenido, para alentarlas a marcarlo para su revisi\u00f3n. Y es por eso que los informes que provienen de personas que usan Facebook son tan importantes, y por lo que pedimos a nuestra comunidad que por favor siga reportando. Trabajando juntos podemos ayudar a que Facebook sea m\u00e1s seguro para todos.","protected":false},"author":95829248,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[30660046],"tags":[243947953,243947837],"class_list":["post-6384","post","type-post","status-publish","format-standard","hentry","category-noticias-de-la-empresa","tag-eventos","tag-f8"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>C\u00f3mo la tecnolog\u00eda nos ayuda a eliminar el contenido inapropiado de Facebook | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"C\u00f3mo la tecnolog\u00eda nos ayuda a eliminar el contenido inapropiado de Facebook | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Por Guy Rosen, Vicepresidente de Gesti\u00f3n de Productos. Hay dos formas para reconocer contenido inapropiado como videos terroristas, incitaci\u00f3n al odio, pornograf\u00eda o violencia: eliminarla cuando alguien lo reporte o encontrarlo proactivamente a trav\u00e9s de la tecnolog\u00eda. Ambos son importantes, pero los avances en tecnolog\u00eda, incluso en inteligencia artificial, aprendizaje autom\u00e1tico y visi\u00f3n artificial, significan que ahora podemos: Eliminar contenido inapropiado m\u00e1s r\u00e1pido porque no siempre tenemos que esperar a que sea reportado. Cuando se trata de un suicidio, esto puede significar la diferencia entre la vida y la muerte porque en cuanto nuestra tecnolog\u00eda identifique que alguien expres\u00f3 sentimientos de suicidio, podemos ofrecer ayuda o trabajar con los primeros en responder, lo que hemos hecho en m\u00e1s de mil casos Detectar m\u00e1s contenido porque no tenemos que esperar a que alguien m\u00e1s lo encuentre y reporte. Como anunciamos hace dos semanas, en el primer trimestre de 2018 eliminamos proactivamente casi dos millones de publicaciones de contenido de ISIS y Al-Qaeda: el 99 por ciento de las cuales fueron eliminadas antes de que alguien lo reportara a Facebook. Aumentar la capacidad de nuestro equipo de revisi\u00f3n para trabajar en casos en que se necesita experiencia humana para comprender el contexto o los matices de una situaci\u00f3n particular. Por ejemplo, \u00bfalguien est\u00e1 hablando sobre su propia adicci\u00f3n a las drogas o animando a otros a tomar drogas? Nos llev\u00f3 tiempo desarrollar este software y estamos constantemente trabajando para mejorarlo. Hacemos esto mediante el an\u00e1lisis de ejemplos espec\u00edficos de contenido inapropiado que ya fue reportado y eliminado, con el fin de identificar patrones de comportamiento. Estos patrones se pueden usar para ense\u00f1ar a nuestro software a buscar proactivamente otros problemas similares. Desnudosy violencia gr\u00e1fica: Estos son dos tipos muy diferentes de contenido, pero estamos utilizando mejoras en la visi\u00f3n computacional para eliminar ambos de forma proactiva. Discurso de odio: Comprender el contexto del discurso por lo general requiere ojos humanos: es un discurso de odio, o se lo comparte para condenar el discurso de odio o aumentar la conciencia al respecto? Comenzamos a implementar la tecnolog\u00eda para detectar de manera proactiva algo que pueda violar nuestras pol\u00edticas, comenzando con ciertos idiomas, como ingl\u00e9s y portugu\u00e9s. Luego, nuestros equipos revisan el contenido, de modo que lo que est\u00e1 bien permanece en la plataforma. Un ejemplo es alguien que describe el odio que encontraron para concientizar sobre el problema. Cuentas falsas: Bloqueamos millones de cuentas falsas todos los d\u00edas cuando se crean y antes de que puedan causar alg\u00fan da\u00f1o. Esto es muy importante en la lucha contra el spam, las noticias falsas, la desinformaci\u00f3n y los anuncios inapropiados. Recientemente, empezamos a usar inteligencia artificial para detectar cuentas vinculadas a estafas financieras. Spam: La gran mayor\u00eda de nuestro trabajo para combatir el spam se realiza autom\u00e1ticamente mediante patrones reconocibles de comportamiento problem\u00e1tico. Por ejemplo, si una cuenta se publica una y otra vez en una sucesi\u00f3n r\u00e1pida, eso es una se\u00f1al fuerte de que algo est\u00e1 mal. Propaganda terrorista: La gran mayor\u00eda de este contenido se elimina autom\u00e1ticamente, sin la necesidad de que alguien lo reporte primero. Prevenci\u00f3n del suicidio: Como se explic\u00f3 anteriormente, identificamos de manera proactiva las publicaciones que pueden manifestar que las personas est\u00e1n en riesgo para que puedan obtener ayuda. Cuando hablo de tecnolog\u00eda como la inteligencia artificial, la visi\u00f3n computacional o el aprendizaje autom\u00e1tico, las personas a menudo se preguntan por qu\u00e9 no progresamos m\u00e1s r\u00e1pido &#8211; y es una buena pregunta. La Inteligencia Artificial, por ejemplo, es muy prometedora, pero todav\u00eda estamos a a\u00f1os de que sea efectiva para todo tipo de contenido inapropiado porque el contexto es muy importante. Es por eso que tenemos personas que siguen revisando los informes. Y, en t\u00e9rminos m\u00e1s generales, la tecnolog\u00eda necesita grandes cantidades de datos de capacitaci\u00f3n para reconocer patrones de comportamiento significativos, que a menudo nos faltan en los idiomas menos utilizados o en los casos que no se informan con frecuencia. Es por eso que normalmente podemos hacer m\u00e1s en ingl\u00e9s, ya que es el mayor conjunto de datos que tenemos en Facebook. Pero estamos invirtiendo en tecnolog\u00eda para aumentar nuestra precisi\u00f3n en nuevos idiomas. Por ejemplo, Facebook AI Research (FAIR) est\u00e1 trabajando en un \u00e1rea llamada embeddings multilenguas como una forma potencial de abordar el tema desaf\u00edo del lenguaje. Es por eso que a veces pedimos a las personas que reporten si las publicaciones contienen cierto tipo de contenido, para alentarlas a marcarlo para su revisi\u00f3n. Y es por eso que los informes que provienen de personas que usan Facebook son tan importantes, y por lo que pedimos a nuestra comunidad que por favor siga reportando. Trabajando juntos podemos ayudar a que Facebook sea m\u00e1s seguro para todos.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2018-05-02T17:28:32+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"camilagfb\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"4 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/\"},\"author\":\"Facebook company\",\"headline\":\"C\u00f3mo la tecnolog\u00eda nos ayuda a eliminar el contenido inapropiado de Facebook\",\"datePublished\":\"2018-05-02T17:28:32+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/\"},\"wordCount\":852,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"keywords\":[\"Eventos\",\"F8\"],\"articleSection\":[\"Noticias de la Empresa\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/\",\"name\":\"C\u00f3mo la tecnolog\u00eda nos ayuda a eliminar el contenido inapropiado de Facebook | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"datePublished\":\"2018-05-02T17:28:32+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"C\u00f3mo la tecnolog\u00eda nos ayuda a eliminar el contenido inapropiado de Facebook\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"C\u00f3mo la tecnolog\u00eda nos ayuda a eliminar el contenido inapropiado de Facebook | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/","og_locale":"es_ES","og_type":"article","og_title":"C\u00f3mo la tecnolog\u00eda nos ayuda a eliminar el contenido inapropiado de Facebook | Acerca de Meta","og_description":"Por Guy Rosen, Vicepresidente de Gesti\u00f3n de Productos. Hay dos formas para reconocer contenido inapropiado como videos terroristas, incitaci\u00f3n al odio, pornograf\u00eda o violencia: eliminarla cuando alguien lo reporte o encontrarlo proactivamente a trav\u00e9s de la tecnolog\u00eda. Ambos son importantes, pero los avances en tecnolog\u00eda, incluso en inteligencia artificial, aprendizaje autom\u00e1tico y visi\u00f3n artificial, significan que ahora podemos: Eliminar contenido inapropiado m\u00e1s r\u00e1pido porque no siempre tenemos que esperar a que sea reportado. Cuando se trata de un suicidio, esto puede significar la diferencia entre la vida y la muerte porque en cuanto nuestra tecnolog\u00eda identifique que alguien expres\u00f3 sentimientos de suicidio, podemos ofrecer ayuda o trabajar con los primeros en responder, lo que hemos hecho en m\u00e1s de mil casos Detectar m\u00e1s contenido porque no tenemos que esperar a que alguien m\u00e1s lo encuentre y reporte. Como anunciamos hace dos semanas, en el primer trimestre de 2018 eliminamos proactivamente casi dos millones de publicaciones de contenido de ISIS y Al-Qaeda: el 99 por ciento de las cuales fueron eliminadas antes de que alguien lo reportara a Facebook. Aumentar la capacidad de nuestro equipo de revisi\u00f3n para trabajar en casos en que se necesita experiencia humana para comprender el contexto o los matices de una situaci\u00f3n particular. Por ejemplo, \u00bfalguien est\u00e1 hablando sobre su propia adicci\u00f3n a las drogas o animando a otros a tomar drogas? Nos llev\u00f3 tiempo desarrollar este software y estamos constantemente trabajando para mejorarlo. Hacemos esto mediante el an\u00e1lisis de ejemplos espec\u00edficos de contenido inapropiado que ya fue reportado y eliminado, con el fin de identificar patrones de comportamiento. Estos patrones se pueden usar para ense\u00f1ar a nuestro software a buscar proactivamente otros problemas similares. Desnudosy violencia gr\u00e1fica: Estos son dos tipos muy diferentes de contenido, pero estamos utilizando mejoras en la visi\u00f3n computacional para eliminar ambos de forma proactiva. Discurso de odio: Comprender el contexto del discurso por lo general requiere ojos humanos: es un discurso de odio, o se lo comparte para condenar el discurso de odio o aumentar la conciencia al respecto? Comenzamos a implementar la tecnolog\u00eda para detectar de manera proactiva algo que pueda violar nuestras pol\u00edticas, comenzando con ciertos idiomas, como ingl\u00e9s y portugu\u00e9s. Luego, nuestros equipos revisan el contenido, de modo que lo que est\u00e1 bien permanece en la plataforma. Un ejemplo es alguien que describe el odio que encontraron para concientizar sobre el problema. Cuentas falsas: Bloqueamos millones de cuentas falsas todos los d\u00edas cuando se crean y antes de que puedan causar alg\u00fan da\u00f1o. Esto es muy importante en la lucha contra el spam, las noticias falsas, la desinformaci\u00f3n y los anuncios inapropiados. Recientemente, empezamos a usar inteligencia artificial para detectar cuentas vinculadas a estafas financieras. Spam: La gran mayor\u00eda de nuestro trabajo para combatir el spam se realiza autom\u00e1ticamente mediante patrones reconocibles de comportamiento problem\u00e1tico. Por ejemplo, si una cuenta se publica una y otra vez en una sucesi\u00f3n r\u00e1pida, eso es una se\u00f1al fuerte de que algo est\u00e1 mal. Propaganda terrorista: La gran mayor\u00eda de este contenido se elimina autom\u00e1ticamente, sin la necesidad de que alguien lo reporte primero. Prevenci\u00f3n del suicidio: Como se explic\u00f3 anteriormente, identificamos de manera proactiva las publicaciones que pueden manifestar que las personas est\u00e1n en riesgo para que puedan obtener ayuda. Cuando hablo de tecnolog\u00eda como la inteligencia artificial, la visi\u00f3n computacional o el aprendizaje autom\u00e1tico, las personas a menudo se preguntan por qu\u00e9 no progresamos m\u00e1s r\u00e1pido &#8211; y es una buena pregunta. La Inteligencia Artificial, por ejemplo, es muy prometedora, pero todav\u00eda estamos a a\u00f1os de que sea efectiva para todo tipo de contenido inapropiado porque el contexto es muy importante. Es por eso que tenemos personas que siguen revisando los informes. Y, en t\u00e9rminos m\u00e1s generales, la tecnolog\u00eda necesita grandes cantidades de datos de capacitaci\u00f3n para reconocer patrones de comportamiento significativos, que a menudo nos faltan en los idiomas menos utilizados o en los casos que no se informan con frecuencia. Es por eso que normalmente podemos hacer m\u00e1s en ingl\u00e9s, ya que es el mayor conjunto de datos que tenemos en Facebook. Pero estamos invirtiendo en tecnolog\u00eda para aumentar nuestra precisi\u00f3n en nuevos idiomas. Por ejemplo, Facebook AI Research (FAIR) est\u00e1 trabajando en un \u00e1rea llamada embeddings multilenguas como una forma potencial de abordar el tema desaf\u00edo del lenguaje. Es por eso que a veces pedimos a las personas que reporten si las publicaciones contienen cierto tipo de contenido, para alentarlas a marcarlo para su revisi\u00f3n. Y es por eso que los informes que provienen de personas que usan Facebook son tan importantes, y por lo que pedimos a nuestra comunidad que por favor siga reportando. Trabajando juntos podemos ayudar a que Facebook sea m\u00e1s seguro para todos.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/","og_site_name":"Acerca de Meta","article_published_time":"2018-05-02T17:28:32+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"camilagfb","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"4 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/"},"author":"Facebook company","headline":"C\u00f3mo la tecnolog\u00eda nos ayuda a eliminar el contenido inapropiado de Facebook","datePublished":"2018-05-02T17:28:32+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/"},"wordCount":852,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"keywords":["Eventos","F8"],"articleSection":["Noticias de la Empresa"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/","url":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/","name":"C\u00f3mo la tecnolog\u00eda nos ayuda a eliminar el contenido inapropiado de Facebook | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"datePublished":"2018-05-02T17:28:32+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/"]}],"author":"Acerca de Meta"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2018\/05\/como-la-tecnologia-nos-ayuda-a-eliminar-el-contenido-inapropiado-de-facebook\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"C\u00f3mo la tecnolog\u00eda nos ayuda a eliminar el contenido inapropiado de Facebook"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6384","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/95829248"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=6384"}],"version-history":[{"count":1,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6384\/revisions"}],"predecessor-version":[{"id":6385,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6384\/revisions\/6385"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=6384"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=6384"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=6384"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}