{"id":21640,"date":"2020-07-01T10:13:53","date_gmt":"2020-07-01T15:13:53","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=21640"},"modified":"2020-07-01T10:18:25","modified_gmt":"2020-07-01T15:18:25","slug":"nick-clegg-facebook-no-se-beneficia-del-odio","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/","title":{"rendered":"Facebook no se beneficia del odio"},"content":{"rendered":"<p><em>Por Nick Clegg, VP de Asuntos P\u00fablicos y Comunicaciones<\/em><\/p>\n<p><span style=\"font-weight: 400\">La polarizaci\u00f3n y las tensiones que atraviesan a la sociedad se reflejan en las redes sociales. Y plataformas como Facebook son el espejo de esas discusiones: con m\u00e1s de 3 mil millones de personas usando las aplicaciones de Facebook mensualmente, todo lo bueno, lo malo y lo feo de nuestras sociedades encontrar\u00e1 un lugar para ser expresado. Eso pone una gran responsabilidad en Facebook y en otras compa\u00f1\u00edas de redes sociales para decidir qu\u00e9 contenido es aceptable.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Facebook ha recibido muchas cr\u00edticas en las \u00faltimas semanas por su decisi\u00f3n de permitir que publicaciones controvertidas del presidente estadounidense, Donald Trump, se mantengan en la plataforma, y tambi\u00e9n fue cuestionada por personas y empresas que se anuncian en nuestros servicios sobre c\u00f3mo abordamos el discurso de odio. Quiero ser claro: Facebook no se beneficia del odio. Miles de millones de personas usan Facebook e Instagram porque tienen buenas experiencias en nuestras apps. Nuestra comunidad no quiere ver contenido de odio, nuestros anunciantes no quieren verlo, y nosotros tampoco. No hay incentivo alguno para que hagamos otra cosa que no sea eliminarlo.<\/span><\/p>\n<p><span style=\"font-weight: 400\">M\u00e1s de 100 mil millones de mensajes son publicados diariamente en nuestros servicios. Somos nosotros hablando, compartiendo nuestras vidas, nuestras opiniones, nuestras esperanzas y nuestras experiencias. En esas miles de millones de interacciones, una peque\u00f1a fracci\u00f3n es contenido de odio. Cuando encontramos publicaciones de este tipo en Facebook e Instagram, tenemos tolerancia cero y las removemos. Cuando un contenido no clasifica para ser tratado como discurso de odio, ni es considerado dentro de otras pol\u00edticas destinadas a prevenir da\u00f1os o la supresi\u00f3n del voto, nos inclinamos por la libre expresi\u00f3n, porque en \u00faltima instancia, la mejor manera de contrarrestar el discurso ofensivo, divisivo y da\u00f1ino es con m\u00e1s conversaci\u00f3n. Exponerlo a la luz es mejor que esconderlo en las sombras.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Desafortunadamente, la tolerancia cero no significa cero casos. Con el volumen de contenido que se publica diariamente en nuestras plataformas, erradicar el odio es como buscar una aguja en un pajar. Invertimos miles de millones de d\u00f3lares anuales en recursos humanos y tecnolog\u00eda para mantener nuestra plataforma segura. Hemos triplicado nuestro equipo de seguridad hasta llegar a las actuales 35 mil personas. Somos pioneros en la aplicaci\u00f3n de inteligencia artificial para eliminar contenido de odio a escala.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Y hemos progresado. Un informe reciente de la Comisi\u00f3n Europea revel\u00f3 que Facebook revis\u00f3 el 95,7% de los reportes de discurso de odio en menos de 24 horas, m\u00e1s r\u00e1pido que YouTube y Twitter. El mes pasado, informamos que removimos casi el 90% del discurso de odio que encontramos antes de que alguien lo reportara. Esto represent\u00f3 un aumento del 24% en nuestra eficacia en poco m\u00e1s de dos a\u00f1os. Actuamos sobre 9,6 millones de piezas de contenido en el primer trimestre del 2020, frente a los 5,7 millones del trimestre anterior. Y el 99% del contenido de ISIS y Al Qaeda que eliminamos es retirado antes de que alguien lo reporte.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Estamos mejorando, pero no somos complacientes. Es por eso que anunciamos recientemente nuevas pol\u00edticas y productos para asegurar que todos puedan mantenerse seguros, informados y, en \u00faltima instancia, puedan usar su voz donde m\u00e1s importa: el voto. Esto incluye el despliegue de la mayor campa\u00f1a de informaci\u00f3n electoral en la historia de los EEUU, una iniciativa que busca registrar a cuatro millones de votantes. Tambi\u00e9n, implementamos actualizaciones a las pol\u00edticas dise\u00f1adas para combatir la supresi\u00f3n del voto y el discurso de odio. Muchos de estos cambios son el resultado directo de contribuciones de la comunidad de derechos civiles. Seguiremos trabajando con ellos y junto a otros expertos para ajustar nuestras pol\u00edticas y abordar nuevos riesgos a medida que vayan surgiendo.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Es comprensible y necesario hacer foco en el discurso de odio y en otros tipos de contenido da\u00f1ino en las redes sociales, pero vale la pena recordar que la gran mayor\u00eda de las conversaciones que suceden son positivas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Lo vimos cuando se desat\u00f3 la pandemia de coronavirus. Miles de millones de personas usaron Facebook para mantenerse conectadas cuando estaban f\u00edsicamente separadas. Abuelos y nietos, hermanos y hermanas, amigos y vecinos. Y m\u00e1s que eso, las personas se unieron para ayudarse mutuamente. Se formaron miles y miles de grupos locales, y millones de personas se organizaron para ayudar a los m\u00e1s vulnerables en sus comunidades. Otras, para celebrar y apoyar a los trabajadores de la salud. Y cuando las empresas tuvieron que cerrar sus puertas al p\u00fablico, para muchos, Facebook fue su salvavidas. M\u00e1s de 160 millones de negocios usan las herramientas gratuitas de Facebook para llegar a los clientes, y muchos las emplearon para mantenerse a flote, lo que ayud\u00f3 a preservar empleos y el sustento de muchas personas.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Es importante destacar que Facebook contribuy\u00f3 para que las personas obtuvieran informaci\u00f3n precisa y confiable sobre temas sanitarios. Orientamos a m\u00e1s de 2 mil millones de personas en Facebook e Instagram para que accedan a la informaci\u00f3n de la Organizaci\u00f3n Mundial de la Salud y de otras autoridades de salud p\u00fablica. Y m\u00e1s de 350 millones de personas hicieron clic para ver ese contenido.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Y vale la pena recordar que cuando las cosas m\u00e1s oscuras est\u00e1n sucediendo en nuestra sociedad, las redes sociales les brindan a las personas una herramienta para echar luz. Para mostrarle al mundo lo que est\u00e1 sucediendo; organizarse contra el odio y unirse; y para que millones en todo el mundo expresen su solidaridad. Lo hemos visto en innumerables ocasiones, y lo estamos viendo ahora mismo con el movimiento Black Lives Matter.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Es posible que nunca podamos erradicar el odio por completo en Facebook, pero estamos mejorando constantemente en la tarea de detenerlo.<\/span><\/p>\n<p><i><span style=\"font-weight: 400\">*Columna publicada en exclusiva en La Naci\u00f3n (Argentina), Valor Econ\u00f3mico (Brasil), El Tiempo (Colombia) y El Universal (M\u00e9xico) en Am\u00e9rica Latina.\u00a0<\/span><\/i><\/p>\n","protected":false},"excerpt":{"rendered":"Por Nick Clegg, VP de Asuntos P\u00fablicos y Comunicaciones La polarizaci\u00f3n y las tensiones que atraviesan a la sociedad se reflejan en las redes sociales. Y plataformas como Facebook son el espejo de esas discusiones: con m\u00e1s de 3 mil millones de personas usando las aplicaciones de Facebook mensualmente, todo lo bueno, lo malo y lo feo de nuestras sociedades encontrar\u00e1 un lugar para ser expresado. Eso pone una gran responsabilidad en Facebook y en otras compa\u00f1\u00edas de redes sociales para decidir qu\u00e9 contenido es aceptable. Facebook ha recibido muchas cr\u00edticas en las \u00faltimas semanas por su decisi\u00f3n de permitir que publicaciones controvertidas del presidente estadounidense, Donald Trump, se mantengan en la plataforma, y tambi\u00e9n fue cuestionada por personas y empresas que se anuncian en nuestros servicios sobre c\u00f3mo abordamos el discurso de odio. Quiero ser claro: Facebook no se beneficia del odio. Miles de millones de personas usan Facebook e Instagram porque tienen buenas experiencias en nuestras apps. Nuestra comunidad no quiere ver contenido de odio, nuestros anunciantes no quieren verlo, y nosotros tampoco. No hay incentivo alguno para que hagamos otra cosa que no sea eliminarlo. M\u00e1s de 100 mil millones de mensajes son publicados diariamente en nuestros servicios. Somos nosotros hablando, compartiendo nuestras vidas, nuestras opiniones, nuestras esperanzas y nuestras experiencias. En esas miles de millones de interacciones, una peque\u00f1a fracci\u00f3n es contenido de odio. Cuando encontramos publicaciones de este tipo en Facebook e Instagram, tenemos tolerancia cero y las removemos. Cuando un contenido no clasifica para ser tratado como discurso de odio, ni es considerado dentro de otras pol\u00edticas destinadas a prevenir da\u00f1os o la supresi\u00f3n del voto, nos inclinamos por la libre expresi\u00f3n, porque en \u00faltima instancia, la mejor manera de contrarrestar el discurso ofensivo, divisivo y da\u00f1ino es con m\u00e1s conversaci\u00f3n. Exponerlo a la luz es mejor que esconderlo en las sombras. Desafortunadamente, la tolerancia cero no significa cero casos. Con el volumen de contenido que se publica diariamente en nuestras plataformas, erradicar el odio es como buscar una aguja en un pajar. Invertimos miles de millones de d\u00f3lares anuales en recursos humanos y tecnolog\u00eda para mantener nuestra plataforma segura. Hemos triplicado nuestro equipo de seguridad hasta llegar a las actuales 35 mil personas. Somos pioneros en la aplicaci\u00f3n de inteligencia artificial para eliminar contenido de odio a escala. Y hemos progresado. Un informe reciente de la Comisi\u00f3n Europea revel\u00f3 que Facebook revis\u00f3 el 95,7% de los reportes de discurso de odio en menos de 24 horas, m\u00e1s r\u00e1pido que YouTube y Twitter. El mes pasado, informamos que removimos casi el 90% del discurso de odio que encontramos antes de que alguien lo reportara. Esto represent\u00f3 un aumento del 24% en nuestra eficacia en poco m\u00e1s de dos a\u00f1os. Actuamos sobre 9,6 millones de piezas de contenido en el primer trimestre del 2020, frente a los 5,7 millones del trimestre anterior. Y el 99% del contenido de ISIS y Al Qaeda que eliminamos es retirado antes de que alguien lo reporte. Estamos mejorando, pero no somos complacientes. Es por eso que anunciamos recientemente nuevas pol\u00edticas y productos para asegurar que todos puedan mantenerse seguros, informados y, en \u00faltima instancia, puedan usar su voz donde m\u00e1s importa: el voto. Esto incluye el despliegue de la mayor campa\u00f1a de informaci\u00f3n electoral en la historia de los EEUU, una iniciativa que busca registrar a cuatro millones de votantes. Tambi\u00e9n, implementamos actualizaciones a las pol\u00edticas dise\u00f1adas para combatir la supresi\u00f3n del voto y el discurso de odio. Muchos de estos cambios son el resultado directo de contribuciones de la comunidad de derechos civiles. Seguiremos trabajando con ellos y junto a otros expertos para ajustar nuestras pol\u00edticas y abordar nuevos riesgos a medida que vayan surgiendo. Es comprensible y necesario hacer foco en el discurso de odio y en otros tipos de contenido da\u00f1ino en las redes sociales, pero vale la pena recordar que la gran mayor\u00eda de las conversaciones que suceden son positivas. Lo vimos cuando se desat\u00f3 la pandemia de coronavirus. Miles de millones de personas usaron Facebook para mantenerse conectadas cuando estaban f\u00edsicamente separadas. Abuelos y nietos, hermanos y hermanas, amigos y vecinos. Y m\u00e1s que eso, las personas se unieron para ayudarse mutuamente. Se formaron miles y miles de grupos locales, y millones de personas se organizaron para ayudar a los m\u00e1s vulnerables en sus comunidades. Otras, para celebrar y apoyar a los trabajadores de la salud. Y cuando las empresas tuvieron que cerrar sus puertas al p\u00fablico, para muchos, Facebook fue su salvavidas. M\u00e1s de 160 millones de negocios usan las herramientas gratuitas de Facebook para llegar a los clientes, y muchos las emplearon para mantenerse a flote, lo que ayud\u00f3 a preservar empleos y el sustento de muchas personas. Es importante destacar que Facebook contribuy\u00f3 para que las personas obtuvieran informaci\u00f3n precisa y confiable sobre temas sanitarios. Orientamos a m\u00e1s de 2 mil millones de personas en Facebook e Instagram para que accedan a la informaci\u00f3n de la Organizaci\u00f3n Mundial de la Salud y de otras autoridades de salud p\u00fablica. Y m\u00e1s de 350 millones de personas hicieron clic para ver ese contenido. Y vale la pena recordar que cuando las cosas m\u00e1s oscuras est\u00e1n sucediendo en nuestra sociedad, las redes sociales les brindan a las personas una herramienta para echar luz. Para mostrarle al mundo lo que est\u00e1 sucediendo; organizarse contra el odio y unirse; y para que millones en todo el mundo expresen su solidaridad. Lo hemos visto en innumerables ocasiones, y lo estamos viendo ahora mismo con el movimiento Black Lives Matter. Es posible que nunca podamos erradicar el odio por completo en Facebook, pero estamos mejorando constantemente en la tarea de detenerlo. *Columna publicada en exclusiva en La Naci\u00f3n (Argentina), Valor Econ\u00f3mico (Brasil), El Tiempo (Colombia) y El Universal (M\u00e9xico) en Am\u00e9rica Latina.\u00a0","protected":false},"author":145013940,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[30660046],"tags":[],"class_list":["post-21640","post","type-post","status-publish","format-standard","hentry","category-noticias-de-la-empresa"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Facebook no se beneficia del odio | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Facebook no se beneficia del odio | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Por Nick Clegg, VP de Asuntos P\u00fablicos y Comunicaciones La polarizaci\u00f3n y las tensiones que atraviesan a la sociedad se reflejan en las redes sociales. Y plataformas como Facebook son el espejo de esas discusiones: con m\u00e1s de 3 mil millones de personas usando las aplicaciones de Facebook mensualmente, todo lo bueno, lo malo y lo feo de nuestras sociedades encontrar\u00e1 un lugar para ser expresado. Eso pone una gran responsabilidad en Facebook y en otras compa\u00f1\u00edas de redes sociales para decidir qu\u00e9 contenido es aceptable. Facebook ha recibido muchas cr\u00edticas en las \u00faltimas semanas por su decisi\u00f3n de permitir que publicaciones controvertidas del presidente estadounidense, Donald Trump, se mantengan en la plataforma, y tambi\u00e9n fue cuestionada por personas y empresas que se anuncian en nuestros servicios sobre c\u00f3mo abordamos el discurso de odio. Quiero ser claro: Facebook no se beneficia del odio. Miles de millones de personas usan Facebook e Instagram porque tienen buenas experiencias en nuestras apps. Nuestra comunidad no quiere ver contenido de odio, nuestros anunciantes no quieren verlo, y nosotros tampoco. No hay incentivo alguno para que hagamos otra cosa que no sea eliminarlo. M\u00e1s de 100 mil millones de mensajes son publicados diariamente en nuestros servicios. Somos nosotros hablando, compartiendo nuestras vidas, nuestras opiniones, nuestras esperanzas y nuestras experiencias. En esas miles de millones de interacciones, una peque\u00f1a fracci\u00f3n es contenido de odio. Cuando encontramos publicaciones de este tipo en Facebook e Instagram, tenemos tolerancia cero y las removemos. Cuando un contenido no clasifica para ser tratado como discurso de odio, ni es considerado dentro de otras pol\u00edticas destinadas a prevenir da\u00f1os o la supresi\u00f3n del voto, nos inclinamos por la libre expresi\u00f3n, porque en \u00faltima instancia, la mejor manera de contrarrestar el discurso ofensivo, divisivo y da\u00f1ino es con m\u00e1s conversaci\u00f3n. Exponerlo a la luz es mejor que esconderlo en las sombras. Desafortunadamente, la tolerancia cero no significa cero casos. Con el volumen de contenido que se publica diariamente en nuestras plataformas, erradicar el odio es como buscar una aguja en un pajar. Invertimos miles de millones de d\u00f3lares anuales en recursos humanos y tecnolog\u00eda para mantener nuestra plataforma segura. Hemos triplicado nuestro equipo de seguridad hasta llegar a las actuales 35 mil personas. Somos pioneros en la aplicaci\u00f3n de inteligencia artificial para eliminar contenido de odio a escala. Y hemos progresado. Un informe reciente de la Comisi\u00f3n Europea revel\u00f3 que Facebook revis\u00f3 el 95,7% de los reportes de discurso de odio en menos de 24 horas, m\u00e1s r\u00e1pido que YouTube y Twitter. El mes pasado, informamos que removimos casi el 90% del discurso de odio que encontramos antes de que alguien lo reportara. Esto represent\u00f3 un aumento del 24% en nuestra eficacia en poco m\u00e1s de dos a\u00f1os. Actuamos sobre 9,6 millones de piezas de contenido en el primer trimestre del 2020, frente a los 5,7 millones del trimestre anterior. Y el 99% del contenido de ISIS y Al Qaeda que eliminamos es retirado antes de que alguien lo reporte. Estamos mejorando, pero no somos complacientes. Es por eso que anunciamos recientemente nuevas pol\u00edticas y productos para asegurar que todos puedan mantenerse seguros, informados y, en \u00faltima instancia, puedan usar su voz donde m\u00e1s importa: el voto. Esto incluye el despliegue de la mayor campa\u00f1a de informaci\u00f3n electoral en la historia de los EEUU, una iniciativa que busca registrar a cuatro millones de votantes. Tambi\u00e9n, implementamos actualizaciones a las pol\u00edticas dise\u00f1adas para combatir la supresi\u00f3n del voto y el discurso de odio. Muchos de estos cambios son el resultado directo de contribuciones de la comunidad de derechos civiles. Seguiremos trabajando con ellos y junto a otros expertos para ajustar nuestras pol\u00edticas y abordar nuevos riesgos a medida que vayan surgiendo. Es comprensible y necesario hacer foco en el discurso de odio y en otros tipos de contenido da\u00f1ino en las redes sociales, pero vale la pena recordar que la gran mayor\u00eda de las conversaciones que suceden son positivas. Lo vimos cuando se desat\u00f3 la pandemia de coronavirus. Miles de millones de personas usaron Facebook para mantenerse conectadas cuando estaban f\u00edsicamente separadas. Abuelos y nietos, hermanos y hermanas, amigos y vecinos. Y m\u00e1s que eso, las personas se unieron para ayudarse mutuamente. Se formaron miles y miles de grupos locales, y millones de personas se organizaron para ayudar a los m\u00e1s vulnerables en sus comunidades. Otras, para celebrar y apoyar a los trabajadores de la salud. Y cuando las empresas tuvieron que cerrar sus puertas al p\u00fablico, para muchos, Facebook fue su salvavidas. M\u00e1s de 160 millones de negocios usan las herramientas gratuitas de Facebook para llegar a los clientes, y muchos las emplearon para mantenerse a flote, lo que ayud\u00f3 a preservar empleos y el sustento de muchas personas. Es importante destacar que Facebook contribuy\u00f3 para que las personas obtuvieran informaci\u00f3n precisa y confiable sobre temas sanitarios. Orientamos a m\u00e1s de 2 mil millones de personas en Facebook e Instagram para que accedan a la informaci\u00f3n de la Organizaci\u00f3n Mundial de la Salud y de otras autoridades de salud p\u00fablica. Y m\u00e1s de 350 millones de personas hicieron clic para ver ese contenido. Y vale la pena recordar que cuando las cosas m\u00e1s oscuras est\u00e1n sucediendo en nuestra sociedad, las redes sociales les brindan a las personas una herramienta para echar luz. Para mostrarle al mundo lo que est\u00e1 sucediendo; organizarse contra el odio y unirse; y para que millones en todo el mundo expresen su solidaridad. Lo hemos visto en innumerables ocasiones, y lo estamos viendo ahora mismo con el movimiento Black Lives Matter. Es posible que nunca podamos erradicar el odio por completo en Facebook, pero estamos mejorando constantemente en la tarea de detenerlo. *Columna publicada en exclusiva en La Naci\u00f3n (Argentina), Valor Econ\u00f3mico (Brasil), El Tiempo (Colombia) y El Universal (M\u00e9xico) en Am\u00e9rica Latina.\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2020-07-01T15:13:53+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2020-07-01T15:18:25+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/\"},\"author\":\"Facebook company\",\"headline\":\"Facebook no se beneficia del odio\",\"datePublished\":\"2020-07-01T15:13:53+00:00\",\"dateModified\":\"2020-07-01T15:18:25+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/\"},\"wordCount\":1010,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"articleSection\":[\"Noticias de la Empresa\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/\",\"name\":\"Facebook no se beneficia del odio | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"datePublished\":\"2020-07-01T15:13:53+00:00\",\"dateModified\":\"2020-07-01T15:18:25+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Facebook no se beneficia del odio\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Facebook no se beneficia del odio | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/","og_locale":"es_ES","og_type":"article","og_title":"Facebook no se beneficia del odio | Acerca de Meta","og_description":"Por Nick Clegg, VP de Asuntos P\u00fablicos y Comunicaciones La polarizaci\u00f3n y las tensiones que atraviesan a la sociedad se reflejan en las redes sociales. Y plataformas como Facebook son el espejo de esas discusiones: con m\u00e1s de 3 mil millones de personas usando las aplicaciones de Facebook mensualmente, todo lo bueno, lo malo y lo feo de nuestras sociedades encontrar\u00e1 un lugar para ser expresado. Eso pone una gran responsabilidad en Facebook y en otras compa\u00f1\u00edas de redes sociales para decidir qu\u00e9 contenido es aceptable. Facebook ha recibido muchas cr\u00edticas en las \u00faltimas semanas por su decisi\u00f3n de permitir que publicaciones controvertidas del presidente estadounidense, Donald Trump, se mantengan en la plataforma, y tambi\u00e9n fue cuestionada por personas y empresas que se anuncian en nuestros servicios sobre c\u00f3mo abordamos el discurso de odio. Quiero ser claro: Facebook no se beneficia del odio. Miles de millones de personas usan Facebook e Instagram porque tienen buenas experiencias en nuestras apps. Nuestra comunidad no quiere ver contenido de odio, nuestros anunciantes no quieren verlo, y nosotros tampoco. No hay incentivo alguno para que hagamos otra cosa que no sea eliminarlo. M\u00e1s de 100 mil millones de mensajes son publicados diariamente en nuestros servicios. Somos nosotros hablando, compartiendo nuestras vidas, nuestras opiniones, nuestras esperanzas y nuestras experiencias. En esas miles de millones de interacciones, una peque\u00f1a fracci\u00f3n es contenido de odio. Cuando encontramos publicaciones de este tipo en Facebook e Instagram, tenemos tolerancia cero y las removemos. Cuando un contenido no clasifica para ser tratado como discurso de odio, ni es considerado dentro de otras pol\u00edticas destinadas a prevenir da\u00f1os o la supresi\u00f3n del voto, nos inclinamos por la libre expresi\u00f3n, porque en \u00faltima instancia, la mejor manera de contrarrestar el discurso ofensivo, divisivo y da\u00f1ino es con m\u00e1s conversaci\u00f3n. Exponerlo a la luz es mejor que esconderlo en las sombras. Desafortunadamente, la tolerancia cero no significa cero casos. Con el volumen de contenido que se publica diariamente en nuestras plataformas, erradicar el odio es como buscar una aguja en un pajar. Invertimos miles de millones de d\u00f3lares anuales en recursos humanos y tecnolog\u00eda para mantener nuestra plataforma segura. Hemos triplicado nuestro equipo de seguridad hasta llegar a las actuales 35 mil personas. Somos pioneros en la aplicaci\u00f3n de inteligencia artificial para eliminar contenido de odio a escala. Y hemos progresado. Un informe reciente de la Comisi\u00f3n Europea revel\u00f3 que Facebook revis\u00f3 el 95,7% de los reportes de discurso de odio en menos de 24 horas, m\u00e1s r\u00e1pido que YouTube y Twitter. El mes pasado, informamos que removimos casi el 90% del discurso de odio que encontramos antes de que alguien lo reportara. Esto represent\u00f3 un aumento del 24% en nuestra eficacia en poco m\u00e1s de dos a\u00f1os. Actuamos sobre 9,6 millones de piezas de contenido en el primer trimestre del 2020, frente a los 5,7 millones del trimestre anterior. Y el 99% del contenido de ISIS y Al Qaeda que eliminamos es retirado antes de que alguien lo reporte. Estamos mejorando, pero no somos complacientes. Es por eso que anunciamos recientemente nuevas pol\u00edticas y productos para asegurar que todos puedan mantenerse seguros, informados y, en \u00faltima instancia, puedan usar su voz donde m\u00e1s importa: el voto. Esto incluye el despliegue de la mayor campa\u00f1a de informaci\u00f3n electoral en la historia de los EEUU, una iniciativa que busca registrar a cuatro millones de votantes. Tambi\u00e9n, implementamos actualizaciones a las pol\u00edticas dise\u00f1adas para combatir la supresi\u00f3n del voto y el discurso de odio. Muchos de estos cambios son el resultado directo de contribuciones de la comunidad de derechos civiles. Seguiremos trabajando con ellos y junto a otros expertos para ajustar nuestras pol\u00edticas y abordar nuevos riesgos a medida que vayan surgiendo. Es comprensible y necesario hacer foco en el discurso de odio y en otros tipos de contenido da\u00f1ino en las redes sociales, pero vale la pena recordar que la gran mayor\u00eda de las conversaciones que suceden son positivas. Lo vimos cuando se desat\u00f3 la pandemia de coronavirus. Miles de millones de personas usaron Facebook para mantenerse conectadas cuando estaban f\u00edsicamente separadas. Abuelos y nietos, hermanos y hermanas, amigos y vecinos. Y m\u00e1s que eso, las personas se unieron para ayudarse mutuamente. Se formaron miles y miles de grupos locales, y millones de personas se organizaron para ayudar a los m\u00e1s vulnerables en sus comunidades. Otras, para celebrar y apoyar a los trabajadores de la salud. Y cuando las empresas tuvieron que cerrar sus puertas al p\u00fablico, para muchos, Facebook fue su salvavidas. M\u00e1s de 160 millones de negocios usan las herramientas gratuitas de Facebook para llegar a los clientes, y muchos las emplearon para mantenerse a flote, lo que ayud\u00f3 a preservar empleos y el sustento de muchas personas. Es importante destacar que Facebook contribuy\u00f3 para que las personas obtuvieran informaci\u00f3n precisa y confiable sobre temas sanitarios. Orientamos a m\u00e1s de 2 mil millones de personas en Facebook e Instagram para que accedan a la informaci\u00f3n de la Organizaci\u00f3n Mundial de la Salud y de otras autoridades de salud p\u00fablica. Y m\u00e1s de 350 millones de personas hicieron clic para ver ese contenido. Y vale la pena recordar que cuando las cosas m\u00e1s oscuras est\u00e1n sucediendo en nuestra sociedad, las redes sociales les brindan a las personas una herramienta para echar luz. Para mostrarle al mundo lo que est\u00e1 sucediendo; organizarse contra el odio y unirse; y para que millones en todo el mundo expresen su solidaridad. Lo hemos visto en innumerables ocasiones, y lo estamos viendo ahora mismo con el movimiento Black Lives Matter. Es posible que nunca podamos erradicar el odio por completo en Facebook, pero estamos mejorando constantemente en la tarea de detenerlo. *Columna publicada en exclusiva en La Naci\u00f3n (Argentina), Valor Econ\u00f3mico (Brasil), El Tiempo (Colombia) y El Universal (M\u00e9xico) en Am\u00e9rica Latina.\u00a0","og_url":"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/","og_site_name":"Acerca de Meta","article_published_time":"2020-07-01T15:13:53+00:00","article_modified_time":"2020-07-01T15:18:25+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576","type":"image\/jpeg"}],"twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"5 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/"},"author":"Facebook company","headline":"Facebook no se beneficia del odio","datePublished":"2020-07-01T15:13:53+00:00","dateModified":"2020-07-01T15:18:25+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/"},"wordCount":1010,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"articleSection":["Noticias de la Empresa"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/","url":"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/","name":"Facebook no se beneficia del odio | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"datePublished":"2020-07-01T15:13:53+00:00","dateModified":"2020-07-01T15:18:25+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/"]}],"author":"Acerca de Meta"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2020\/07\/nick-clegg-facebook-no-se-beneficia-del-odio\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Facebook no se beneficia del odio"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/21640","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/145013940"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=21640"}],"version-history":[{"count":4,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/21640\/revisions"}],"predecessor-version":[{"id":21644,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/21640\/revisions\/21644"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=21640"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=21640"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=21640"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}