{"id":6006,"date":"2017-05-23T21:06:36","date_gmt":"2017-05-23T21:06:36","guid":{"rendered":"http:\/\/ltam.newsroom.fb.com\/?p=6006"},"modified":"2017-05-23T23:23:26","modified_gmt":"2017-05-23T23:23:26","slug":"en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/","title":{"rendered":"En Facebook a veces cometemos errores, pero la seguridad es nuestra mayor prioridad"},"content":{"rendered":"<p class=\"p1\"><span class=\"s1\">Por Monika Bickert, directora global de Pol\u00edticas de Contenido de Facebook<br \/>\n<\/span><\/p>\n<p class=\"p1\"><span class=\"s1\">El mes pasado las personas compartieron en Facebook videos horribles de ni\u00f1os sirios tras un ataque con armas qu\u00edmicas. Los videos, que aparecieron tambi\u00e9n en el resto de la internet, mostraban a ni\u00f1os temblando, con dificultades para respirar y eventualmente muriendo.<\/p>\n<p>Las im\u00e1genes eran profundamente impactantes, tanto que colocamos una advertencia previa a su reproducci\u00f3n. Sin embargo, esas im\u00e1genes tambi\u00e9n provocaron indignaci\u00f3n internacional y renovaron la atenci\u00f3n en la dif\u00edcil situaci\u00f3n en Siria.<\/p>\n<p>Revisar el material disponible en internet a escala mundial es un desaf\u00edo y es esencial. Y como la persona a cargo de ese trabajo en Facebook, quiero explicar c\u00f3mo y d\u00f3nde trazamos los l\u00edmites.<\/p>\n<p>En un d\u00eda normal, m\u00e1s de 1.000 millones de personas utilizan Facebook. Esas personas comparten publicaciones en decenas de idiomas sobre diferentes temas y formatos, desde fotos hasta videos en vivo. S\u00f3lo un porcentaje muy peque\u00f1o es reportado para que lo investiguemos. El abanico de temas es amplio -desde bullying y discurso de odio hasta terrorismo- y complejo. Dise\u00f1ar pol\u00edticas que mantengan a las personas seguras y al mismo tiempo les permitan compartir libremente implica comprender problemas sociales emergentes y la forma en que se manifiestan en la internet. E implica tambi\u00e9n ser capaces de responder r\u00e1pidamente a millones de informes semanales de personas de todo el mundo.<\/p>\n<p>Para nuestros moderadores, existe tambi\u00e9n otro obst\u00e1culo: entender el contexto. Es dif\u00edcil juzgar la intenci\u00f3n detr\u00e1s de una publicaci\u00f3n o el riesgo impl\u00edcito en otra. Si alguien publica un video gr\u00e1fico de un ataque terrorista: \u00bfinspirar\u00e1 a otros a emular la violencia o a hablar en contra de ella? Si alguien publica una broma sobre el suicidio: \u00bfse trata apenas de una broma o eso es un grito de auxilio?<\/p>\n<p>En el Reino Unido criticar la monarqu\u00eda puede ser aceptable. Pero en otras partes del mundo puede acarrear una sentencia de c\u00e1rcel. Las leyes pueden ofrecer orientaci\u00f3n, pero a menudo lo aceptable tiene m\u00e1s que ver con normas y expectativas. Y las nuevas maneras de contar historias y compartir im\u00e1genes pueden colocar esas tensiones en primer plano m\u00e1s r\u00e1pido que nunca.<\/p>\n<p>Nuestro objetivo es mantener nuestro sitio seguro. No siempre compartimos los detalles de nuestras pol\u00edticas, porque no queremos estimular a la gente a encontrar formas de sortearlas, pero publicamos nuestras Normas Comunitarias, que establecen lo que est\u00e1 permitido y lo que no est\u00e1 permitido en Facebook y por qu\u00e9.<\/p>\n<p>Nuestras normas cambian con el tiempo. Estamos en constante di\u00e1logo con expertos y organizaciones locales respecto a temas que van desde seguridad infantil hasta el terrorismo y los derechos humanos. A veces, esto implica que nuestras pol\u00edticas puedan parecer contra intuitivas. Como report\u00f3 el diario brit\u00e1nico the Guardian, los expertos en auto lesi\u00f3n nos aconsejaron que puede ser mejor permitir videos en vivo de auto lesiones para que otras personas puedan ser alertadas y puedan ayudar, pero luego darlos de baja para evitar que otros los copien. Cuando una chica en el estado de Georgia, Estados Unidos, intent\u00f3 suicidarse en Facebook Live hace dos semanas, sus amigos pudieron notificar a la polic\u00eda, que logr\u00f3 llegar a tiempo.<\/p>\n<p>Nos esforzamos por mantener la objetividad. Los casos que revisamos no son f\u00e1ciles: a menudo est\u00e1n en una zona gris donde la gente no est\u00e1 de acuerdo. El arte y la pornograf\u00eda no siempre son f\u00e1ciles de distinguir, pero hemos descubierto que las im\u00e1genes de desnudos generadas digitalmente tienen m\u00e1s probabilidades de ser pornogr\u00e1ficas que las hechas a mano, por lo que nuestra pol\u00edtica refleja eso.<\/p>\n<p>Existe una gran diferencia entre las expresiones generales de enojo y las incitaciones espec\u00edficas para lastimar a una persona, raz\u00f3n por la cual permitimos lo primero pero no lo segundo.<\/p>\n<p>Esas tensiones entre concientizar sobre la violencia y promoverla, entre la libre expresi\u00f3n y la liberaci\u00f3n del miedo, entre ser testigos de un acontecimiento y ser espectadores son complejas y rara vez hay normas legales universales para arrojar claridad. Ser lo m\u00e1s objetivo posible es la \u00fanica manera de ser consistentes en todo el mundo. Pero a\u00fan as\u00ed a veces nos equivocamos.<\/p>\n<p>Las situaciones hipot\u00e9ticas que utilizamos para entrenar a los moderadores son intencionalmente extremas. Est\u00e1n dise\u00f1adas para ayudar a las personas que hacen ese trabajo a lidiar con los casos m\u00e1s dif\u00edciles. Cuando creamos nuestros est\u00e1ndares de contenido hace casi una d\u00e9cada, muchas cosas quedaron a discreci\u00f3n de los empleados. Pero como no hay dos personas con criterios id\u00e9nticos sobre el discurso de odio o el bullying -por mencionar apenas algunas problem\u00e1ticas- hoy incluimos definiciones claras.<\/p>\n<p>Somos criticados por personas que quieren m\u00e1s censura y personas que quieren menos. Y lo consideramos una se\u00f1al \u00fatil de que no estamos inclin\u00e1ndonos demasiado en un sentido ni en el otro.<\/p>\n<p>Espero que los lectores puedan comprender que tomamos nuestro papel con mucha seriedad. Para muchos de nosotros en el equipo de Facebook, la seguridad es una pasi\u00f3n que precede a nuestro trabajo en la empresa: Yo pas\u00e9 m\u00e1s de una d\u00e9cada como fiscal criminal investigando delitos desde explotaci\u00f3n sexual infantil hasta terrorismo. Nuestro equipo tambi\u00e9n incluye a un experto contra el extremismo en el Reino Unido, un ex director de investigaci\u00f3n del Centro de Combate al Terrorismo de West Point, una experta en asistencia a v\u00edctimas de violaciones y una profesora.<\/p>\n<p>Todos sabemos que podemos hacer m\u00e1s. El mes pasado anunciamos la contrataci\u00f3n de 3.000 moderadores adicionales. Es un trabajo exigente y seguiremos haciendo m\u00e1s para asegurar que estamos ofreci\u00e9ndoles el apoyo adecuado, facilitando la r\u00e1pida toma de decisiones dif\u00edciles y proporcionando el apoyo psicol\u00f3gico que necesitan.<\/p>\n<p>La tecnolog\u00eda ha dado m\u00e1s poder a m\u00e1s personas para comunicarse de manera m\u00e1s amplia que nunca. Creemos que los beneficios de compartir superan ampliamente los riesgos. Pero reconocemos tambi\u00e9n que la sociedad est\u00e1 todav\u00eda determinando lo que es aceptable y lo que es da\u00f1ino, y que nosotros, en Facebook, podemos jugar un papel importante en esa conversaci\u00f3n.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"Por Monika Bickert, directora global de Pol\u00edticas de Contenido de Facebook El mes pasado las personas compartieron en Facebook videos horribles de ni\u00f1os sirios tras un ataque con armas qu\u00edmicas. Los videos, que aparecieron tambi\u00e9n en el resto de la internet, mostraban a ni\u00f1os temblando, con dificultades para respirar y eventualmente muriendo. Las im\u00e1genes eran profundamente impactantes, tanto que colocamos una advertencia previa a su reproducci\u00f3n. Sin embargo, esas im\u00e1genes tambi\u00e9n provocaron indignaci\u00f3n internacional y renovaron la atenci\u00f3n en la dif\u00edcil situaci\u00f3n en Siria. Revisar el material disponible en internet a escala mundial es un desaf\u00edo y es esencial. Y como la persona a cargo de ese trabajo en Facebook, quiero explicar c\u00f3mo y d\u00f3nde trazamos los l\u00edmites. En un d\u00eda normal, m\u00e1s de 1.000 millones de personas utilizan Facebook. Esas personas comparten publicaciones en decenas de idiomas sobre diferentes temas y formatos, desde fotos hasta videos en vivo. S\u00f3lo un porcentaje muy peque\u00f1o es reportado para que lo investiguemos. El abanico de temas es amplio -desde bullying y discurso de odio hasta terrorismo- y complejo. Dise\u00f1ar pol\u00edticas que mantengan a las personas seguras y al mismo tiempo les permitan compartir libremente implica comprender problemas sociales emergentes y la forma en que se manifiestan en la internet. E implica tambi\u00e9n ser capaces de responder r\u00e1pidamente a millones de informes semanales de personas de todo el mundo. Para nuestros moderadores, existe tambi\u00e9n otro obst\u00e1culo: entender el contexto. Es dif\u00edcil juzgar la intenci\u00f3n detr\u00e1s de una publicaci\u00f3n o el riesgo impl\u00edcito en otra. Si alguien publica un video gr\u00e1fico de un ataque terrorista: \u00bfinspirar\u00e1 a otros a emular la violencia o a hablar en contra de ella? Si alguien publica una broma sobre el suicidio: \u00bfse trata apenas de una broma o eso es un grito de auxilio? En el Reino Unido criticar la monarqu\u00eda puede ser aceptable. Pero en otras partes del mundo puede acarrear una sentencia de c\u00e1rcel. Las leyes pueden ofrecer orientaci\u00f3n, pero a menudo lo aceptable tiene m\u00e1s que ver con normas y expectativas. Y las nuevas maneras de contar historias y compartir im\u00e1genes pueden colocar esas tensiones en primer plano m\u00e1s r\u00e1pido que nunca. Nuestro objetivo es mantener nuestro sitio seguro. No siempre compartimos los detalles de nuestras pol\u00edticas, porque no queremos estimular a la gente a encontrar formas de sortearlas, pero publicamos nuestras Normas Comunitarias, que establecen lo que est\u00e1 permitido y lo que no est\u00e1 permitido en Facebook y por qu\u00e9. Nuestras normas cambian con el tiempo. Estamos en constante di\u00e1logo con expertos y organizaciones locales respecto a temas que van desde seguridad infantil hasta el terrorismo y los derechos humanos. A veces, esto implica que nuestras pol\u00edticas puedan parecer contra intuitivas. Como report\u00f3 el diario brit\u00e1nico the Guardian, los expertos en auto lesi\u00f3n nos aconsejaron que puede ser mejor permitir videos en vivo de auto lesiones para que otras personas puedan ser alertadas y puedan ayudar, pero luego darlos de baja para evitar que otros los copien. Cuando una chica en el estado de Georgia, Estados Unidos, intent\u00f3 suicidarse en Facebook Live hace dos semanas, sus amigos pudieron notificar a la polic\u00eda, que logr\u00f3 llegar a tiempo. Nos esforzamos por mantener la objetividad. Los casos que revisamos no son f\u00e1ciles: a menudo est\u00e1n en una zona gris donde la gente no est\u00e1 de acuerdo. El arte y la pornograf\u00eda no siempre son f\u00e1ciles de distinguir, pero hemos descubierto que las im\u00e1genes de desnudos generadas digitalmente tienen m\u00e1s probabilidades de ser pornogr\u00e1ficas que las hechas a mano, por lo que nuestra pol\u00edtica refleja eso. Existe una gran diferencia entre las expresiones generales de enojo y las incitaciones espec\u00edficas para lastimar a una persona, raz\u00f3n por la cual permitimos lo primero pero no lo segundo. Esas tensiones entre concientizar sobre la violencia y promoverla, entre la libre expresi\u00f3n y la liberaci\u00f3n del miedo, entre ser testigos de un acontecimiento y ser espectadores son complejas y rara vez hay normas legales universales para arrojar claridad. Ser lo m\u00e1s objetivo posible es la \u00fanica manera de ser consistentes en todo el mundo. Pero a\u00fan as\u00ed a veces nos equivocamos. Las situaciones hipot\u00e9ticas que utilizamos para entrenar a los moderadores son intencionalmente extremas. Est\u00e1n dise\u00f1adas para ayudar a las personas que hacen ese trabajo a lidiar con los casos m\u00e1s dif\u00edciles. Cuando creamos nuestros est\u00e1ndares de contenido hace casi una d\u00e9cada, muchas cosas quedaron a discreci\u00f3n de los empleados. Pero como no hay dos personas con criterios id\u00e9nticos sobre el discurso de odio o el bullying -por mencionar apenas algunas problem\u00e1ticas- hoy incluimos definiciones claras. Somos criticados por personas que quieren m\u00e1s censura y personas que quieren menos. Y lo consideramos una se\u00f1al \u00fatil de que no estamos inclin\u00e1ndonos demasiado en un sentido ni en el otro. Espero que los lectores puedan comprender que tomamos nuestro papel con mucha seriedad. Para muchos de nosotros en el equipo de Facebook, la seguridad es una pasi\u00f3n que precede a nuestro trabajo en la empresa: Yo pas\u00e9 m\u00e1s de una d\u00e9cada como fiscal criminal investigando delitos desde explotaci\u00f3n sexual infantil hasta terrorismo. Nuestro equipo tambi\u00e9n incluye a un experto contra el extremismo en el Reino Unido, un ex director de investigaci\u00f3n del Centro de Combate al Terrorismo de West Point, una experta en asistencia a v\u00edctimas de violaciones y una profesora. Todos sabemos que podemos hacer m\u00e1s. El mes pasado anunciamos la contrataci\u00f3n de 3.000 moderadores adicionales. Es un trabajo exigente y seguiremos haciendo m\u00e1s para asegurar que estamos ofreci\u00e9ndoles el apoyo adecuado, facilitando la r\u00e1pida toma de decisiones dif\u00edciles y proporcionando el apoyo psicol\u00f3gico que necesitan. La tecnolog\u00eda ha dado m\u00e1s poder a m\u00e1s personas para comunicarse de manera m\u00e1s amplia que nunca. Creemos que los beneficios de compartir superan ampliamente los riesgos. Pero reconocemos tambi\u00e9n que la sociedad est\u00e1 todav\u00eda determinando lo que es aceptable y lo que es da\u00f1ino, y que nosotros, en Facebook, podemos jugar un papel importante en esa conversaci\u00f3n.","protected":false},"author":118973926,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[30660046],"tags":[243947894,243930626],"class_list":["post-6006","post","type-post","status-publish","format-standard","hentry","category-noticias-de-la-empresa","tag-comunidad","tag-seguridad"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>En Facebook a veces cometemos errores, pero la seguridad es nuestra mayor prioridad | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"En Facebook a veces cometemos errores, pero la seguridad es nuestra mayor prioridad | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"Por Monika Bickert, directora global de Pol\u00edticas de Contenido de Facebook El mes pasado las personas compartieron en Facebook videos horribles de ni\u00f1os sirios tras un ataque con armas qu\u00edmicas. Los videos, que aparecieron tambi\u00e9n en el resto de la internet, mostraban a ni\u00f1os temblando, con dificultades para respirar y eventualmente muriendo. Las im\u00e1genes eran profundamente impactantes, tanto que colocamos una advertencia previa a su reproducci\u00f3n. Sin embargo, esas im\u00e1genes tambi\u00e9n provocaron indignaci\u00f3n internacional y renovaron la atenci\u00f3n en la dif\u00edcil situaci\u00f3n en Siria. Revisar el material disponible en internet a escala mundial es un desaf\u00edo y es esencial. Y como la persona a cargo de ese trabajo en Facebook, quiero explicar c\u00f3mo y d\u00f3nde trazamos los l\u00edmites. En un d\u00eda normal, m\u00e1s de 1.000 millones de personas utilizan Facebook. Esas personas comparten publicaciones en decenas de idiomas sobre diferentes temas y formatos, desde fotos hasta videos en vivo. S\u00f3lo un porcentaje muy peque\u00f1o es reportado para que lo investiguemos. El abanico de temas es amplio -desde bullying y discurso de odio hasta terrorismo- y complejo. Dise\u00f1ar pol\u00edticas que mantengan a las personas seguras y al mismo tiempo les permitan compartir libremente implica comprender problemas sociales emergentes y la forma en que se manifiestan en la internet. E implica tambi\u00e9n ser capaces de responder r\u00e1pidamente a millones de informes semanales de personas de todo el mundo. Para nuestros moderadores, existe tambi\u00e9n otro obst\u00e1culo: entender el contexto. Es dif\u00edcil juzgar la intenci\u00f3n detr\u00e1s de una publicaci\u00f3n o el riesgo impl\u00edcito en otra. Si alguien publica un video gr\u00e1fico de un ataque terrorista: \u00bfinspirar\u00e1 a otros a emular la violencia o a hablar en contra de ella? Si alguien publica una broma sobre el suicidio: \u00bfse trata apenas de una broma o eso es un grito de auxilio? En el Reino Unido criticar la monarqu\u00eda puede ser aceptable. Pero en otras partes del mundo puede acarrear una sentencia de c\u00e1rcel. Las leyes pueden ofrecer orientaci\u00f3n, pero a menudo lo aceptable tiene m\u00e1s que ver con normas y expectativas. Y las nuevas maneras de contar historias y compartir im\u00e1genes pueden colocar esas tensiones en primer plano m\u00e1s r\u00e1pido que nunca. Nuestro objetivo es mantener nuestro sitio seguro. No siempre compartimos los detalles de nuestras pol\u00edticas, porque no queremos estimular a la gente a encontrar formas de sortearlas, pero publicamos nuestras Normas Comunitarias, que establecen lo que est\u00e1 permitido y lo que no est\u00e1 permitido en Facebook y por qu\u00e9. Nuestras normas cambian con el tiempo. Estamos en constante di\u00e1logo con expertos y organizaciones locales respecto a temas que van desde seguridad infantil hasta el terrorismo y los derechos humanos. A veces, esto implica que nuestras pol\u00edticas puedan parecer contra intuitivas. Como report\u00f3 el diario brit\u00e1nico the Guardian, los expertos en auto lesi\u00f3n nos aconsejaron que puede ser mejor permitir videos en vivo de auto lesiones para que otras personas puedan ser alertadas y puedan ayudar, pero luego darlos de baja para evitar que otros los copien. Cuando una chica en el estado de Georgia, Estados Unidos, intent\u00f3 suicidarse en Facebook Live hace dos semanas, sus amigos pudieron notificar a la polic\u00eda, que logr\u00f3 llegar a tiempo. Nos esforzamos por mantener la objetividad. Los casos que revisamos no son f\u00e1ciles: a menudo est\u00e1n en una zona gris donde la gente no est\u00e1 de acuerdo. El arte y la pornograf\u00eda no siempre son f\u00e1ciles de distinguir, pero hemos descubierto que las im\u00e1genes de desnudos generadas digitalmente tienen m\u00e1s probabilidades de ser pornogr\u00e1ficas que las hechas a mano, por lo que nuestra pol\u00edtica refleja eso. Existe una gran diferencia entre las expresiones generales de enojo y las incitaciones espec\u00edficas para lastimar a una persona, raz\u00f3n por la cual permitimos lo primero pero no lo segundo. Esas tensiones entre concientizar sobre la violencia y promoverla, entre la libre expresi\u00f3n y la liberaci\u00f3n del miedo, entre ser testigos de un acontecimiento y ser espectadores son complejas y rara vez hay normas legales universales para arrojar claridad. Ser lo m\u00e1s objetivo posible es la \u00fanica manera de ser consistentes en todo el mundo. Pero a\u00fan as\u00ed a veces nos equivocamos. Las situaciones hipot\u00e9ticas que utilizamos para entrenar a los moderadores son intencionalmente extremas. Est\u00e1n dise\u00f1adas para ayudar a las personas que hacen ese trabajo a lidiar con los casos m\u00e1s dif\u00edciles. Cuando creamos nuestros est\u00e1ndares de contenido hace casi una d\u00e9cada, muchas cosas quedaron a discreci\u00f3n de los empleados. Pero como no hay dos personas con criterios id\u00e9nticos sobre el discurso de odio o el bullying -por mencionar apenas algunas problem\u00e1ticas- hoy incluimos definiciones claras. Somos criticados por personas que quieren m\u00e1s censura y personas que quieren menos. Y lo consideramos una se\u00f1al \u00fatil de que no estamos inclin\u00e1ndonos demasiado en un sentido ni en el otro. Espero que los lectores puedan comprender que tomamos nuestro papel con mucha seriedad. Para muchos de nosotros en el equipo de Facebook, la seguridad es una pasi\u00f3n que precede a nuestro trabajo en la empresa: Yo pas\u00e9 m\u00e1s de una d\u00e9cada como fiscal criminal investigando delitos desde explotaci\u00f3n sexual infantil hasta terrorismo. Nuestro equipo tambi\u00e9n incluye a un experto contra el extremismo en el Reino Unido, un ex director de investigaci\u00f3n del Centro de Combate al Terrorismo de West Point, una experta en asistencia a v\u00edctimas de violaciones y una profesora. Todos sabemos que podemos hacer m\u00e1s. El mes pasado anunciamos la contrataci\u00f3n de 3.000 moderadores adicionales. Es un trabajo exigente y seguiremos haciendo m\u00e1s para asegurar que estamos ofreci\u00e9ndoles el apoyo adecuado, facilitando la r\u00e1pida toma de decisiones dif\u00edciles y proporcionando el apoyo psicol\u00f3gico que necesitan. La tecnolog\u00eda ha dado m\u00e1s poder a m\u00e1s personas para comunicarse de manera m\u00e1s amplia que nunca. Creemos que los beneficios de compartir superan ampliamente los riesgos. Pero reconocemos tambi\u00e9n que la sociedad est\u00e1 todav\u00eda determinando lo que es aceptable y lo que es da\u00f1ino, y que nosotros, en Facebook, podemos jugar un papel importante en esa conversaci\u00f3n.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2017-05-23T21:06:36+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2017-05-23T23:23:26+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"marilaun\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/\"},\"author\":\"Facebook company\",\"headline\":\"En Facebook a veces cometemos errores, pero la seguridad es nuestra mayor prioridad\",\"datePublished\":\"2017-05-23T21:06:36+00:00\",\"dateModified\":\"2017-05-23T23:23:26+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/\"},\"wordCount\":1089,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"keywords\":[\"Comunidad\",\"Seguridad\"],\"articleSection\":[\"Noticias de la Empresa\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/\",\"name\":\"En Facebook a veces cometemos errores, pero la seguridad es nuestra mayor prioridad | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"datePublished\":\"2017-05-23T21:06:36+00:00\",\"dateModified\":\"2017-05-23T23:23:26+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"En Facebook a veces cometemos errores, pero la seguridad es nuestra mayor prioridad\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"En Facebook a veces cometemos errores, pero la seguridad es nuestra mayor prioridad | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/","og_locale":"es_ES","og_type":"article","og_title":"En Facebook a veces cometemos errores, pero la seguridad es nuestra mayor prioridad | Acerca de Meta","og_description":"Por Monika Bickert, directora global de Pol\u00edticas de Contenido de Facebook El mes pasado las personas compartieron en Facebook videos horribles de ni\u00f1os sirios tras un ataque con armas qu\u00edmicas. Los videos, que aparecieron tambi\u00e9n en el resto de la internet, mostraban a ni\u00f1os temblando, con dificultades para respirar y eventualmente muriendo. Las im\u00e1genes eran profundamente impactantes, tanto que colocamos una advertencia previa a su reproducci\u00f3n. Sin embargo, esas im\u00e1genes tambi\u00e9n provocaron indignaci\u00f3n internacional y renovaron la atenci\u00f3n en la dif\u00edcil situaci\u00f3n en Siria. Revisar el material disponible en internet a escala mundial es un desaf\u00edo y es esencial. Y como la persona a cargo de ese trabajo en Facebook, quiero explicar c\u00f3mo y d\u00f3nde trazamos los l\u00edmites. En un d\u00eda normal, m\u00e1s de 1.000 millones de personas utilizan Facebook. Esas personas comparten publicaciones en decenas de idiomas sobre diferentes temas y formatos, desde fotos hasta videos en vivo. S\u00f3lo un porcentaje muy peque\u00f1o es reportado para que lo investiguemos. El abanico de temas es amplio -desde bullying y discurso de odio hasta terrorismo- y complejo. Dise\u00f1ar pol\u00edticas que mantengan a las personas seguras y al mismo tiempo les permitan compartir libremente implica comprender problemas sociales emergentes y la forma en que se manifiestan en la internet. E implica tambi\u00e9n ser capaces de responder r\u00e1pidamente a millones de informes semanales de personas de todo el mundo. Para nuestros moderadores, existe tambi\u00e9n otro obst\u00e1culo: entender el contexto. Es dif\u00edcil juzgar la intenci\u00f3n detr\u00e1s de una publicaci\u00f3n o el riesgo impl\u00edcito en otra. Si alguien publica un video gr\u00e1fico de un ataque terrorista: \u00bfinspirar\u00e1 a otros a emular la violencia o a hablar en contra de ella? Si alguien publica una broma sobre el suicidio: \u00bfse trata apenas de una broma o eso es un grito de auxilio? En el Reino Unido criticar la monarqu\u00eda puede ser aceptable. Pero en otras partes del mundo puede acarrear una sentencia de c\u00e1rcel. Las leyes pueden ofrecer orientaci\u00f3n, pero a menudo lo aceptable tiene m\u00e1s que ver con normas y expectativas. Y las nuevas maneras de contar historias y compartir im\u00e1genes pueden colocar esas tensiones en primer plano m\u00e1s r\u00e1pido que nunca. Nuestro objetivo es mantener nuestro sitio seguro. No siempre compartimos los detalles de nuestras pol\u00edticas, porque no queremos estimular a la gente a encontrar formas de sortearlas, pero publicamos nuestras Normas Comunitarias, que establecen lo que est\u00e1 permitido y lo que no est\u00e1 permitido en Facebook y por qu\u00e9. Nuestras normas cambian con el tiempo. Estamos en constante di\u00e1logo con expertos y organizaciones locales respecto a temas que van desde seguridad infantil hasta el terrorismo y los derechos humanos. A veces, esto implica que nuestras pol\u00edticas puedan parecer contra intuitivas. Como report\u00f3 el diario brit\u00e1nico the Guardian, los expertos en auto lesi\u00f3n nos aconsejaron que puede ser mejor permitir videos en vivo de auto lesiones para que otras personas puedan ser alertadas y puedan ayudar, pero luego darlos de baja para evitar que otros los copien. Cuando una chica en el estado de Georgia, Estados Unidos, intent\u00f3 suicidarse en Facebook Live hace dos semanas, sus amigos pudieron notificar a la polic\u00eda, que logr\u00f3 llegar a tiempo. Nos esforzamos por mantener la objetividad. Los casos que revisamos no son f\u00e1ciles: a menudo est\u00e1n en una zona gris donde la gente no est\u00e1 de acuerdo. El arte y la pornograf\u00eda no siempre son f\u00e1ciles de distinguir, pero hemos descubierto que las im\u00e1genes de desnudos generadas digitalmente tienen m\u00e1s probabilidades de ser pornogr\u00e1ficas que las hechas a mano, por lo que nuestra pol\u00edtica refleja eso. Existe una gran diferencia entre las expresiones generales de enojo y las incitaciones espec\u00edficas para lastimar a una persona, raz\u00f3n por la cual permitimos lo primero pero no lo segundo. Esas tensiones entre concientizar sobre la violencia y promoverla, entre la libre expresi\u00f3n y la liberaci\u00f3n del miedo, entre ser testigos de un acontecimiento y ser espectadores son complejas y rara vez hay normas legales universales para arrojar claridad. Ser lo m\u00e1s objetivo posible es la \u00fanica manera de ser consistentes en todo el mundo. Pero a\u00fan as\u00ed a veces nos equivocamos. Las situaciones hipot\u00e9ticas que utilizamos para entrenar a los moderadores son intencionalmente extremas. Est\u00e1n dise\u00f1adas para ayudar a las personas que hacen ese trabajo a lidiar con los casos m\u00e1s dif\u00edciles. Cuando creamos nuestros est\u00e1ndares de contenido hace casi una d\u00e9cada, muchas cosas quedaron a discreci\u00f3n de los empleados. Pero como no hay dos personas con criterios id\u00e9nticos sobre el discurso de odio o el bullying -por mencionar apenas algunas problem\u00e1ticas- hoy incluimos definiciones claras. Somos criticados por personas que quieren m\u00e1s censura y personas que quieren menos. Y lo consideramos una se\u00f1al \u00fatil de que no estamos inclin\u00e1ndonos demasiado en un sentido ni en el otro. Espero que los lectores puedan comprender que tomamos nuestro papel con mucha seriedad. Para muchos de nosotros en el equipo de Facebook, la seguridad es una pasi\u00f3n que precede a nuestro trabajo en la empresa: Yo pas\u00e9 m\u00e1s de una d\u00e9cada como fiscal criminal investigando delitos desde explotaci\u00f3n sexual infantil hasta terrorismo. Nuestro equipo tambi\u00e9n incluye a un experto contra el extremismo en el Reino Unido, un ex director de investigaci\u00f3n del Centro de Combate al Terrorismo de West Point, una experta en asistencia a v\u00edctimas de violaciones y una profesora. Todos sabemos que podemos hacer m\u00e1s. El mes pasado anunciamos la contrataci\u00f3n de 3.000 moderadores adicionales. Es un trabajo exigente y seguiremos haciendo m\u00e1s para asegurar que estamos ofreci\u00e9ndoles el apoyo adecuado, facilitando la r\u00e1pida toma de decisiones dif\u00edciles y proporcionando el apoyo psicol\u00f3gico que necesitan. La tecnolog\u00eda ha dado m\u00e1s poder a m\u00e1s personas para comunicarse de manera m\u00e1s amplia que nunca. Creemos que los beneficios de compartir superan ampliamente los riesgos. Pero reconocemos tambi\u00e9n que la sociedad est\u00e1 todav\u00eda determinando lo que es aceptable y lo que es da\u00f1ino, y que nosotros, en Facebook, podemos jugar un papel importante en esa conversaci\u00f3n.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/","og_site_name":"Acerca de Meta","article_published_time":"2017-05-23T21:06:36+00:00","article_modified_time":"2017-05-23T23:23:26+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?resize=1024,576","type":"image\/jpeg"}],"author":"marilaun","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"5 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/"},"author":"Facebook company","headline":"En Facebook a veces cometemos errores, pero la seguridad es nuestra mayor prioridad","datePublished":"2017-05-23T21:06:36+00:00","dateModified":"2017-05-23T23:23:26+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/"},"wordCount":1089,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"keywords":["Comunidad","Seguridad"],"articleSection":["Noticias de la Empresa"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/","url":"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/","name":"En Facebook a veces cometemos errores, pero la seguridad es nuestra mayor prioridad | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"datePublished":"2017-05-23T21:06:36+00:00","dateModified":"2017-05-23T23:23:26+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/"]}],"author":"Acerca de Meta"},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2017\/05\/en-facebook-a-veces-cometemos-errores-pero-la-seguridad-es-nuestra-mayor-prioridad\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"En Facebook a veces cometemos errores, pero la seguridad es nuestra mayor prioridad"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6006","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/118973926"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=6006"}],"version-history":[{"count":1,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6006\/revisions"}],"predecessor-version":[{"id":6007,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/6006\/revisions\/6007"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=6006"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=6006"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=6006"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}