{"id":25420,"date":"2024-09-12T08:20:41","date_gmt":"2024-09-12T14:20:41","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=25420"},"modified":"2024-09-12T08:24:54","modified_gmt":"2024-09-12T14:24:54","slug":"prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/","title":{"rendered":"Prevenci\u00f3n de la difusi\u00f3n de contenido sobre suicidio y autolesi\u00f3n en l\u00ednea"},"content":{"rendered":"<p><span style=\"font-weight: 400\">El suicidio y la autolesi\u00f3n son problemas de salud mental complejos que pueden tener consecuencias devastadoras. En Meta, hemos trabajado con expertos durante a\u00f1os, incluyendo nuestro grupo asesor sobre suicidio y autolesi\u00f3n y miembros de los propios equipos de Seguridad de Meta, para desarrollar un enfoque informado sobre el contenido de suicidio y autolesi\u00f3n compartido en nuestras aplicaciones.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Sin embargo, al igual que muchos otros tipos de contenido potencialmente problem\u00e1tico, el contenido de suicidio y autolesi\u00f3n no se limita a una sola plataforma. Para ser verdaderamente efectivos en responder a este contenido, las empresas tecnol\u00f3gicas necesitan trabajar juntas. Es por eso que unimos esfuerzos con la <\/span><a href=\"https:\/\/www.thementalhealthcoalition.org\/\"><span style=\"font-weight: 400\">Coalici\u00f3n de Salud Mental<\/span><\/a><span style=\"font-weight: 400\"> para establecer <\/span><b>Thrive<\/b><span style=\"font-weight: 400\">, el primer programa de intercambio de se\u00f1ales sobre contenido que viola las normas de suicidio y autolesi\u00f3n.<\/span><\/p>\n<p><span style=\"font-weight: 400\">A trav\u00e9s de <\/span><b>Thrive<\/b><span style=\"font-weight: 400\">, las empresas tecnol\u00f3gicas participantes podr\u00e1n compartir se\u00f1ales sobre contenido que viola las normas de suicidio o autolesi\u00f3n para que otras compa\u00f1\u00edas puedan investigar y tomar medidas si el mismo contenido o similar se est\u00e1 compartiendo en sus plataformas. Meta est\u00e1 proporcionando la infraestructura t\u00e9cnica que sustenta <\/span><b>Thrive<\/b><span style=\"font-weight: 400\">, la misma tecnolog\u00eda que proporcionamos al programa Lantern de Tech Coalition, que permite compartir se\u00f1ales de manera segura.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Las empresas participantes comenzar\u00e1n compartiendo hashes, c\u00f3digos num\u00e9ricos que corresponden al contenido que viola las normas, de im\u00e1genes y videos que muestran suicidio gr\u00e1fico y autolesi\u00f3n, y de contenido que representa o fomenta desaf\u00edos virales de suicidio o autolesi\u00f3n. Estamos priorizando este contenido debido a su tendencia a propagarse r\u00e1pidamente en diferentes plataformas. Estas se\u00f1ales iniciales representan solo contenido, y no incluir\u00e1n informaci\u00f3n identificable sobre ninguna cuenta o individuo.<\/span><\/p>\n<p><b>Thrive<\/b><span style=\"font-weight: 400\"> se fundamenta en el trabajo que ya realizamos en Meta para eliminar contenido da\u00f1ino que muestra im\u00e1genes gr\u00e1ficas o fomenta el suicidio o la autolesi\u00f3n, al mismo tiempo que permite espacio para que las personas hablen sobre sus propias experiencias. Tambi\u00e9n brindamos apoyo a aquellos que comparten y buscan contenido relacionado con el suicidio o la autolesi\u00f3n conect\u00e1ndolos con organizaciones locales en todo el mundo, incluyendo Suicide and Crisis Lifeline y Crisis Text Line en los EE. UU.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Entre abril y junio de este a\u00f1o, <\/span><a href=\"https:\/\/transparency.meta.com\/reports\/community-standards-enforcement\/suicide-and-self-injury\/facebook\/\"><span style=\"font-weight: 400\">hemos removido<\/span><\/a><span style=\"font-weight: 400\"> m\u00e1s de 12 millones de piezas de contenido de suicidio y autolesi\u00f3n en Facebook e Instagram. Aunque permitimos que la gente hable de sus experiencias con el suicidio y las autolesiones -siempre que no sean gr\u00e1ficas o promocionales-, este a\u00f1o hemos tomado<\/span><a href=\"https:\/\/about.fb.com\/news\/2024\/01\/teen-protections-age-appropriate-experiences-on-our-apps\/\"> <span style=\"font-weight: 400\">medidas importantes<\/span><\/a><span style=\"font-weight: 400\"> para que este contenido sea m\u00e1s dif\u00edcil de encontrar en las b\u00fasquedas y para ocultarlo por completo a los adolescentes, incluso si lo comparte alguien a quien siguen.<\/span><\/p>\n<p><b>Thrive<\/b><span style=\"font-weight: 400\"> ayudar\u00e1 a mantener a las personas seguras no solo en las aplicaciones de Meta, sino en todas las aplicaciones y servicios que utilizan. Estamos orgullosos de trabajar con la Coalici\u00f3n de Salud Mental y nuestros socios de la industria Snap y TikTok en este trabajo por el bienestar de nuestra comunidad.\u00a0<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"El suicidio y la autolesi\u00f3n son problemas de salud mental complejos que pueden tener consecuencias devastadoras. En Meta, hemos trabajado con expertos durante a\u00f1os, incluyendo nuestro grupo asesor sobre suicidio y autolesi\u00f3n y miembros de los propios equipos de Seguridad de Meta, para desarrollar un enfoque informado sobre el contenido de suicidio y autolesi\u00f3n compartido en nuestras aplicaciones. Sin embargo, al igual que muchos otros tipos de contenido potencialmente problem\u00e1tico, el contenido de suicidio y autolesi\u00f3n no se limita a una sola plataforma. Para ser verdaderamente efectivos en responder a este contenido, las empresas tecnol\u00f3gicas necesitan trabajar juntas. Es por eso que unimos esfuerzos con la Coalici\u00f3n de Salud Mental para establecer Thrive, el primer programa de intercambio de se\u00f1ales sobre contenido que viola las normas de suicidio y autolesi\u00f3n. A trav\u00e9s de Thrive, las empresas tecnol\u00f3gicas participantes podr\u00e1n compartir se\u00f1ales sobre contenido que viola las normas de suicidio o autolesi\u00f3n para que otras compa\u00f1\u00edas puedan investigar y tomar medidas si el mismo contenido o similar se est\u00e1 compartiendo en sus plataformas. Meta est\u00e1 proporcionando la infraestructura t\u00e9cnica que sustenta Thrive, la misma tecnolog\u00eda que proporcionamos al programa Lantern de Tech Coalition, que permite compartir se\u00f1ales de manera segura. Las empresas participantes comenzar\u00e1n compartiendo hashes, c\u00f3digos num\u00e9ricos que corresponden al contenido que viola las normas, de im\u00e1genes y videos que muestran suicidio gr\u00e1fico y autolesi\u00f3n, y de contenido que representa o fomenta desaf\u00edos virales de suicidio o autolesi\u00f3n. Estamos priorizando este contenido debido a su tendencia a propagarse r\u00e1pidamente en diferentes plataformas. Estas se\u00f1ales iniciales representan solo contenido, y no incluir\u00e1n informaci\u00f3n identificable sobre ninguna cuenta o individuo. Thrive se fundamenta en el trabajo que ya realizamos en Meta para eliminar contenido da\u00f1ino que muestra im\u00e1genes gr\u00e1ficas o fomenta el suicidio o la autolesi\u00f3n, al mismo tiempo que permite espacio para que las personas hablen sobre sus propias experiencias. Tambi\u00e9n brindamos apoyo a aquellos que comparten y buscan contenido relacionado con el suicidio o la autolesi\u00f3n conect\u00e1ndolos con organizaciones locales en todo el mundo, incluyendo Suicide and Crisis Lifeline y Crisis Text Line en los EE. UU. Entre abril y junio de este a\u00f1o, hemos removido m\u00e1s de 12 millones de piezas de contenido de suicidio y autolesi\u00f3n en Facebook e Instagram. Aunque permitimos que la gente hable de sus experiencias con el suicidio y las autolesiones -siempre que no sean gr\u00e1ficas o promocionales-, este a\u00f1o hemos tomado medidas importantes para que este contenido sea m\u00e1s dif\u00edcil de encontrar en las b\u00fasquedas y para ocultarlo por completo a los adolescentes, incluso si lo comparte alguien a quien siguen. Thrive ayudar\u00e1 a mantener a las personas seguras no solo en las aplicaciones de Meta, sino en todas las aplicaciones y servicios que utilizan. Estamos orgullosos de trabajar con la Coalici\u00f3n de Salud Mental y nuestros socios de la industria Snap y TikTok en este trabajo por el bienestar de nuestra comunidad.\u00a0","protected":false},"author":164097050,"featured_media":25423,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243948037,30660046,243947992,243948083],"tags":[],"class_list":["post-25420","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-meta","category-noticias-de-la-empresa","category-politica-publica","category-seguridad-expresion"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Prevenci\u00f3n de la difusi\u00f3n de contenido sobre suicidio y autolesi\u00f3n en l\u00ednea | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Prevenci\u00f3n de la difusi\u00f3n de contenido sobre suicidio y autolesi\u00f3n en l\u00ednea | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"El suicidio y la autolesi\u00f3n son problemas de salud mental complejos que pueden tener consecuencias devastadoras. En Meta, hemos trabajado con expertos durante a\u00f1os, incluyendo nuestro grupo asesor sobre suicidio y autolesi\u00f3n y miembros de los propios equipos de Seguridad de Meta, para desarrollar un enfoque informado sobre el contenido de suicidio y autolesi\u00f3n compartido en nuestras aplicaciones. Sin embargo, al igual que muchos otros tipos de contenido potencialmente problem\u00e1tico, el contenido de suicidio y autolesi\u00f3n no se limita a una sola plataforma. Para ser verdaderamente efectivos en responder a este contenido, las empresas tecnol\u00f3gicas necesitan trabajar juntas. Es por eso que unimos esfuerzos con la Coalici\u00f3n de Salud Mental para establecer Thrive, el primer programa de intercambio de se\u00f1ales sobre contenido que viola las normas de suicidio y autolesi\u00f3n. A trav\u00e9s de Thrive, las empresas tecnol\u00f3gicas participantes podr\u00e1n compartir se\u00f1ales sobre contenido que viola las normas de suicidio o autolesi\u00f3n para que otras compa\u00f1\u00edas puedan investigar y tomar medidas si el mismo contenido o similar se est\u00e1 compartiendo en sus plataformas. Meta est\u00e1 proporcionando la infraestructura t\u00e9cnica que sustenta Thrive, la misma tecnolog\u00eda que proporcionamos al programa Lantern de Tech Coalition, que permite compartir se\u00f1ales de manera segura. Las empresas participantes comenzar\u00e1n compartiendo hashes, c\u00f3digos num\u00e9ricos que corresponden al contenido que viola las normas, de im\u00e1genes y videos que muestran suicidio gr\u00e1fico y autolesi\u00f3n, y de contenido que representa o fomenta desaf\u00edos virales de suicidio o autolesi\u00f3n. Estamos priorizando este contenido debido a su tendencia a propagarse r\u00e1pidamente en diferentes plataformas. Estas se\u00f1ales iniciales representan solo contenido, y no incluir\u00e1n informaci\u00f3n identificable sobre ninguna cuenta o individuo. Thrive se fundamenta en el trabajo que ya realizamos en Meta para eliminar contenido da\u00f1ino que muestra im\u00e1genes gr\u00e1ficas o fomenta el suicidio o la autolesi\u00f3n, al mismo tiempo que permite espacio para que las personas hablen sobre sus propias experiencias. Tambi\u00e9n brindamos apoyo a aquellos que comparten y buscan contenido relacionado con el suicidio o la autolesi\u00f3n conect\u00e1ndolos con organizaciones locales en todo el mundo, incluyendo Suicide and Crisis Lifeline y Crisis Text Line en los EE. UU. Entre abril y junio de este a\u00f1o, hemos removido m\u00e1s de 12 millones de piezas de contenido de suicidio y autolesi\u00f3n en Facebook e Instagram. Aunque permitimos que la gente hable de sus experiencias con el suicidio y las autolesiones -siempre que no sean gr\u00e1ficas o promocionales-, este a\u00f1o hemos tomado medidas importantes para que este contenido sea m\u00e1s dif\u00edcil de encontrar en las b\u00fasquedas y para ocultarlo por completo a los adolescentes, incluso si lo comparte alguien a quien siguen. Thrive ayudar\u00e1 a mantener a las personas seguras no solo en las aplicaciones de Meta, sino en todas las aplicaciones y servicios que utilizan. Estamos orgullosos de trabajar con la Coalici\u00f3n de Salud Mental y nuestros socios de la industria Snap y TikTok en este trabajo por el bienestar de nuestra comunidad.\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2024-09-12T14:20:41+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-09-12T14:24:54+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/Screenshot-2024-09-12-at-9.24.04\u202fAM.png?resize=1024,572\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"572\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"milenaherreraCO\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"3 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/\"},\"author\":\"Facebook company\",\"headline\":\"Prevenci\u00f3n de la difusi\u00f3n de contenido sobre suicidio y autolesi\u00f3n en l\u00ednea\",\"datePublished\":\"2024-09-12T14:20:41+00:00\",\"dateModified\":\"2024-09-12T14:24:54+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/\"},\"wordCount\":542,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/Screenshot-2024-09-12-at-9.24.04\u202fAM.png?fit=2716%2C1516\",\"articleSection\":[\"Meta\",\"Noticias de la Empresa\",\"Pol\u00edtica P\u00fablica\",\"Seguridad &amp; Expresi\u00f3n\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/\",\"name\":\"Prevenci\u00f3n de la difusi\u00f3n de contenido sobre suicidio y autolesi\u00f3n en l\u00ednea | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/Screenshot-2024-09-12-at-9.24.04\u202fAM.png?fit=2716%2C1516\",\"datePublished\":\"2024-09-12T14:20:41+00:00\",\"dateModified\":\"2024-09-12T14:24:54+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/Screenshot-2024-09-12-at-9.24.04\u202fAM.png?fit=2716%2C1516\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/Screenshot-2024-09-12-at-9.24.04\u202fAM.png?fit=2716%2C1516\",\"width\":2716,\"height\":1516},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Prevenci\u00f3n de la difusi\u00f3n de contenido sobre suicidio y autolesi\u00f3n en l\u00ednea\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Prevenci\u00f3n de la difusi\u00f3n de contenido sobre suicidio y autolesi\u00f3n en l\u00ednea | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/","og_locale":"es_ES","og_type":"article","og_title":"Prevenci\u00f3n de la difusi\u00f3n de contenido sobre suicidio y autolesi\u00f3n en l\u00ednea | Acerca de Meta","og_description":"El suicidio y la autolesi\u00f3n son problemas de salud mental complejos que pueden tener consecuencias devastadoras. En Meta, hemos trabajado con expertos durante a\u00f1os, incluyendo nuestro grupo asesor sobre suicidio y autolesi\u00f3n y miembros de los propios equipos de Seguridad de Meta, para desarrollar un enfoque informado sobre el contenido de suicidio y autolesi\u00f3n compartido en nuestras aplicaciones. Sin embargo, al igual que muchos otros tipos de contenido potencialmente problem\u00e1tico, el contenido de suicidio y autolesi\u00f3n no se limita a una sola plataforma. Para ser verdaderamente efectivos en responder a este contenido, las empresas tecnol\u00f3gicas necesitan trabajar juntas. Es por eso que unimos esfuerzos con la Coalici\u00f3n de Salud Mental para establecer Thrive, el primer programa de intercambio de se\u00f1ales sobre contenido que viola las normas de suicidio y autolesi\u00f3n. A trav\u00e9s de Thrive, las empresas tecnol\u00f3gicas participantes podr\u00e1n compartir se\u00f1ales sobre contenido que viola las normas de suicidio o autolesi\u00f3n para que otras compa\u00f1\u00edas puedan investigar y tomar medidas si el mismo contenido o similar se est\u00e1 compartiendo en sus plataformas. Meta est\u00e1 proporcionando la infraestructura t\u00e9cnica que sustenta Thrive, la misma tecnolog\u00eda que proporcionamos al programa Lantern de Tech Coalition, que permite compartir se\u00f1ales de manera segura. Las empresas participantes comenzar\u00e1n compartiendo hashes, c\u00f3digos num\u00e9ricos que corresponden al contenido que viola las normas, de im\u00e1genes y videos que muestran suicidio gr\u00e1fico y autolesi\u00f3n, y de contenido que representa o fomenta desaf\u00edos virales de suicidio o autolesi\u00f3n. Estamos priorizando este contenido debido a su tendencia a propagarse r\u00e1pidamente en diferentes plataformas. Estas se\u00f1ales iniciales representan solo contenido, y no incluir\u00e1n informaci\u00f3n identificable sobre ninguna cuenta o individuo. Thrive se fundamenta en el trabajo que ya realizamos en Meta para eliminar contenido da\u00f1ino que muestra im\u00e1genes gr\u00e1ficas o fomenta el suicidio o la autolesi\u00f3n, al mismo tiempo que permite espacio para que las personas hablen sobre sus propias experiencias. Tambi\u00e9n brindamos apoyo a aquellos que comparten y buscan contenido relacionado con el suicidio o la autolesi\u00f3n conect\u00e1ndolos con organizaciones locales en todo el mundo, incluyendo Suicide and Crisis Lifeline y Crisis Text Line en los EE. UU. Entre abril y junio de este a\u00f1o, hemos removido m\u00e1s de 12 millones de piezas de contenido de suicidio y autolesi\u00f3n en Facebook e Instagram. Aunque permitimos que la gente hable de sus experiencias con el suicidio y las autolesiones -siempre que no sean gr\u00e1ficas o promocionales-, este a\u00f1o hemos tomado medidas importantes para que este contenido sea m\u00e1s dif\u00edcil de encontrar en las b\u00fasquedas y para ocultarlo por completo a los adolescentes, incluso si lo comparte alguien a quien siguen. Thrive ayudar\u00e1 a mantener a las personas seguras no solo en las aplicaciones de Meta, sino en todas las aplicaciones y servicios que utilizan. Estamos orgullosos de trabajar con la Coalici\u00f3n de Salud Mental y nuestros socios de la industria Snap y TikTok en este trabajo por el bienestar de nuestra comunidad.\u00a0","og_url":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/","og_site_name":"Acerca de Meta","article_published_time":"2024-09-12T14:20:41+00:00","article_modified_time":"2024-09-12T14:24:54+00:00","og_image":[{"width":1024,"height":572,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/Screenshot-2024-09-12-at-9.24.04\u202fAM.png?resize=1024,572","type":"image\/png"}],"author":"milenaherreraCO","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"3 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/"},"author":"Facebook company","headline":"Prevenci\u00f3n de la difusi\u00f3n de contenido sobre suicidio y autolesi\u00f3n en l\u00ednea","datePublished":"2024-09-12T14:20:41+00:00","dateModified":"2024-09-12T14:24:54+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/"},"wordCount":542,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/Screenshot-2024-09-12-at-9.24.04\u202fAM.png?fit=2716%2C1516","articleSection":["Meta","Noticias de la Empresa","Pol\u00edtica P\u00fablica","Seguridad &amp; Expresi\u00f3n"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/","url":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/","name":"Prevenci\u00f3n de la difusi\u00f3n de contenido sobre suicidio y autolesi\u00f3n en l\u00ednea | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/Screenshot-2024-09-12-at-9.24.04\u202fAM.png?fit=2716%2C1516","datePublished":"2024-09-12T14:20:41+00:00","dateModified":"2024-09-12T14:24:54+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/Screenshot-2024-09-12-at-9.24.04\u202fAM.png?fit=2716%2C1516","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/Screenshot-2024-09-12-at-9.24.04\u202fAM.png?fit=2716%2C1516","width":2716,"height":1516},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/09\/prevencion-de-la-difusion-de-contenido-sobre-suicidio-y-autolesion-en-linea\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Prevenci\u00f3n de la difusi\u00f3n de contenido sobre suicidio y autolesi\u00f3n en l\u00ednea"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/09\/Screenshot-2024-09-12-at-9.24.04\u202fAM.png?fit=2716%2C1516","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25420","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/164097050"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=25420"}],"version-history":[{"count":1,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25420\/revisions"}],"predecessor-version":[{"id":25422,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25420\/revisions\/25422"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media\/25423"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=25420"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=25420"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=25420"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}