Meta

Prevención de la difusión de contenido sobre suicidio y autolesión en línea

Antigone Davis, Líder Global de Seguridad

Conclusiones

  • Hemos trabajado con la Coalición de Salud Mental para crear Thrive, un nuevo programa que permite a las empresas tecnológicas compartir señales sobre contenido que viola las normas de suicidio o autolesión y detener su propagación en diferentes plataformas.
  • Estamos proporcionando la infraestructura técnica detrás de Thrive, que permite compartir señales de manera segura.
  • Estamos orgullosos de ser miembros fundadores

El suicidio y la autolesión son problemas de salud mental complejos que pueden tener consecuencias devastadoras. En Meta, hemos trabajado con expertos durante años, incluyendo nuestro grupo asesor sobre suicidio y autolesión y miembros de los propios equipos de Seguridad de Meta, para desarrollar un enfoque informado sobre el contenido de suicidio y autolesión compartido en nuestras aplicaciones.

Sin embargo, al igual que muchos otros tipos de contenido potencialmente problemático, el contenido de suicidio y autolesión no se limita a una sola plataforma. Para ser verdaderamente efectivos en responder a este contenido, las empresas tecnológicas necesitan trabajar juntas. Es por eso que unimos esfuerzos con la Coalición de Salud Mental para establecer Thrive, el primer programa de intercambio de señales sobre contenido que viola las normas de suicidio y autolesión.

A través de Thrive, las empresas tecnológicas participantes podrán compartir señales sobre contenido que viola las normas de suicidio o autolesión para que otras compañías puedan investigar y tomar medidas si el mismo contenido o similar se está compartiendo en sus plataformas. Meta está proporcionando la infraestructura técnica que sustenta Thrive, la misma tecnología que proporcionamos al programa Lantern de Tech Coalition, que permite compartir señales de manera segura.

Las empresas participantes comenzarán compartiendo hashes, códigos numéricos que corresponden al contenido que viola las normas, de imágenes y videos que muestran suicidio gráfico y autolesión, y de contenido que representa o fomenta desafíos virales de suicidio o autolesión. Estamos priorizando este contenido debido a su tendencia a propagarse rápidamente en diferentes plataformas. Estas señales iniciales representan solo contenido, y no incluirán información identificable sobre ninguna cuenta o individuo.

Thrive se fundamenta en el trabajo que ya realizamos en Meta para eliminar contenido dañino que muestra imágenes gráficas o fomenta el suicidio o la autolesión, al mismo tiempo que permite espacio para que las personas hablen sobre sus propias experiencias. También brindamos apoyo a aquellos que comparten y buscan contenido relacionado con el suicidio o la autolesión conectándolos con organizaciones locales en todo el mundo, incluyendo Suicide and Crisis Lifeline y Crisis Text Line en los EE. UU.

Entre abril y junio de este año, hemos removido más de 12 millones de piezas de contenido de suicidio y autolesión en Facebook e Instagram. Aunque permitimos que la gente hable de sus experiencias con el suicidio y las autolesiones -siempre que no sean gráficas o promocionales-, este año hemos tomado medidas importantes para que este contenido sea más difícil de encontrar en las búsquedas y para ocultarlo por completo a los adolescentes, incluso si lo comparte alguien a quien siguen.

Thrive ayudará a mantener a las personas seguras no solo en las aplicaciones de Meta, sino en todas las aplicaciones y servicios que utilizan. Estamos orgullosos de trabajar con la Coalición de Salud Mental y nuestros socios de la industria Snap y TikTok en este trabajo por el bienestar de nuestra comunidad. 



Utilizamos cookies para personalizar contenido, adaptar y medir los anuncios, y proporcionar una experiencia más segura. Al hacer clic o navegar en el sitio, aceptas que recopilemos información dentro y fuera de Facebook mediante cookies. Consulta más información, incluida información relativa a los controles disponibles en: Política de cookies