Tras la publicación de nuestro Reporte sobre Amenazas Adversarias de Q4, publicamos el resto de nuestros reportes correspondientes al cuarto trimestre de 2023, incluidos el Reporte sobre el Cumplimiento de las Normas Comunitarias, la Actualización Trimestral del Consejo de Asesor y el Reporte sobre los Contenidos Más Vistos. Todos los reportes están disponibles en nuestro Centro de Transparencia.
Algunos de los aspectos más destacados son:
Reporte Sobre la Aplicación de las Normas Comunitarias
Durante Q4 seguimos avanzando en la eliminación de contenidos que infringen nuestras normas comunitarias, con una prevalencia relativamente constante en la mayoría de los ámbitos. Además, se registró:
- Un aumento de los contenidos intervenidos por desnudos de adultos y actividad sexual, debido a actualizaciones de nuestra tecnología de detección proactiva que mejoró la precisión en los vídeos en directo.
- Un aumento de los contenidos objeto de acciones y llamamientos por parte de Organizaciones e Individuos Peligrosos, y Contenidos Violentos y Gráficos, debido a la guerra entre Israel y Hamás.
- Un aumento de los contenidos intervenidos, tanto en Facebook como en Instagram, por infracciones de nuestra política de Bienes y Servicios Regulados, en gran parte relacionadas con fuegos artificiales y armas de fuego.
- Una disminución de los contenidos recurridos, relacionados con Intimidación y Acoso, debido a mejoras de precisión en nuestra tecnología de detección proactiva.
Puedes leer el reporte completo aquí.
Reporte Sobre Amenazas Adversarias
En nuestro reporte sobre Amenazas Adversarias de Q4, presentamos nuestra tercera actualización anual sobre nuestro trabajo contra la industria de la vigilancia por encargo, incluido nuestro llamamiento a la acción contra los programas espía con recomendaciones de políticas específicas para una respuesta más amplia de toda la sociedad. Nuestro reporte también incluye nuevos desmantelamientos de redes de Comportamiento Inauténtico Coordinado (CIB, por sus siglas en inglés) en China, Myanmar y Ucrania, así como nuestros insights sobre las tendencias adversas que hemos identificado en los dos años desde que Rusia comenzó su guerra a gran escala contra Ucrania. Esta investigación sobre amenazas ayuda a informar nuestras defensas mientras trabajamos para proteger el debate público en todo el mundo este año, incluyendo antes de las elecciones. Puedes leer el informe completo aquí.
Actualización del Consejo Asesor
El Consejo Asesor sigue ayudando a impulsar cambios importantes en nuestras políticas, operaciones y productos que promueven la responsabilidad. Durante el cuarto trimestre de 2023, presentamos 15 recomendaciones de contenido al Consejo y completamos el trabajo sobre 16 recomendaciones que abarcaban nuestras operaciones, políticas y productos, contribuyendo a mejoras amplias y significativas en toda la empresa y en nuestra comunidad global. Respondemos públicamente a todas las recomendaciones del Consejo de Supervisión y nos hemos comprometido a aplicar o estudiar la viabilidad de aplicar el 77% del total de las recomendaciones del Consejo hasta la fecha.
El cuarto trimestre de 2023 marcó las primeras decisiones expeditivas del Consejo de Supervisión, que los estatutos prevén en «circunstancias excepcionales, incluyendo cuando el contenido pueda tener consecuencias urgentes en el mundo real». Tras los atentados terroristas perpetrados por Hamás en Israel el 7 de octubre y la respuesta israelí en Gaza, la Junta seleccionó los casos del Hospital Al-Shifa y el los rehenes secuestrados en Israel. Al revocar rápidamente nuestras decisiones originales, el Consejo nos proporcionó información que sigue dando forma a nuestra respuesta al conflicto actual. Estas decisiones también demostraron el potencial de las decisiones sobre casos expeditivos para permitir al Consejo proporcionar orientación crítica en situaciones de alto riesgo y rápida evolución.
En febrero de 2024, el Consejo de Supervisión anunció que su ámbito de actuación incluye ahora las apelaciones de contenidos de Threads, además de Facebook e Instagram. Al igual que en Facebook e Instagram, los usuarios podrán remitir al Consejo las decisiones sobre contenidos de Threads, tanto si se mantienen como si se retiran. Los estatutos de la Junta de Supervisión prevén que su ámbito de actuación crezca y evolucione con el tiempo, y desde su puesta en marcha en 2020 su ámbito de actuación se ha ampliado para incluir las apelaciones de quien reporta, las decisiones agrupadas, el resumen de decisiones y las decisiones expeditivas.
Dado que tanto Meta como el Consejo siguen trabajando para obtener más resultados de forma más eficiente, cada institución ha tomado por separado la decisión de pasar de una periodicidad trimestral a una semestral para la presentación de reportes actualizados sobre nuestro trabajo con el Consejo de Supervisión. Puedes leer más sobre el impacto del Consejo aquí.
Reporte Sobre Contenido Más Visto (WVCR)
En Q4 2023, la mayoría de las visitas (62,7%) proceden de los amigos de los usuarios y de los grupos o páginas que siguen. Puedes leer el informe completo aquí.
Cybertips al NCMEC
Como parte de nuestro trabajo para ofrecer a los jóvenes experiencias en línea seguras y positivas, como se informó por primera vez en Q2 y se continuó en Q3, estamos ofreciendo más transparencia sobre nuestros esfuerzos para encontrar y denunciar la explotación infantil al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC, por sus siglas en inglés).
En Q4 2023, comunicamos al NCMEC el siguiente número de CyberTips procedentes de Facebook e Instagram:
- Facebook e Instagram enviaron más de 6 millones de reportes de Cybertip al NCMEC por explotación sexual infantil.
- De estos reportes, más de 100.000 se referían a interacciones inapropiadas con niños. Los Cybertips relacionados con interacciones inapropiadas con niños pueden incluir que un adulto solicite material de abuso sexual infantil (CSAM) directamente a un menor o que intente encontrarse con un niño y causarle daño en persona. Estos Cybertips también incluyen los casos en que un menor se encuentra en peligro aparentemente inminente. Esta cifra aumentó más de un 80% desde el trimestre anterior, gracias a la mejora de la eficacia de nuestro proceso de revisión y a la corrección de errores.
- Más de 5,9 millones de reportes relacionados con fotos y vídeos compartidos o vueltos a compartir que contienen CSAM.
Otras actualizaciones de integridad
- Preparación para las elecciones europeas: El lunes 26 de febrero publicamos un post en el blog corporativo en el que exponemos las medidas que estamos tomando de cara a las elecciones del Parlamento de la UE, incluido nuestro enfoque para combatir la desinformación, hacer frente a las operaciones de influencia y contrarrestar el abuso de las tecnologías GenAI. Puedes encontrar más información aquí.
- Etiquetado de imágenes generadas por IA en Facebook, Instagram y Threads: Estamos trabajando con socios de la industria para alinear estándares técnicos comunes que señalen cuándo un contenido ha sido creado utilizando IA. Ser capaces de detectar estas señales nos permitirá etiquetar las imágenes generadas por IA que las personas publiquen en Facebook, Instagram y Threads. Estamos desarrollando esta capacidad y en los próximos meses empezaremos a aplicar etiquetas en todos los idiomas que admite cada aplicación. Adoptaremos este enfoque a lo largo del próximo año, durante el cual se celebrarán varias elecciones importantes en todo el mundo. Durante este tiempo, esperamos aprender mucho más sobre cómo las personas crean y comparten contenidos de IA, qué tipo de transparencia consideran más valiosa y cómo evolucionan estas tecnologías. Lo que aprendamos servirá de base a las mejores prácticas del sector y a nuestro propio enfoque de cara al futuro. Puedes encontrar más información aquí.
- Nuestros continuos esfuerzos para mantener a los grupos de odio organizados fuera de nuestras plataformas: La mayor parte de nuestra lucha contra el terrorismo y el odio organizado consiste en la eliminación rutinaria de contenidos. Sin embargo, hay ocasiones en las que, cuando nos enfrentamos a un grupo especialmente decidido o adversario, la mera aplicación de nuestras políticas no es suficiente. Es entonces cuando utilizamos una táctica importante, denominada interrupción estratégica de la red (SND, por sus siglas en inglés), que nos ayuda a desmantelar toda una red a la vez. Como parte de ese trabajo en curso, recientemente hemos llevado a cabo interrupciones estratégicas de la red de dos organizaciones de odio estadounidenses, el Partido Nacional de la Justicia y el KKK. Las SND son una herramienta importante en nuestro trabajo para mantener seguras nuestras plataformas y comunidades, y contrarrestar a los grupos malintencionados cuando intentan abusar de nuestras plataformas para causar daños y violencia fuera de línea.