Meta

Mejorando las defensas frente a las amenazas digitales mediante la transparencia y la colaboración con el sector

Por Guy Rosen, Chief Information Security Officer
  • Un estudio reciente muestra que la remoción de las redes de odio en las plataformas digitales reduce el consumo y la producción de contenidos de odio en Facebook y disminuye la capacidad de estas redes de odio para operar digitalmente.
  • Compartimos nuevas investigaciones sobre amenazas en dos de las mayores operaciones encubiertas de influencia conocidas en el mundo, de China y Rusia, dirigidas a más de 50 apps y países, incluido Estados Unidos.
  • Añadimos nuevas funciones de transparencia a Threads, incluidas etiquetas de medios controlados por el Estado para ayudar a las personas a saber exactamente con quién interactúa en la nueva app.

Rara vez, o nunca, las amenazas digitales de hoy en día se dirigen a una única plataforma tecnológica, sino que siguen a las personas a través de Internet. Hacemos todo lo posible para mantener nuestras apps seguras para los usuarios y ayudar a aumentar nuestras defensas colectivas en Internet. Las actualizaciones de seguridad e integridad de hoy ofrecen una visión general de nuestra estrategia de defensa y las últimas noticias sobre cómo la incorporamos a productos como nuestra nueva app Threads y los sistemas generativos de inteligencia artificial.

En la década desde que empezamos a publicar informes de transparencia, las empresas de tecnología y los investigadores han aprendido mucho sobre cómo los actores maliciosos pueden abusar de los espacios públicos digitales. Una lección clave para nosotros ha sido que la transparencia en toda nuestra industria tiene efectos positivos sobre nuestra capacidad colectiva para responder a nuevas amenazas, desde la presión continua sobre grupos maliciosos a través de retiros y exposición pública hasta sanciones gubernamentales y defensas de productos más fuertes. Las actualizaciones de hoy son una buena muestra de cómo funciona esto en la práctica.

Acabar con dos de las mayores operaciones encubiertas de influencia conocidas 

China: Recientemente desmantelamos miles de cuentas y páginas que formaban parte de la mayor operación de influencia encubierta multiplataforma conocida en el mundo. Su objetivo era más de 50 apps, entre ellas Facebook, Instagram, X (antes Twitter), YouTube, TikTok, Reddit, Pinterest, Medium, Blogspot, LiveJournal, VKontakte, Vimeo y docenas de plataformas y foros más pequeños. Por primera vez, pudimos relacionar esta actividad para confirmar que formaba parte de una operación conocida en la comunidad de seguridad como Spamouflage y vincularla a individuos asociados con las fuerzas de seguridad chinas. Consulte los detalles en nuestro informe sobre amenazas del segundo trimestre de 2023.

Rusia: También bloqueamos miles de dominios de sitios web maliciosos, así como intentos de crear cuentas y páginas falsas en nuestras plataformas relacionadas con la operación rusa conocida como Doppelganger, que desmantelamos por primera vez hace un año. Esta operación se centraba en imitar sitios web de los principales medios de comunicación y entidades gubernamentales para publicar artículos falsos destinados a debilitar el apoyo a Ucrania. Ahora se ha extendido más allá de los objetivos iniciales de Francia, Alemania y Ucrania para incluir también a Estados Unidos e Israel. Esta es la operación de origen ruso más grande y más agresivamente persistente que hemos desmantelado desde 2017. Además de una nueva investigación sobre amenazas, también publicamos nuestras recomendaciones sobre políticas y su aplicación para abordar el abuso del sistema global de registro de nombres de dominio.

Examinando el impacto de la interrupción de las redes de odio

Empezamos a utilizar lo que llamamos Strategic Network Disruptions en 2017 para hacer frente a las operaciones encubiertas de influencia desde Rusia. Como demostró ser un instrumento eficaz en nuestra caja de herramientas, lo ampliamos a otras áreas relacionadas, incluidas las redes de odio, el ciberespionaje y la información masiva. Pero como sabemos que los grupos maliciosos siguen evolucionando sus tácticas en Internet, también continuamos preguntándonos: ¿siguen funcionando estas estrategias y cómo podemos mejorarlas?

Nuestro equipo de investigadores ha publicado recientemente un estudio sobre los efectos de seis interrupciones de la red de organizaciones basadas en odio prohibidas en Facebook. Su investigación ha revelado que la eliminación de la plataforma de estas entidades mediante interrupciones puede ayudar a que el ecosistema sea menos hospitalario para las organizaciones peligrosas designadas. Aunque las personas más cercanas al público principal de estos grupos de odio muestran signos de reacción a corto plazo, las pruebas sugieren que con el tiempo reducen su engagement con la red y con los contenidos que incitan al odio. También sugiere que nuestras estrategias pueden reducir la capacidad de las organizaciones de odio para operar con éxito en la red.

Creación de Threads y herramientas de IA generativa

Si bien desmantelar redes de influencia tiene un gran impacto, no son más que una herramienta en nuestra estrategia de defensa más amplia contra grupos adversarios que atacan a las personas en Internet. Nuestras investigaciones y acciones refuerzan lo que llamamos un círculo virtuoso de defensa, que mejora nuestros sistemas a escala y nuestra forma de crear nuevos productos. 

Threads: Desde el principio, nuestros sistemas de integridad y aplicación de las políticas desarrolladas para Instagram y otras apps se han integrado desde el desarrollo de Threads. Se puede pensar que Threads se ha construido sobre una infraestructura global establecida que alimenta varias apps a la vez. Esto significa que nuestros esfuerzos de seguridad, como la lucha contra las operaciones encubiertas de influencia, se aplican a Threads igual que a Facebook e Instagram. De hecho, a las 24 horas del lanzamiento de Threads, detectamos y bloqueamos los intentos de establecer una presencia en Threads por parte de cuentas vinculadas a una operación de influencia que desmantelamos en el pasado.

También hemos desplegado nuevas funciones de transparencia en Threads, como etiquetar los medios controlados por el Estado y mostrar información adicional sobre las cuentas para que la gente pueda saber, por ejemplo, si las cuentas han cambiado de nombre. Sabemos que los comportamientos adversos seguirán evolucionando a medida que la app Threads siga madurando, y por lo tanto nosotros también lo haremos para adelantarnos a estas amenazas.

IA generativa: La apertura y la colaboración son aún más críticas cuando se trata de tecnologías en rápida evolución como la IA generativa. Además de un extenso «red teaming» interno en el que nuestros equipos internos asumen el papel de adversarios para buscar fallos, recientemente llevamos nuestro modelo de IA generativa a DEFCON, la mayor conferencia de hackers del mundo. Nos unimos a nuestros colegas de Google, NVIDIA, OpenAI y otros para poner a prueba nuestros diferentes modelos como parte del primer Generative Red Team Challenge abierto al público.

Más de 2,200 investigadores, entre ellos cientos de estudiantes y organizaciones tradicionalmente excluidas de las primeras fases del cambio tecnológico, se reunieron para buscar fallos y vulnerabilidades en estos sistemas. Según los organizadores de este reto, entablaron más de 17,000 conversaciones con sistemas de IA generativa para sondear comportamientos involuntarios, desde cálculos matemáticos erróneos hasta información incorrecta o malas prácticas de seguridad de los usuarios. Este Red Team Challenge abierto al público contó con el apoyo de la Oficina de Política Científica y Tecnológica de la Casa Blanca, la Fundación Nacional de la Ciencia y el Grupo de Inteligencia Artificial del Congreso estadounidense. Nuestra esperanza es que un enfoque temprano en el establecimiento de las mejores prácticas para este espacio emergente GenAI dará lugar a sistemas más seguros en el largo plazo.

Creemos que la apertura es la clave para abordar algunos de los mayores retos a los que nos enfrentamos colectivamente en Internet. Los informes de transparencia, la investigación académica y otras medidas para innovar abiertamente y poner a prueba nuestros sistemas ayudan a nuestra industria a aprender unos de otros, a mejorar nuestros respectivos sistemas y a mantener la seguridad de las personas en Internet.

Puedes encontrar nuestros reportes trimestrales sobre integridad en el centro de transparencia de Meta



Utilizamos cookies para personalizar contenido, adaptar y medir los anuncios, y proporcionar una experiencia más segura. Al hacer clic o navegar en el sitio, aceptas que recopilemos información dentro y fuera de Facebook mediante cookies. Consulta más información, incluida información relativa a los controles disponibles en: Política de cookies