Meta

Lo que vimos en nuestras plataformas durante las elecciones de 2024 alrededor del mundo

Por Nick Clegg, Presidente de Asuntos Globales en Meta

La reciente elección Presidencial en Estados Unidos coronó un año sin precedentes en el que se anticipó que más de dos mil millones de personas ejercieran su voto en algunas de las democracias más grandes del mundo, incluyendo India, Indonesia, México y la Unión Europea. Como una empresa que opera plataformas en las que se debaten estos temas, Meta entiende la responsabilidad que tiene para proteger la habilidad de las personas para alzar su voz y asegurar que está preparada para las distintas elecciones alrededor del mundo. 

Desde 2016 hemos evolucionado nuestro acercamiento a las elecciones, para incorporar las lecciones que aprendemos y estar preparados ante amenazas emergentes. Tenemos a un equipo responsable de los esfuerzos de integridad para elecciones, que incluye expertos en inteligencia de datos, producto, ingeniería, investigación, operaciones, política pública y asuntos legales. En 2024, activamos una serie de Centros de Operaciones de Elecciones en el mundo para monitorear y actuar rápidamente ante problemáticas emergentes, incluyendo las elecciones en Estados Unidos, Bangladesh, Indonesia, India, Pakistán, el Parlamento europeo, Francia, Reino Unido, Sudáfrica, México y Brasil. 

Habiendo pasado las elecciones de Estados Unidos, podemos compartir algunas de las tendencias que vimos en nuestras plataformas, y explicar cómo buscamos equilibrar la libertad de expresión y la seguridad de las personas durante el año. 

Facilitamos la libertad de expresión

Encontrar el balance correcto entre permitir que las personas hagan escuchar sus voces y mantener su seguridad es algo que ninguna plataforma hará bien al cien por ciento todo el tiempo. Sabemos que nuestros índices de error en la aplicación de nuestras políticas son altos y esto obstaculiza la libertad de expresión. Muchas veces, contenido inofensivo puede ser removido o restringido y muchas personas pueden ser penalizadas injustamente. A lo largo del año, hemos tratado de actualizar y aplicar nuestras políticas de manera justa, para que las personas alcen su voz; y daremos continuidad a este trabajo en los próximos meses. 

  • Lanzamos controles de contenido político en Facebook, Instagram y Threads para darle a las personas la posibilidad de tener más recomendaciones de este tipo de publicaciones si así lo desean. Estos controles ya se lanzaron en Estados Unidos y próximamente estarán disponibles para el resto del mundo. 
  • Permitimos a las personas hacer preguntas o expresar sus preocupaciones sobre los procesos electorales en el contenido orgánico. Sin embargo, no permitimos afirmaciones o especulaciones sobre corrupción, irregularidades o prejuicios en las elecciones cuando se combinan con una señal que indica que el contenido es violencia intimidatoria. Ajustamos nuestras políticas para hacer esta distinción. Para el contenido pagado, prohibimos anuncios que cuestionan la legitimidad de una elección, como lo hemos hecho desde 2020. 
  • Actualizamos nuestro sistema de penalizaciones a principios de 2023 para que fuera más justo y protegiera la habilidad que tienen las personas para alzar sus voces, sin perder su efectividad para aplicar las políticas en contra personas que persistentemente infringen nuestras políticas. 
  • Realizamos auditorías anuales sobre palabras que designamos como groserías bajo nuestra política de Lenguaje que incita al odio, priorizando territorios con elecciones en puerta, con el objetivo de mantener listas actualizadas que protejan a comunidades vulnerables y asegurando que no estamos cometiendo errores en la moderación del discurso público. 
  • También, actualizamos nuestro protocolo de penalizaciones relacionado a figuras públicas suspendidas por infracciones durante períodos de disturbios civiles, para asegurar que los estadounidenses escucharan a los candidatos a la presidencia en los mismos términos. Nos comprometimos a realizar revisiones periódicas para determinar si se justifican sanciones más severas.

Durante las elecciones de 2024 alrededor del mundo, conectamos a las personas con información confiable sobre el proceso democrático a través de notificaciones en Facebook e Instagram. 

  • Durante la elección general de Estados Unidos en 2024, los recordatorios en la parte superior del feed de Facebook e Instagram recibieron más de mil millones de impresiones. Estos recordatorios incluyeron información sobre el registro para votar, el voto por correo electrónico, el voto adelantado en persona y el voto el día de la elección. Las personas dieron clic en estos recordatorios más de 20 mil millones de veces para visitar sitios web gubernamentales oficiales para obtener más información.
  • Asimismo, enviamos Alertas de votación en colaboración con funcionarios de gobierno estatales y locales, quienes han enviado más de 765 millones de notificaciones en Facebook desde 2020. Esta es una herramienta que se puede adaptar a las necesidades que surjan. Por ejemplo, si ciertas casillas necesitan extender sus horas de operación el día de la elección.
  • Implementamos un apartado con resultados de búsqueda en Facebook e Instagram en Estados Unidos. Esto quiere decir que cuando las personas buscaban términos relacionados con las elecciones de 2024, les mostramos links que dirigían a fuentes de información oficiales con datos sobre cómo, cuándo y dónde votar. En Instagram, lanzamos stickers para Stories para dirigir a las personas a información electoral oficial. En Facebook volvimos a activar el Centro de Información Electoral. 
  • Las notificaciones en la parte superior del Feed llegaron a millones de personas en países que tuvieron elecciones en 2024, incluyendo: 
    • En Reino Unido, nuestro recordatorio el día de la elección alcanzó a 43.6 millones de personas en Facebook e Instagram, y casi 900,000 dieron clic para registrarse para votar o revisar su estatus de registro. 
    • En la Unión Europea, las personas interactuaron con estas notificaciones más de 41 millones de veces en Facebook y más de 58 millones de veces en Instagram. 
    • Las alertas para votar se activaron en Facebook en India el 17 de abril antes de las elecciones nacionales. La notificación se lanzó desde la Página de Facebook de la Comisión electoral de India y alcanzó a 145 millones de personas, dirigiendo a las personas a https://elections24.eci.gov.in/ para obtener más información. La comisión electoral de India también usó la API de WhatsApp para implementar campañas de recordación, mismas que alcanzaron alrededor de 400 millones de personas. 
    • En las elecciones locales de Brasil, las personas interactuaron con los recordatorios de votación en Facebook e Instagram alrededor de 9.7 millones de veces. 
  • En Francia, las personas dieron clic en las notificaciones electorales más de 599 mil veces en Facebook y más de 496 mil veces en Instagram. 

Meta sigue ofreciendo una transparencia líder en la industria para anuncios sobre temas sociales, electorales o políticos Los anunciantes que publican estos anuncios deben pasar por un proceso de autorización e incluir una exención de responsabilidad de “pagado por”. Luego, estos anuncios se almacenan en nuestra Biblioteca de anuncios durante siete años. Este año, continuamos prohibiendo nuevos anuncios políticos, electorales y sociales en Estados Unidos durante la última semana de la campaña electoral, como lo hemos hecho desde 2020, porque en los últimos días de una elección puede no haber tiempo suficiente para impugnar nuevas afirmaciones. Desde enero de 2024, en ciertos casos también exigimos a los anunciantes que revelen cuándo utilizan IA u otras técnicas digitales para crear o alterar un anuncio sobre un tema político o social.

Monitoreamos el impacto de la IA 

A principios de año, muchas personas advirtieron sobre el posible impacto de la IA generativa en las elecciones, incluido el riesgo de esparcimiento masivo de las deepfakes y las campañas de desinformación habilitadas por IA. Según lo que hemos monitoreado en nuestros servicios, parece que estos riesgos no se materializaron de manera significativa y que el impacto fue modesto y de alcance limitado.

  • Si bien hubo casos de uso confirmado o sospechoso de IA, los volúmenes se mantuvieron bajos y nuestras políticas y procesos existentes demostraron ser suficientes para reducir el riesgo en torno al contenido de IA generativa. Durante el período electoral en las elecciones principales mencionadas anteriormente, las calificaciones sobre el contenido de IA relacionado con las elecciones, la política y los temas sociales representaron menos de 1% de toda la desinformación verificada.
  • Como parte de nuestros esfuerzos para prevenir que las personas usaran el generador de imágenes de IA de Meta para crear deep fakes relacionados con las elecciones, rechazamos 590,000 solicitudes para generar imágenes del presidente electo Trump, el vicepresidente electo Vance, la vicepresidenta Harris, el gobernador Walz y el presidente Biden en el mes previo al día de las elecciones. 
  • También hemos monitoreado de cerca el posible uso de la IA generativa por parte de campañas de influencia encubiertas (lo que llamamos redes de comportamiento inauténtico coordinado o CIB) y hemos descubierto que solo han logrado mejoras incrementales en la productividad y la generación de contenido utilizando la IA generativa. Esto no ha impedido nuestra capacidad de desmantelar estas operaciones de influencia porque nos centramos en el comportamiento cuando investigamos y eliminamos estas campañas, no en el contenido que publican, ya sea creado con IA o no.
  • En el período previo a las elecciones estadounidenses, solicitamos a Meta AI que respondiera preguntas sobre cuándo y cómo votar con enlaces a fuentes confiables que pudieran ofrecerles la información más actualizada. El día de las elecciones, también solicitamos a Meta AI que respondiera ciertas preguntas sobre los candidatos los resultados de las elecciones, indicando a las personas que consultaran con fuentes confiables hasta que varias organizaciones de noticias declararan a un ganador.
  • A lo largo de 2024, hemos cooperado con otros actores del sector para combatir las posibles amenazas alrededor del uso de la IA generativa. Por ejemplo, en febrero de 2024, firmamos el AI Elections Accord junto con docenas de otros líderes de la industria, comprometiéndonos a ayudar a evitar que el contenido engañoso generado por IA interfiriera en las elecciones de este año. En India, lanzamos una línea de denuncia en WhatsApp en colaboración con la Misinformation Combat Alliance, que incluye la creación de una Unidad de análisis de deepfakes pionera en el mundo para ofrecer a las personas evaluaciones de cualquier contenido digital en formato de audio o vídeo. Y antes de las elecciones del Parlamento Europeo, Meta financió y apoyó a la Red Europea de Normas de Verificación de Datos (EFCSN, por sus siglas en inglés) en un proyecto destinado a mejorar las habilidades y capacidades de los verificadores de datos europeos para desacreditar y contrarrestar la desinformación generada por IA.

Prevenimos la interferencia extranjera

Este año, nuestros equipos han desmantelado alrededor de 20 nuevas operaciones de influencia encubierta en todo el mundo, incluyendo Medio Oriente, Asia, Europa y Estados Unidos.

  • Rusia sigue siendo la principal fuente de operaciones de influencia encubierta que hemos desarticulado hasta la fecha, con 39 redes en total desde 2017. Las siguientes fuentes más frecuentes de interferencia extranjera son Irán, con 31 redes CIB, y China, con 11.
  • La mayoría de las redes CIB que hemos desarticulado han tenido dificultades para crear audiencias auténticas, y algunas usaban “me gusta” o seguidores falsos para parecer más populares de lo que eran. Por ejemplo, desmantelamos una red CIB que se originó principalmente en la región de Transnistria en Moldavia y se dirigía a audiencias de habla rusa en Moldavia. Eliminamos esta campaña antes de que pudieran crear audiencias auténticas en nuestras aplicaciones.
  • La gran mayoría de las redes CIB que desarticulamos a nivel mundial intentaron extenderse a través de muchas aplicaciones en línea, incluidas las nuestras, YouTube, TikTok, X, Telegram, Reddit, Medium, Pinterest y más. Hemos visto varias operaciones de influencia trasladar gran parte de sus actividades a plataformas con menos salvaguardas que las nuestras. Por ejemplo, se publicaron videos ficticios sobre las elecciones estadounidenses (vinculados a operaciones de influencia con base en Rusia, de acuerdo a la comunidad de inteligencia estadounidense ) en X y Telegram. En una cantidad mínima de casos en los que personas en Estados Unidos volvieron a publicar este contenido en nuestras aplicaciones, etiquetamos el contenido como vinculado a actores de influencia rusas.
  • La gran mayoría de las redes de CIB tenían sus propios sitios web, que probablemente resistirían el desmantelamiento por parte de una sola empresa. La operación más grande y persistente de este tipo se conoce como Doppelganger, que utiliza una vasta red de sitios web falsos, incluidos algunos que suplantan noticias legítimas y entidades gubernamentales. Hemos creado el repositorio público más grande de señales de amenaza de Doppelganger, exponiendo más de 6,000 dominios desde 2022 para que los investigadores y otros equipos de investigación los vean y también puedan tomar medidas, además de bloquearlos para que no se compartan en nuestras aplicaciones. Sin embargo, a pesar de algunas interrupciones por parte de los gobiernos y otros, muchos de los dominios web de Doppelganger que hemos expuesto hasta la fecha han sido reemplazados rápidamente y continúan publicando contenido nuevo, y muchas de sus marcas siguen activas en X y Telegram.
  • Antes de las elecciones estadounidenses, Doppelganger tuvo dificultades para acceder a nuestras aplicaciones y abandonó en gran medida la publicación de enlaces a sus sitios web. La gran mayoría de los intentos de Doppelganger de atacar a Estados Unidos en octubre y noviembre se detuvieron de manera proactiva antes de que ningún usuario viera su contenido.
  • Previo a las elecciones estadounidenses, ampliamos nuestra aplicación continua contra los medios de comunicación estatales rusos. Prohibimos a Rossiya Segodnya, RT y otras entidades relacionadas de nuestras aplicaciones a nivel mundial por infracciones de nuestras políticas que prohíben participar o afirmar participar en interferencias extranjeras. Esto siguió a las medidas sin precedentes que tomamos hace más de 2 años para limitar la propagación de los medios controlados por el estado ruso, incluido el bloqueo de que publiquen anuncios, la ubicación de su contenido más abajo en los feeds de las personas y recordatorios en producto que piden a las personas que confirmen que desean compartir o navegar hacia el contenido de estos medios.

Estos hallazgos y políticas tienen como objetivo dar una idea de lo que hemos visto y el enfoque general que hemos adoptado durante este año electoral sin precedentes, pero están lejos de ser un recuento exhaustivo de todo lo que hicimos y vimos. Nuestro enfoque tampoco es inflexible. Con cada elección queremos asegurarnos de que estamos aprendiendo las lecciones correctas y manteniéndonos a la vanguardia de las amenazas potenciales. Lograr el equilibrio entre la libertad de expresión y la seguridad es un desafío constante y en evolución. A medida que hacemos un balance de lo que hemos aprendido durante este año extraordinario, revisaremos nuestras políticas y anunciaremos cualquier cambio en los próximos meses.



Utilizamos cookies para personalizar contenido, adaptar y medir los anuncios, y proporcionar una experiencia más segura. Al hacer clic o navegar en el sitio, aceptas que recopilemos información dentro y fuera de Facebook mediante cookies. Consulta más información, incluida información relativa a los controles disponibles en: Política de cookies