{"id":25623,"date":"2024-12-04T15:13:22","date_gmt":"2024-12-04T21:13:22","guid":{"rendered":"https:\/\/about.fb.com\/ltam\/?p=25623"},"modified":"2024-12-04T15:22:24","modified_gmt":"2024-12-04T21:22:24","slug":"lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo","status":"publish","type":"post","link":"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/","title":{"rendered":"Lo que vimos en nuestras plataformas durante las elecciones de 2024 alrededor del mundo"},"content":{"rendered":"<p><span style=\"font-weight: 400\">La reciente elecci\u00f3n Presidencial en Estados Unidos coron\u00f3 un a\u00f1o sin precedentes en el que se anticip\u00f3 que m\u00e1s de dos mil millones de personas ejercieran su voto en algunas de las democracias m\u00e1s grandes del mundo, incluyendo India, Indonesia, M\u00e9xico y la Uni\u00f3n Europea. Como una empresa que opera plataformas en las que se debaten estos temas, Meta entiende la responsabilidad que tiene para proteger la habilidad de las personas para alzar su voz y asegurar que est\u00e1 preparada para las distintas elecciones alrededor del mundo.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Desde 2016 hemos evolucionado nuestro acercamiento a las elecciones, para incorporar las lecciones que aprendemos y estar preparados ante amenazas emergentes. Tenemos a un equipo responsable de los esfuerzos de integridad para elecciones, que incluye expertos en inteligencia de datos, producto, ingenier\u00eda, investigaci\u00f3n, operaciones, pol\u00edtica p\u00fablica y asuntos legales. En 2024, activamos una serie de Centros de Operaciones de Elecciones en el mundo para monitorear y actuar r\u00e1pidamente ante problem\u00e1ticas emergentes, incluyendo las elecciones en Estados Unidos, Bangladesh, Indonesia, India, Pakist\u00e1n, el Parlamento europeo, Francia, Reino Unido, Sud\u00e1frica, M\u00e9xico y Brasil.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Habiendo pasado las elecciones de Estados Unidos, podemos compartir algunas de las tendencias que vimos en nuestras plataformas, y explicar c\u00f3mo buscamos equilibrar la libertad de expresi\u00f3n y la seguridad de las personas durante el a\u00f1o.\u00a0<\/span><\/p>\n<h3><span style=\"font-weight: 400\">Facilitamos la libertad de expresi\u00f3n<\/span><\/h3>\n<p><span style=\"font-weight: 400\">Encontrar el balance correcto entre permitir que las personas hagan escuchar sus voces y mantener su seguridad es algo que ninguna plataforma har\u00e1 bien al cien por ciento todo el tiempo. Sabemos que nuestros \u00edndices de error en la aplicaci\u00f3n de nuestras pol\u00edticas son altos y esto obstaculiza la libertad de expresi\u00f3n. Muchas veces, contenido inofensivo puede ser removido o restringido y muchas personas pueden ser penalizadas injustamente. A lo largo del a\u00f1o, hemos tratado de actualizar y aplicar nuestras pol\u00edticas de manera justa, para que las personas alcen su voz; y daremos continuidad a este trabajo en los pr\u00f3ximos meses.\u00a0<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Lanzamos controles de contenido pol\u00edtico en Facebook, Instagram y Threads para darle a las personas la posibilidad de tener m\u00e1s recomendaciones de este tipo de publicaciones si as\u00ed lo desean. Estos controles ya se lanzaron en Estados Unidos y pr\u00f3ximamente estar\u00e1n disponibles para el resto del mundo.\u00a0<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Permitimos a las personas hacer preguntas o expresar sus preocupaciones sobre los procesos electorales en el contenido org\u00e1nico. Sin embargo, no permitimos afirmaciones o especulaciones sobre corrupci\u00f3n, irregularidades o prejuicios en las elecciones cuando se combinan con una se\u00f1al que indica que el contenido es <\/span><a href=\"https:\/\/transparency.meta.com\/policies\/community-standards\/violence-incitement\/\"><span style=\"font-weight: 400\">violencia intimidatoria<\/span><\/a><span style=\"font-weight: 400\">. Ajustamos nuestras pol\u00edticas para hacer esta distinci\u00f3n. Para el contenido pagado, <\/span><a href=\"https:\/\/www.facebook.com\/business\/help\/253606115684173\"><span style=\"font-weight: 400\">prohibimos<\/span><\/a><span style=\"font-weight: 400\"> anuncios que cuestionan la legitimidad de una elecci\u00f3n, como lo hemos hecho desde 2020.\u00a0<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Actualizamos nuestro <\/span><a href=\"https:\/\/about.fb.com\/ltam\/news\/2023\/02\/como-estamos-mejorando-el-sistema-de-penalizaciones-de-facebook\/\"><span style=\"font-weight: 400\">sistema de penalizaciones<\/span><\/a><span style=\"font-weight: 400\"> a principios de 2023 para que fuera m\u00e1s justo y protegiera la habilidad que tienen las personas para alzar sus voces, sin perder su efectividad para aplicar las pol\u00edticas en contra personas que persistentemente infringen nuestras pol\u00edticas.\u00a0<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Realizamos auditor\u00edas anuales sobre palabras que designamos como groser\u00edas bajo nuestra pol\u00edtica de Lenguaje que incita al odio, priorizando territorios con elecciones en puerta, con el objetivo de mantener listas actualizadas que protejan a comunidades vulnerables y asegurando que no estamos cometiendo errores en la moderaci\u00f3n del discurso p\u00fablico.\u00a0<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Tambi\u00e9n, <\/span><a href=\"https:\/\/transparency.meta.com\/en-gb\/enforcement\/taking-action\/restricting-accounts-by-public-figures\/\"><span style=\"font-weight: 400\">actualizamos<\/span><\/a><span style=\"font-weight: 400\"> nuestro protocolo de penalizaciones relacionado a figuras p\u00fablicas suspendidas por infracciones durante per\u00edodos de disturbios civiles, para asegurar que los estadounidenses escucharan a los candidatos a la presidencia en los mismos t\u00e9rminos. Nos comprometimos a realizar revisiones peri\u00f3dicas para determinar si se justifican sanciones m\u00e1s severas.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Durante las elecciones de 2024 alrededor del mundo, conectamos a las personas con informaci\u00f3n confiable sobre el proceso democr\u00e1tico a trav\u00e9s de notificaciones en Facebook e Instagram.\u00a0<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Durante la elecci\u00f3n general de Estados Unidos en 2024, los recordatorios en la parte superior del feed de Facebook e Instagram recibieron m\u00e1s de mil millones de impresiones. Estos recordatorios incluyeron informaci\u00f3n sobre el registro para votar, el voto por correo electr\u00f3nico, el voto adelantado en persona y el voto el d\u00eda de la elecci\u00f3n. Las personas dieron clic en estos recordatorios m\u00e1s de 20 mil millones de veces para visitar sitios web gubernamentales oficiales para obtener m\u00e1s informaci\u00f3n.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Asimismo, enviamos Alertas de votaci\u00f3n en colaboraci\u00f3n con funcionarios de gobierno estatales y locales, quienes han enviado m\u00e1s de 765 millones de notificaciones en Facebook desde 2020. Esta es una herramienta que se puede adaptar a las necesidades que surjan. Por ejemplo, si ciertas casillas necesitan extender sus horas de operaci\u00f3n el d\u00eda de la elecci\u00f3n.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Implementamos un apartado con resultados de b\u00fasqueda en Facebook e Instagram en Estados Unidos. Esto quiere decir que cuando las personas buscaban t\u00e9rminos relacionados con las elecciones de 2024, les mostramos links que dirig\u00edan a fuentes de informaci\u00f3n oficiales con datos sobre c\u00f3mo, cu\u00e1ndo y d\u00f3nde votar. En Instagram, lanzamos stickers para Stories para dirigir a las personas a informaci\u00f3n electoral oficial. En Facebook volvimos a activar el Centro de Informaci\u00f3n Electoral.\u00a0<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Las notificaciones en la parte superior del Feed llegaron a millones de personas en pa\u00edses que tuvieron elecciones en 2024, incluyendo:\u00a0<\/span>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">En Reino Unido, nuestro recordatorio el d\u00eda de la elecci\u00f3n alcanz\u00f3 a 43.6 millones de personas en Facebook e Instagram, y casi 900,000 dieron clic para registrarse para votar o revisar su estatus de registro.\u00a0<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">En la Uni\u00f3n Europea, las personas interactuaron con estas notificaciones m\u00e1s de 41 millones de veces en Facebook y m\u00e1s de 58 millones de veces en Instagram.\u00a0<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Las alertas para votar se activaron en Facebook en India el 17 de abril antes de las elecciones nacionales. La notificaci\u00f3n se lanz\u00f3 desde la P\u00e1gina de Facebook de la Comisi\u00f3n electoral de India y alcanz\u00f3 a 145 millones de personas, dirigiendo a las personas a <\/span><a href=\"https:\/\/elections24.eci.gov.in\/\"><span style=\"font-weight: 400\">https:\/\/elections24.eci.gov.in\/<\/span><\/a><span style=\"font-weight: 400\"> para obtener m\u00e1s informaci\u00f3n. La comisi\u00f3n electoral de India tambi\u00e9n us\u00f3 la API de WhatsApp para implementar campa\u00f1as de recordaci\u00f3n, mismas que alcanzaron alrededor de 400 millones de personas.\u00a0<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">En las elecciones locales de Brasil, las personas interactuaron con los recordatorios de votaci\u00f3n en Facebook e Instagram alrededor de 9.7 millones de veces.\u00a0<\/span><\/li>\n<\/ul>\n<\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">En Francia, las personas dieron clic en las notificaciones electorales m\u00e1s de 599 mil veces en Facebook y m\u00e1s de 496 mil veces en Instagram.\u00a0<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Meta sigue ofreciendo una transparencia l\u00edder en la industria para anuncios sobre temas sociales, electorales o pol\u00edticos Los anunciantes que publican estos anuncios deben pasar por un proceso de autorizaci\u00f3n e incluir una exenci\u00f3n de responsabilidad de \u201cpagado por\u201d. Luego, estos anuncios se almacenan en nuestra <\/span><a href=\"https:\/\/www.facebook.com\/ads\/library\"><span style=\"font-weight: 400\">Biblioteca de anuncios<\/span><\/a><span style=\"font-weight: 400\"> durante siete a\u00f1os. Este a\u00f1o, continuamos prohibiendo nuevos anuncios pol\u00edticos, electorales y sociales en Estados Unidos durante la \u00faltima semana de la campa\u00f1a electoral, como lo hemos hecho desde 2020, porque en los \u00faltimos d\u00edas de una elecci\u00f3n puede no haber tiempo suficiente para impugnar nuevas afirmaciones. Desde enero de 2024, en ciertos casos tambi\u00e9n exigimos a los anunciantes que revelen cu\u00e1ndo utilizan IA u otras t\u00e9cnicas digitales para crear o alterar un anuncio sobre un tema pol\u00edtico o social.<\/span><\/p>\n<h3><span style=\"font-weight: 400\">Monitoreamos el impacto de la IA<\/span><span style=\"font-weight: 400\">\u00a0<\/span><\/h3>\n<p><span style=\"font-weight: 400\">A principios de a\u00f1o, muchas personas advirtieron sobre el posible impacto de la IA generativa en las elecciones, incluido el riesgo de esparcimiento masivo de las deepfakes y las campa\u00f1as de desinformaci\u00f3n habilitadas por IA. Seg\u00fan lo que hemos monitoreado en nuestros servicios, parece que estos riesgos no se materializaron de manera significativa y que el impacto fue modesto y de alcance limitado.<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Si bien hubo casos de uso confirmado o sospechoso de IA, los vol\u00famenes se mantuvieron bajos y nuestras pol\u00edticas y procesos existentes demostraron ser suficientes para reducir el riesgo en torno al contenido de IA generativa. Durante el per\u00edodo electoral en las elecciones principales mencionadas anteriormente, las calificaciones sobre el contenido de IA relacionado con las elecciones, la pol\u00edtica y los temas sociales representaron menos de 1% de toda la desinformaci\u00f3n verificada.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Como parte de nuestros esfuerzos para prevenir que las personas usaran el generador de im\u00e1genes de IA de Meta para crear deep fakes relacionados con las elecciones, rechazamos 590,000 solicitudes para generar im\u00e1genes del presidente electo Trump, el vicepresidente electo Vance, la vicepresidenta Harris, el gobernador Walz y el presidente Biden en el mes previo al d\u00eda de las elecciones.\u00a0<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Tambi\u00e9n hemos monitoreado de cerca el posible uso de la IA generativa por parte de campa\u00f1as de influencia encubiertas (lo que llamamos redes de comportamiento inaut\u00e9ntico coordinado o CIB) y hemos descubierto que solo han logrado mejoras incrementales en la productividad y la generaci\u00f3n de contenido utilizando la IA generativa. Esto no ha impedido nuestra capacidad de desmantelar estas operaciones de influencia porque nos centramos en el comportamiento cuando investigamos y eliminamos estas campa\u00f1as, no en el contenido que publican, ya sea creado con IA o no.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">En el per\u00edodo previo a las elecciones estadounidenses, solicitamos a Meta AI que respondiera preguntas sobre cu\u00e1ndo y c\u00f3mo votar con enlaces a fuentes confiables que pudieran ofrecerles la informaci\u00f3n m\u00e1s actualizada. El d\u00eda de las elecciones, tambi\u00e9n solicitamos a Meta AI que respondiera ciertas preguntas sobre los candidatos los resultados de las elecciones, indicando a las personas que consultaran con fuentes confiables hasta que varias organizaciones de noticias declararan a un ganador.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">A lo largo de 2024, hemos cooperado con otros actores del sector para combatir las posibles amenazas alrededor del uso de la IA generativa. Por ejemplo, en febrero de 2024, firmamos el <\/span><a href=\"https:\/\/securityconference.org\/en\/aielectionsaccord\/\"><span style=\"font-weight: 400\">AI Elections Accord<\/span><\/a><span style=\"font-weight: 400\"> junto con docenas de otros l\u00edderes de la industria, comprometi\u00e9ndonos a ayudar a evitar que el contenido enga\u00f1oso generado por IA interfiriera en las elecciones de este a\u00f1o. En India, lanzamos una <\/span><a href=\"https:\/\/about.fb.com\/news\/2024\/02\/mcas-whatsapp-helpline-curbing-the-spread-of-ai-generated-misinformation\/\"><span style=\"font-weight: 400\">l\u00ednea de denuncia en WhatsApp<\/span><\/a><span style=\"font-weight: 400\"> en colaboraci\u00f3n con la Misinformation Combat Alliance, que incluye la creaci\u00f3n de una Unidad de an\u00e1lisis de deepfakes pionera en el mundo para ofrecer a las personas evaluaciones de cualquier contenido digital en formato de audio o v\u00eddeo. Y antes de las elecciones del Parlamento Europeo, Meta financi\u00f3 y apoy\u00f3 a la Red Europea de Normas de Verificaci\u00f3n de Datos (EFCSN, por sus siglas en ingl\u00e9s) en un <\/span><a href=\"https:\/\/efcsn.com\/news\/2024-04-18_efcsns-new-project-for-identifying-ai-generated-and-digitally-altered-content\/\"><span style=\"font-weight: 400\">proyecto<\/span><\/a><span style=\"font-weight: 400\"> destinado a mejorar las habilidades y capacidades de los verificadores de datos europeos para desacreditar y contrarrestar la desinformaci\u00f3n generada por IA.<\/span><\/li>\n<\/ul>\n<h3><span style=\"font-weight: 400\">Prevenimos la interferencia extranjera<\/span><\/h3>\n<p><span style=\"font-weight: 400\">Este a\u00f1o, nuestros equipos han desmantelado alrededor de 20 nuevas operaciones de influencia encubierta en todo el mundo, incluyendo Medio Oriente, Asia, Europa y Estados Unidos.<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Rusia sigue siendo la principal fuente de operaciones de influencia encubierta que hemos desarticulado hasta la fecha, con 39 redes en total desde 2017. Las siguientes fuentes m\u00e1s frecuentes de interferencia extranjera son Ir\u00e1n, con 31 redes CIB, y China, con 11.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">La mayor\u00eda de las redes CIB que hemos desarticulado han tenido dificultades para crear audiencias aut\u00e9nticas, y algunas usaban \u201cme gusta\u201d o seguidores falsos para parecer m\u00e1s populares de lo que eran. Por ejemplo, desmantelamos una red CIB que se origin\u00f3 principalmente en la regi\u00f3n de Transnistria en Moldavia y se dirig\u00eda a audiencias de habla rusa en Moldavia. Eliminamos esta campa\u00f1a antes de que pudieran crear audiencias aut\u00e9nticas en nuestras aplicaciones.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">La gran mayor\u00eda de las redes CIB que desarticulamos a nivel mundial intentaron extenderse a trav\u00e9s de muchas aplicaciones en l\u00ednea, incluidas las nuestras, YouTube, TikTok, X, Telegram, Reddit, Medium, Pinterest y m\u00e1s. Hemos visto varias operaciones de influencia trasladar gran parte de sus actividades a plataformas con menos salvaguardas que las nuestras. Por ejemplo, se publicaron videos ficticios sobre las elecciones estadounidenses (vinculados a operaciones de influencia con base en Rusia, de acuerdo a la comunidad de inteligencia estadounidense ) en X y Telegram. En una cantidad m\u00ednima de casos en los que personas en Estados Unidos volvieron a publicar este contenido en nuestras aplicaciones, etiquetamos el contenido como vinculado a actores de influencia rusas.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">La gran mayor\u00eda de las redes de CIB ten\u00edan sus propios sitios web, que probablemente resistir\u00edan el desmantelamiento por parte de una sola empresa. La operaci\u00f3n m\u00e1s grande y persistente de este tipo se conoce como Doppelganger, que utiliza una vasta red de sitios web falsos, incluidos algunos que suplantan noticias leg\u00edtimas y entidades gubernamentales. Hemos creado el repositorio p\u00fablico m\u00e1s grande de se\u00f1ales de amenaza de Doppelganger, exponiendo m\u00e1s de 6,000 dominios desde 2022 para que los investigadores y otros equipos de investigaci\u00f3n los vean y tambi\u00e9n puedan tomar medidas, adem\u00e1s de bloquearlos para que no se compartan en nuestras aplicaciones. Sin embargo, a pesar de algunas interrupciones por parte de los <\/span><a href=\"https:\/\/www.justice.gov\/d9\/2024-09\/doppelganger_affidavit_9.4.24.pdf\"><span style=\"font-weight: 400\">gobiernos<\/span><\/a><span style=\"font-weight: 400\"> y <\/span><a href=\"https:\/\/therecord.media\/european-web-hosting-companies-doppelganger-disinformation-shutdowns\"><span style=\"font-weight: 400\">otros<\/span><\/a><span style=\"font-weight: 400\">, muchos de los dominios web de Doppelganger que hemos expuesto hasta la fecha han sido reemplazados r\u00e1pidamente y contin\u00faan publicando contenido nuevo, y muchas de sus marcas siguen activas en X y Telegram.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Antes de las elecciones estadounidenses, Doppelganger tuvo dificultades para acceder a nuestras aplicaciones y abandon\u00f3 en gran medida la publicaci\u00f3n de enlaces a sus sitios web. La gran mayor\u00eda de los intentos de Doppelganger de atacar a Estados Unidos en octubre y noviembre se detuvieron de manera proactiva antes de que ning\u00fan usuario viera su contenido.<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Previo a las elecciones estadounidenses, ampliamos nuestra aplicaci\u00f3n continua contra los medios de comunicaci\u00f3n estatales rusos. Prohibimos a Rossiya Segodnya, RT y otras entidades relacionadas de nuestras aplicaciones a nivel mundial por infracciones de nuestras pol\u00edticas que proh\u00edben participar o afirmar participar en interferencias extranjeras. Esto sigui\u00f3 a las <\/span><a href=\"https:\/\/about.fb.com\/ltam\/news\/2022\/02\/los-esfuerzos-continuos-de-meta-en-respuesta-a-la-invasion-rusa-en-ucrania\/\"><span style=\"font-weight: 400\">medidas sin precedentes<\/span><\/a><span style=\"font-weight: 400\"> que tomamos hace m\u00e1s de 2 a\u00f1os para limitar la propagaci\u00f3n de los medios controlados por el estado ruso, incluido el bloqueo de que publiquen anuncios, la ubicaci\u00f3n de su contenido m\u00e1s abajo en los feeds de las personas y recordatorios en producto que piden a las personas que confirmen que desean compartir o navegar hacia el contenido de estos medios.<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Estos hallazgos y pol\u00edticas tienen como objetivo dar una idea de lo que hemos visto y el enfoque general que hemos adoptado durante este a\u00f1o electoral sin precedentes, pero est\u00e1n lejos de ser un recuento exhaustivo de todo lo que hicimos y vimos. Nuestro enfoque tampoco es inflexible. Con cada elecci\u00f3n queremos asegurarnos de que estamos aprendiendo las lecciones correctas y manteni\u00e9ndonos a la vanguardia de las amenazas potenciales. Lograr el equilibrio entre la libertad de expresi\u00f3n y la seguridad es un desaf\u00edo constante y en evoluci\u00f3n. A medida que hacemos un balance de lo que hemos aprendido durante este a\u00f1o extraordinario, revisaremos nuestras pol\u00edticas y anunciaremos cualquier cambio en los pr\u00f3ximos meses.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"La reciente elecci\u00f3n Presidencial en Estados Unidos coron\u00f3 un a\u00f1o sin precedentes en el que se anticip\u00f3 que m\u00e1s de dos mil millones de personas ejercieran su voto en algunas de las democracias m\u00e1s grandes del mundo, incluyendo India, Indonesia, M\u00e9xico y la Uni\u00f3n Europea. Como una empresa que opera plataformas en las que se debaten estos temas, Meta entiende la responsabilidad que tiene para proteger la habilidad de las personas para alzar su voz y asegurar que est\u00e1 preparada para las distintas elecciones alrededor del mundo.\u00a0 Desde 2016 hemos evolucionado nuestro acercamiento a las elecciones, para incorporar las lecciones que aprendemos y estar preparados ante amenazas emergentes. Tenemos a un equipo responsable de los esfuerzos de integridad para elecciones, que incluye expertos en inteligencia de datos, producto, ingenier\u00eda, investigaci\u00f3n, operaciones, pol\u00edtica p\u00fablica y asuntos legales. En 2024, activamos una serie de Centros de Operaciones de Elecciones en el mundo para monitorear y actuar r\u00e1pidamente ante problem\u00e1ticas emergentes, incluyendo las elecciones en Estados Unidos, Bangladesh, Indonesia, India, Pakist\u00e1n, el Parlamento europeo, Francia, Reino Unido, Sud\u00e1frica, M\u00e9xico y Brasil.\u00a0 Habiendo pasado las elecciones de Estados Unidos, podemos compartir algunas de las tendencias que vimos en nuestras plataformas, y explicar c\u00f3mo buscamos equilibrar la libertad de expresi\u00f3n y la seguridad de las personas durante el a\u00f1o.\u00a0 Facilitamos la libertad de expresi\u00f3n Encontrar el balance correcto entre permitir que las personas hagan escuchar sus voces y mantener su seguridad es algo que ninguna plataforma har\u00e1 bien al cien por ciento todo el tiempo. Sabemos que nuestros \u00edndices de error en la aplicaci\u00f3n de nuestras pol\u00edticas son altos y esto obstaculiza la libertad de expresi\u00f3n. Muchas veces, contenido inofensivo puede ser removido o restringido y muchas personas pueden ser penalizadas injustamente. A lo largo del a\u00f1o, hemos tratado de actualizar y aplicar nuestras pol\u00edticas de manera justa, para que las personas alcen su voz; y daremos continuidad a este trabajo en los pr\u00f3ximos meses.\u00a0 Lanzamos controles de contenido pol\u00edtico en Facebook, Instagram y Threads para darle a las personas la posibilidad de tener m\u00e1s recomendaciones de este tipo de publicaciones si as\u00ed lo desean. Estos controles ya se lanzaron en Estados Unidos y pr\u00f3ximamente estar\u00e1n disponibles para el resto del mundo.\u00a0 Permitimos a las personas hacer preguntas o expresar sus preocupaciones sobre los procesos electorales en el contenido org\u00e1nico. Sin embargo, no permitimos afirmaciones o especulaciones sobre corrupci\u00f3n, irregularidades o prejuicios en las elecciones cuando se combinan con una se\u00f1al que indica que el contenido es violencia intimidatoria. Ajustamos nuestras pol\u00edticas para hacer esta distinci\u00f3n. Para el contenido pagado, prohibimos anuncios que cuestionan la legitimidad de una elecci\u00f3n, como lo hemos hecho desde 2020.\u00a0 Actualizamos nuestro sistema de penalizaciones a principios de 2023 para que fuera m\u00e1s justo y protegiera la habilidad que tienen las personas para alzar sus voces, sin perder su efectividad para aplicar las pol\u00edticas en contra personas que persistentemente infringen nuestras pol\u00edticas.\u00a0 Realizamos auditor\u00edas anuales sobre palabras que designamos como groser\u00edas bajo nuestra pol\u00edtica de Lenguaje que incita al odio, priorizando territorios con elecciones en puerta, con el objetivo de mantener listas actualizadas que protejan a comunidades vulnerables y asegurando que no estamos cometiendo errores en la moderaci\u00f3n del discurso p\u00fablico.\u00a0 Tambi\u00e9n, actualizamos nuestro protocolo de penalizaciones relacionado a figuras p\u00fablicas suspendidas por infracciones durante per\u00edodos de disturbios civiles, para asegurar que los estadounidenses escucharan a los candidatos a la presidencia en los mismos t\u00e9rminos. Nos comprometimos a realizar revisiones peri\u00f3dicas para determinar si se justifican sanciones m\u00e1s severas. Durante las elecciones de 2024 alrededor del mundo, conectamos a las personas con informaci\u00f3n confiable sobre el proceso democr\u00e1tico a trav\u00e9s de notificaciones en Facebook e Instagram.\u00a0 Durante la elecci\u00f3n general de Estados Unidos en 2024, los recordatorios en la parte superior del feed de Facebook e Instagram recibieron m\u00e1s de mil millones de impresiones. Estos recordatorios incluyeron informaci\u00f3n sobre el registro para votar, el voto por correo electr\u00f3nico, el voto adelantado en persona y el voto el d\u00eda de la elecci\u00f3n. Las personas dieron clic en estos recordatorios m\u00e1s de 20 mil millones de veces para visitar sitios web gubernamentales oficiales para obtener m\u00e1s informaci\u00f3n. Asimismo, enviamos Alertas de votaci\u00f3n en colaboraci\u00f3n con funcionarios de gobierno estatales y locales, quienes han enviado m\u00e1s de 765 millones de notificaciones en Facebook desde 2020. Esta es una herramienta que se puede adaptar a las necesidades que surjan. Por ejemplo, si ciertas casillas necesitan extender sus horas de operaci\u00f3n el d\u00eda de la elecci\u00f3n. Implementamos un apartado con resultados de b\u00fasqueda en Facebook e Instagram en Estados Unidos. Esto quiere decir que cuando las personas buscaban t\u00e9rminos relacionados con las elecciones de 2024, les mostramos links que dirig\u00edan a fuentes de informaci\u00f3n oficiales con datos sobre c\u00f3mo, cu\u00e1ndo y d\u00f3nde votar. En Instagram, lanzamos stickers para Stories para dirigir a las personas a informaci\u00f3n electoral oficial. En Facebook volvimos a activar el Centro de Informaci\u00f3n Electoral.\u00a0 Las notificaciones en la parte superior del Feed llegaron a millones de personas en pa\u00edses que tuvieron elecciones en 2024, incluyendo:\u00a0 En Reino Unido, nuestro recordatorio el d\u00eda de la elecci\u00f3n alcanz\u00f3 a 43.6 millones de personas en Facebook e Instagram, y casi 900,000 dieron clic para registrarse para votar o revisar su estatus de registro.\u00a0 En la Uni\u00f3n Europea, las personas interactuaron con estas notificaciones m\u00e1s de 41 millones de veces en Facebook y m\u00e1s de 58 millones de veces en Instagram.\u00a0 Las alertas para votar se activaron en Facebook en India el 17 de abril antes de las elecciones nacionales. La notificaci\u00f3n se lanz\u00f3 desde la P\u00e1gina de Facebook de la Comisi\u00f3n electoral de India y alcanz\u00f3 a 145 millones de personas, dirigiendo a las personas a <a href=\"https:\/\/elections24.eci.gov.in\/\" rel=\"nofollow\">https:\/\/elections24.eci.gov.in\/<\/a> para obtener m\u00e1s informaci\u00f3n. La comisi\u00f3n electoral de India tambi\u00e9n us\u00f3 la API de WhatsApp para implementar campa\u00f1as de recordaci\u00f3n, mismas que alcanzaron alrededor de 400 millones de personas.\u00a0 En las elecciones locales de Brasil, las personas interactuaron con los recordatorios de votaci\u00f3n en Facebook e Instagram alrededor de 9.7 millones de veces.\u00a0 En Francia, las personas dieron clic en las notificaciones electorales m\u00e1s de 599 mil veces en Facebook y m\u00e1s de 496 mil veces en Instagram.\u00a0 Meta sigue ofreciendo una transparencia l\u00edder en la industria para anuncios sobre temas sociales, electorales o pol\u00edticos Los anunciantes que publican estos anuncios deben pasar por un proceso de autorizaci\u00f3n e incluir una exenci\u00f3n de responsabilidad de \u201cpagado por\u201d. Luego, estos anuncios se almacenan en nuestra Biblioteca de anuncios durante siete a\u00f1os. Este a\u00f1o, continuamos prohibiendo nuevos anuncios pol\u00edticos, electorales y sociales en Estados Unidos durante la \u00faltima semana de la campa\u00f1a electoral, como lo hemos hecho desde 2020, porque en los \u00faltimos d\u00edas de una elecci\u00f3n puede no haber tiempo suficiente para impugnar nuevas afirmaciones. Desde enero de 2024, en ciertos casos tambi\u00e9n exigimos a los anunciantes que revelen cu\u00e1ndo utilizan IA u otras t\u00e9cnicas digitales para crear o alterar un anuncio sobre un tema pol\u00edtico o social. Monitoreamos el impacto de la IA\u00a0 A principios de a\u00f1o, muchas personas advirtieron sobre el posible impacto de la IA generativa en las elecciones, incluido el riesgo de esparcimiento masivo de las deepfakes y las campa\u00f1as de desinformaci\u00f3n habilitadas por IA. Seg\u00fan lo que hemos monitoreado en nuestros servicios, parece que estos riesgos no se materializaron de manera significativa y que el impacto fue modesto y de alcance limitado. Si bien hubo casos de uso confirmado o sospechoso de IA, los vol\u00famenes se mantuvieron bajos y nuestras pol\u00edticas y procesos existentes demostraron ser suficientes para reducir el riesgo en torno al contenido de IA generativa. Durante el per\u00edodo electoral en las elecciones principales mencionadas anteriormente, las calificaciones sobre el contenido de IA relacionado con las elecciones, la pol\u00edtica y los temas sociales representaron menos de 1% de toda la desinformaci\u00f3n verificada. Como parte de nuestros esfuerzos para prevenir que las personas usaran el generador de im\u00e1genes de IA de Meta para crear deep fakes relacionados con las elecciones, rechazamos 590,000 solicitudes para generar im\u00e1genes del presidente electo Trump, el vicepresidente electo Vance, la vicepresidenta Harris, el gobernador Walz y el presidente Biden en el mes previo al d\u00eda de las elecciones.\u00a0 Tambi\u00e9n hemos monitoreado de cerca el posible uso de la IA generativa por parte de campa\u00f1as de influencia encubiertas (lo que llamamos redes de comportamiento inaut\u00e9ntico coordinado o CIB) y hemos descubierto que solo han logrado mejoras incrementales en la productividad y la generaci\u00f3n de contenido utilizando la IA generativa. Esto no ha impedido nuestra capacidad de desmantelar estas operaciones de influencia porque nos centramos en el comportamiento cuando investigamos y eliminamos estas campa\u00f1as, no en el contenido que publican, ya sea creado con IA o no. En el per\u00edodo previo a las elecciones estadounidenses, solicitamos a Meta AI que respondiera preguntas sobre cu\u00e1ndo y c\u00f3mo votar con enlaces a fuentes confiables que pudieran ofrecerles la informaci\u00f3n m\u00e1s actualizada. El d\u00eda de las elecciones, tambi\u00e9n solicitamos a Meta AI que respondiera ciertas preguntas sobre los candidatos los resultados de las elecciones, indicando a las personas que consultaran con fuentes confiables hasta que varias organizaciones de noticias declararan a un ganador. A lo largo de 2024, hemos cooperado con otros actores del sector para combatir las posibles amenazas alrededor del uso de la IA generativa. Por ejemplo, en febrero de 2024, firmamos el AI Elections Accord junto con docenas de otros l\u00edderes de la industria, comprometi\u00e9ndonos a ayudar a evitar que el contenido enga\u00f1oso generado por IA interfiriera en las elecciones de este a\u00f1o. En India, lanzamos una l\u00ednea de denuncia en WhatsApp en colaboraci\u00f3n con la Misinformation Combat Alliance, que incluye la creaci\u00f3n de una Unidad de an\u00e1lisis de deepfakes pionera en el mundo para ofrecer a las personas evaluaciones de cualquier contenido digital en formato de audio o v\u00eddeo. Y antes de las elecciones del Parlamento Europeo, Meta financi\u00f3 y apoy\u00f3 a la Red Europea de Normas de Verificaci\u00f3n de Datos (EFCSN, por sus siglas en ingl\u00e9s) en un proyecto destinado a mejorar las habilidades y capacidades de los verificadores de datos europeos para desacreditar y contrarrestar la desinformaci\u00f3n generada por IA. Prevenimos la interferencia extranjera Este a\u00f1o, nuestros equipos han desmantelado alrededor de 20 nuevas operaciones de influencia encubierta en todo el mundo, incluyendo Medio Oriente, Asia, Europa y Estados Unidos. Rusia sigue siendo la principal fuente de operaciones de influencia encubierta que hemos desarticulado hasta la fecha, con 39 redes en total desde 2017. Las siguientes fuentes m\u00e1s frecuentes de interferencia extranjera son Ir\u00e1n, con 31 redes CIB, y China, con 11. La mayor\u00eda de las redes CIB que hemos desarticulado han tenido dificultades para crear audiencias aut\u00e9nticas, y algunas usaban \u201cme gusta\u201d o seguidores falsos para parecer m\u00e1s populares de lo que eran. Por ejemplo, desmantelamos una red CIB que se origin\u00f3 principalmente en la regi\u00f3n de Transnistria en Moldavia y se dirig\u00eda a audiencias de habla rusa en Moldavia. Eliminamos esta campa\u00f1a antes de que pudieran crear audiencias aut\u00e9nticas en nuestras aplicaciones. La gran mayor\u00eda de las redes CIB que desarticulamos a nivel mundial intentaron extenderse a trav\u00e9s de muchas aplicaciones en l\u00ednea, incluidas las nuestras, YouTube, TikTok, X, Telegram, Reddit, Medium, Pinterest y m\u00e1s. Hemos visto varias operaciones de influencia trasladar gran parte de sus actividades a plataformas con menos salvaguardas que las nuestras. Por ejemplo, se publicaron videos ficticios sobre las elecciones estadounidenses (vinculados a operaciones de influencia con base en Rusia, de acuerdo a la comunidad de inteligencia estadounidense ) en X y Telegram. En una cantidad m\u00ednima de casos en los que personas en Estados Unidos volvieron a publicar este contenido en nuestras aplicaciones, etiquetamos el contenido como vinculado a actores de influencia rusas. La gran mayor\u00eda de las redes de CIB ten\u00edan sus propios sitios web, que probablemente resistir\u00edan el desmantelamiento por parte de una sola empresa. La operaci\u00f3n m\u00e1s grande y persistente de este tipo se conoce como Doppelganger, que utiliza una vasta red de sitios web falsos, incluidos algunos que suplantan noticias leg\u00edtimas y entidades gubernamentales. Hemos creado el repositorio p\u00fablico m\u00e1s grande de se\u00f1ales de amenaza de Doppelganger, exponiendo m\u00e1s de 6,000 dominios desde 2022 para que los investigadores y otros equipos de investigaci\u00f3n los vean y tambi\u00e9n puedan tomar medidas, adem\u00e1s de bloquearlos para que no se compartan en nuestras aplicaciones. Sin embargo, a pesar de algunas interrupciones por parte de los gobiernos y otros, muchos de los dominios web de Doppelganger que hemos expuesto hasta la fecha han sido reemplazados r\u00e1pidamente y contin\u00faan publicando contenido nuevo, y muchas de sus marcas siguen activas en X y Telegram. Antes de las elecciones estadounidenses, Doppelganger tuvo dificultades para acceder a nuestras aplicaciones y abandon\u00f3 en gran medida la publicaci\u00f3n de enlaces a sus sitios web. La gran mayor\u00eda de los intentos de Doppelganger de atacar a Estados Unidos en octubre y noviembre se detuvieron de manera proactiva antes de que ning\u00fan usuario viera su contenido. Previo a las elecciones estadounidenses, ampliamos nuestra aplicaci\u00f3n continua contra los medios de comunicaci\u00f3n estatales rusos. Prohibimos a Rossiya Segodnya, RT y otras entidades relacionadas de nuestras aplicaciones a nivel mundial por infracciones de nuestras pol\u00edticas que proh\u00edben participar o afirmar participar en interferencias extranjeras. Esto sigui\u00f3 a las medidas sin precedentes que tomamos hace m\u00e1s de 2 a\u00f1os para limitar la propagaci\u00f3n de los medios controlados por el estado ruso, incluido el bloqueo de que publiquen anuncios, la ubicaci\u00f3n de su contenido m\u00e1s abajo en los feeds de las personas y recordatorios en producto que piden a las personas que confirmen que desean compartir o navegar hacia el contenido de estos medios. Estos hallazgos y pol\u00edticas tienen como objetivo dar una idea de lo que hemos visto y el enfoque general que hemos adoptado durante este a\u00f1o electoral sin precedentes, pero est\u00e1n lejos de ser un recuento exhaustivo de todo lo que hicimos y vimos. Nuestro enfoque tampoco es inflexible. Con cada elecci\u00f3n queremos asegurarnos de que estamos aprendiendo las lecciones correctas y manteni\u00e9ndonos a la vanguardia de las amenazas potenciales. Lograr el equilibrio entre la libertad de expresi\u00f3n y la seguridad es un desaf\u00edo constante y en evoluci\u00f3n. A medida que hacemos un balance de lo que hemos aprendido durante este a\u00f1o extraordinario, revisaremos nuestras pol\u00edticas y anunciaremos cualquier cambio en los pr\u00f3ximos meses.","protected":false},"author":164097140,"featured_media":25624,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[243947987,243948104,243948155,243947992,243948082,1],"tags":[243948256,243948114,243947950,243948264,243948147,243930626],"class_list":["post-25623","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-integridad-y-seguridad","category-integridad-de-elecciones","category-meta-2","category-politica-publica","category-seguridad-y-expresion","category-uncategorized","tag-combatimos-la-informacion-erronea","tag-comportamiento-inautentico-coordinado","tag-elecciones","tag-inteligencia-artificial-y-aprendizaje-automatico","tag-normas-comunitarias-y-aplicacion-de-politicas","tag-seguridad"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Lo que vimos en nuestras plataformas durante las elecciones de 2024 alrededor del mundo | Acerca de Meta<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Lo que vimos en nuestras plataformas durante las elecciones de 2024 alrededor del mundo | Acerca de Meta\" \/>\n<meta property=\"og:description\" content=\"La reciente elecci\u00f3n Presidencial en Estados Unidos coron\u00f3 un a\u00f1o sin precedentes en el que se anticip\u00f3 que m\u00e1s de dos mil millones de personas ejercieran su voto en algunas de las democracias m\u00e1s grandes del mundo, incluyendo India, Indonesia, M\u00e9xico y la Uni\u00f3n Europea. Como una empresa que opera plataformas en las que se debaten estos temas, Meta entiende la responsabilidad que tiene para proteger la habilidad de las personas para alzar su voz y asegurar que est\u00e1 preparada para las distintas elecciones alrededor del mundo.\u00a0 Desde 2016 hemos evolucionado nuestro acercamiento a las elecciones, para incorporar las lecciones que aprendemos y estar preparados ante amenazas emergentes. Tenemos a un equipo responsable de los esfuerzos de integridad para elecciones, que incluye expertos en inteligencia de datos, producto, ingenier\u00eda, investigaci\u00f3n, operaciones, pol\u00edtica p\u00fablica y asuntos legales. En 2024, activamos una serie de Centros de Operaciones de Elecciones en el mundo para monitorear y actuar r\u00e1pidamente ante problem\u00e1ticas emergentes, incluyendo las elecciones en Estados Unidos, Bangladesh, Indonesia, India, Pakist\u00e1n, el Parlamento europeo, Francia, Reino Unido, Sud\u00e1frica, M\u00e9xico y Brasil.\u00a0 Habiendo pasado las elecciones de Estados Unidos, podemos compartir algunas de las tendencias que vimos en nuestras plataformas, y explicar c\u00f3mo buscamos equilibrar la libertad de expresi\u00f3n y la seguridad de las personas durante el a\u00f1o.\u00a0 Facilitamos la libertad de expresi\u00f3n Encontrar el balance correcto entre permitir que las personas hagan escuchar sus voces y mantener su seguridad es algo que ninguna plataforma har\u00e1 bien al cien por ciento todo el tiempo. Sabemos que nuestros \u00edndices de error en la aplicaci\u00f3n de nuestras pol\u00edticas son altos y esto obstaculiza la libertad de expresi\u00f3n. Muchas veces, contenido inofensivo puede ser removido o restringido y muchas personas pueden ser penalizadas injustamente. A lo largo del a\u00f1o, hemos tratado de actualizar y aplicar nuestras pol\u00edticas de manera justa, para que las personas alcen su voz; y daremos continuidad a este trabajo en los pr\u00f3ximos meses.\u00a0 Lanzamos controles de contenido pol\u00edtico en Facebook, Instagram y Threads para darle a las personas la posibilidad de tener m\u00e1s recomendaciones de este tipo de publicaciones si as\u00ed lo desean. Estos controles ya se lanzaron en Estados Unidos y pr\u00f3ximamente estar\u00e1n disponibles para el resto del mundo.\u00a0 Permitimos a las personas hacer preguntas o expresar sus preocupaciones sobre los procesos electorales en el contenido org\u00e1nico. Sin embargo, no permitimos afirmaciones o especulaciones sobre corrupci\u00f3n, irregularidades o prejuicios en las elecciones cuando se combinan con una se\u00f1al que indica que el contenido es violencia intimidatoria. Ajustamos nuestras pol\u00edticas para hacer esta distinci\u00f3n. Para el contenido pagado, prohibimos anuncios que cuestionan la legitimidad de una elecci\u00f3n, como lo hemos hecho desde 2020.\u00a0 Actualizamos nuestro sistema de penalizaciones a principios de 2023 para que fuera m\u00e1s justo y protegiera la habilidad que tienen las personas para alzar sus voces, sin perder su efectividad para aplicar las pol\u00edticas en contra personas que persistentemente infringen nuestras pol\u00edticas.\u00a0 Realizamos auditor\u00edas anuales sobre palabras que designamos como groser\u00edas bajo nuestra pol\u00edtica de Lenguaje que incita al odio, priorizando territorios con elecciones en puerta, con el objetivo de mantener listas actualizadas que protejan a comunidades vulnerables y asegurando que no estamos cometiendo errores en la moderaci\u00f3n del discurso p\u00fablico.\u00a0 Tambi\u00e9n, actualizamos nuestro protocolo de penalizaciones relacionado a figuras p\u00fablicas suspendidas por infracciones durante per\u00edodos de disturbios civiles, para asegurar que los estadounidenses escucharan a los candidatos a la presidencia en los mismos t\u00e9rminos. Nos comprometimos a realizar revisiones peri\u00f3dicas para determinar si se justifican sanciones m\u00e1s severas. Durante las elecciones de 2024 alrededor del mundo, conectamos a las personas con informaci\u00f3n confiable sobre el proceso democr\u00e1tico a trav\u00e9s de notificaciones en Facebook e Instagram.\u00a0 Durante la elecci\u00f3n general de Estados Unidos en 2024, los recordatorios en la parte superior del feed de Facebook e Instagram recibieron m\u00e1s de mil millones de impresiones. Estos recordatorios incluyeron informaci\u00f3n sobre el registro para votar, el voto por correo electr\u00f3nico, el voto adelantado en persona y el voto el d\u00eda de la elecci\u00f3n. Las personas dieron clic en estos recordatorios m\u00e1s de 20 mil millones de veces para visitar sitios web gubernamentales oficiales para obtener m\u00e1s informaci\u00f3n. Asimismo, enviamos Alertas de votaci\u00f3n en colaboraci\u00f3n con funcionarios de gobierno estatales y locales, quienes han enviado m\u00e1s de 765 millones de notificaciones en Facebook desde 2020. Esta es una herramienta que se puede adaptar a las necesidades que surjan. Por ejemplo, si ciertas casillas necesitan extender sus horas de operaci\u00f3n el d\u00eda de la elecci\u00f3n. Implementamos un apartado con resultados de b\u00fasqueda en Facebook e Instagram en Estados Unidos. Esto quiere decir que cuando las personas buscaban t\u00e9rminos relacionados con las elecciones de 2024, les mostramos links que dirig\u00edan a fuentes de informaci\u00f3n oficiales con datos sobre c\u00f3mo, cu\u00e1ndo y d\u00f3nde votar. En Instagram, lanzamos stickers para Stories para dirigir a las personas a informaci\u00f3n electoral oficial. En Facebook volvimos a activar el Centro de Informaci\u00f3n Electoral.\u00a0 Las notificaciones en la parte superior del Feed llegaron a millones de personas en pa\u00edses que tuvieron elecciones en 2024, incluyendo:\u00a0 En Reino Unido, nuestro recordatorio el d\u00eda de la elecci\u00f3n alcanz\u00f3 a 43.6 millones de personas en Facebook e Instagram, y casi 900,000 dieron clic para registrarse para votar o revisar su estatus de registro.\u00a0 En la Uni\u00f3n Europea, las personas interactuaron con estas notificaciones m\u00e1s de 41 millones de veces en Facebook y m\u00e1s de 58 millones de veces en Instagram.\u00a0 Las alertas para votar se activaron en Facebook en India el 17 de abril antes de las elecciones nacionales. La notificaci\u00f3n se lanz\u00f3 desde la P\u00e1gina de Facebook de la Comisi\u00f3n electoral de India y alcanz\u00f3 a 145 millones de personas, dirigiendo a las personas a https:\/\/elections24.eci.gov.in\/ para obtener m\u00e1s informaci\u00f3n. La comisi\u00f3n electoral de India tambi\u00e9n us\u00f3 la API de WhatsApp para implementar campa\u00f1as de recordaci\u00f3n, mismas que alcanzaron alrededor de 400 millones de personas.\u00a0 En las elecciones locales de Brasil, las personas interactuaron con los recordatorios de votaci\u00f3n en Facebook e Instagram alrededor de 9.7 millones de veces.\u00a0 En Francia, las personas dieron clic en las notificaciones electorales m\u00e1s de 599 mil veces en Facebook y m\u00e1s de 496 mil veces en Instagram.\u00a0 Meta sigue ofreciendo una transparencia l\u00edder en la industria para anuncios sobre temas sociales, electorales o pol\u00edticos Los anunciantes que publican estos anuncios deben pasar por un proceso de autorizaci\u00f3n e incluir una exenci\u00f3n de responsabilidad de \u201cpagado por\u201d. Luego, estos anuncios se almacenan en nuestra Biblioteca de anuncios durante siete a\u00f1os. Este a\u00f1o, continuamos prohibiendo nuevos anuncios pol\u00edticos, electorales y sociales en Estados Unidos durante la \u00faltima semana de la campa\u00f1a electoral, como lo hemos hecho desde 2020, porque en los \u00faltimos d\u00edas de una elecci\u00f3n puede no haber tiempo suficiente para impugnar nuevas afirmaciones. Desde enero de 2024, en ciertos casos tambi\u00e9n exigimos a los anunciantes que revelen cu\u00e1ndo utilizan IA u otras t\u00e9cnicas digitales para crear o alterar un anuncio sobre un tema pol\u00edtico o social. Monitoreamos el impacto de la IA\u00a0 A principios de a\u00f1o, muchas personas advirtieron sobre el posible impacto de la IA generativa en las elecciones, incluido el riesgo de esparcimiento masivo de las deepfakes y las campa\u00f1as de desinformaci\u00f3n habilitadas por IA. Seg\u00fan lo que hemos monitoreado en nuestros servicios, parece que estos riesgos no se materializaron de manera significativa y que el impacto fue modesto y de alcance limitado. Si bien hubo casos de uso confirmado o sospechoso de IA, los vol\u00famenes se mantuvieron bajos y nuestras pol\u00edticas y procesos existentes demostraron ser suficientes para reducir el riesgo en torno al contenido de IA generativa. Durante el per\u00edodo electoral en las elecciones principales mencionadas anteriormente, las calificaciones sobre el contenido de IA relacionado con las elecciones, la pol\u00edtica y los temas sociales representaron menos de 1% de toda la desinformaci\u00f3n verificada. Como parte de nuestros esfuerzos para prevenir que las personas usaran el generador de im\u00e1genes de IA de Meta para crear deep fakes relacionados con las elecciones, rechazamos 590,000 solicitudes para generar im\u00e1genes del presidente electo Trump, el vicepresidente electo Vance, la vicepresidenta Harris, el gobernador Walz y el presidente Biden en el mes previo al d\u00eda de las elecciones.\u00a0 Tambi\u00e9n hemos monitoreado de cerca el posible uso de la IA generativa por parte de campa\u00f1as de influencia encubiertas (lo que llamamos redes de comportamiento inaut\u00e9ntico coordinado o CIB) y hemos descubierto que solo han logrado mejoras incrementales en la productividad y la generaci\u00f3n de contenido utilizando la IA generativa. Esto no ha impedido nuestra capacidad de desmantelar estas operaciones de influencia porque nos centramos en el comportamiento cuando investigamos y eliminamos estas campa\u00f1as, no en el contenido que publican, ya sea creado con IA o no. En el per\u00edodo previo a las elecciones estadounidenses, solicitamos a Meta AI que respondiera preguntas sobre cu\u00e1ndo y c\u00f3mo votar con enlaces a fuentes confiables que pudieran ofrecerles la informaci\u00f3n m\u00e1s actualizada. El d\u00eda de las elecciones, tambi\u00e9n solicitamos a Meta AI que respondiera ciertas preguntas sobre los candidatos los resultados de las elecciones, indicando a las personas que consultaran con fuentes confiables hasta que varias organizaciones de noticias declararan a un ganador. A lo largo de 2024, hemos cooperado con otros actores del sector para combatir las posibles amenazas alrededor del uso de la IA generativa. Por ejemplo, en febrero de 2024, firmamos el AI Elections Accord junto con docenas de otros l\u00edderes de la industria, comprometi\u00e9ndonos a ayudar a evitar que el contenido enga\u00f1oso generado por IA interfiriera en las elecciones de este a\u00f1o. En India, lanzamos una l\u00ednea de denuncia en WhatsApp en colaboraci\u00f3n con la Misinformation Combat Alliance, que incluye la creaci\u00f3n de una Unidad de an\u00e1lisis de deepfakes pionera en el mundo para ofrecer a las personas evaluaciones de cualquier contenido digital en formato de audio o v\u00eddeo. Y antes de las elecciones del Parlamento Europeo, Meta financi\u00f3 y apoy\u00f3 a la Red Europea de Normas de Verificaci\u00f3n de Datos (EFCSN, por sus siglas en ingl\u00e9s) en un proyecto destinado a mejorar las habilidades y capacidades de los verificadores de datos europeos para desacreditar y contrarrestar la desinformaci\u00f3n generada por IA. Prevenimos la interferencia extranjera Este a\u00f1o, nuestros equipos han desmantelado alrededor de 20 nuevas operaciones de influencia encubierta en todo el mundo, incluyendo Medio Oriente, Asia, Europa y Estados Unidos. Rusia sigue siendo la principal fuente de operaciones de influencia encubierta que hemos desarticulado hasta la fecha, con 39 redes en total desde 2017. Las siguientes fuentes m\u00e1s frecuentes de interferencia extranjera son Ir\u00e1n, con 31 redes CIB, y China, con 11. La mayor\u00eda de las redes CIB que hemos desarticulado han tenido dificultades para crear audiencias aut\u00e9nticas, y algunas usaban \u201cme gusta\u201d o seguidores falsos para parecer m\u00e1s populares de lo que eran. Por ejemplo, desmantelamos una red CIB que se origin\u00f3 principalmente en la regi\u00f3n de Transnistria en Moldavia y se dirig\u00eda a audiencias de habla rusa en Moldavia. Eliminamos esta campa\u00f1a antes de que pudieran crear audiencias aut\u00e9nticas en nuestras aplicaciones. La gran mayor\u00eda de las redes CIB que desarticulamos a nivel mundial intentaron extenderse a trav\u00e9s de muchas aplicaciones en l\u00ednea, incluidas las nuestras, YouTube, TikTok, X, Telegram, Reddit, Medium, Pinterest y m\u00e1s. Hemos visto varias operaciones de influencia trasladar gran parte de sus actividades a plataformas con menos salvaguardas que las nuestras. Por ejemplo, se publicaron videos ficticios sobre las elecciones estadounidenses (vinculados a operaciones de influencia con base en Rusia, de acuerdo a la comunidad de inteligencia estadounidense ) en X y Telegram. En una cantidad m\u00ednima de casos en los que personas en Estados Unidos volvieron a publicar este contenido en nuestras aplicaciones, etiquetamos el contenido como vinculado a actores de influencia rusas. La gran mayor\u00eda de las redes de CIB ten\u00edan sus propios sitios web, que probablemente resistir\u00edan el desmantelamiento por parte de una sola empresa. La operaci\u00f3n m\u00e1s grande y persistente de este tipo se conoce como Doppelganger, que utiliza una vasta red de sitios web falsos, incluidos algunos que suplantan noticias leg\u00edtimas y entidades gubernamentales. Hemos creado el repositorio p\u00fablico m\u00e1s grande de se\u00f1ales de amenaza de Doppelganger, exponiendo m\u00e1s de 6,000 dominios desde 2022 para que los investigadores y otros equipos de investigaci\u00f3n los vean y tambi\u00e9n puedan tomar medidas, adem\u00e1s de bloquearlos para que no se compartan en nuestras aplicaciones. Sin embargo, a pesar de algunas interrupciones por parte de los gobiernos y otros, muchos de los dominios web de Doppelganger que hemos expuesto hasta la fecha han sido reemplazados r\u00e1pidamente y contin\u00faan publicando contenido nuevo, y muchas de sus marcas siguen activas en X y Telegram. Antes de las elecciones estadounidenses, Doppelganger tuvo dificultades para acceder a nuestras aplicaciones y abandon\u00f3 en gran medida la publicaci\u00f3n de enlaces a sus sitios web. La gran mayor\u00eda de los intentos de Doppelganger de atacar a Estados Unidos en octubre y noviembre se detuvieron de manera proactiva antes de que ning\u00fan usuario viera su contenido. Previo a las elecciones estadounidenses, ampliamos nuestra aplicaci\u00f3n continua contra los medios de comunicaci\u00f3n estatales rusos. Prohibimos a Rossiya Segodnya, RT y otras entidades relacionadas de nuestras aplicaciones a nivel mundial por infracciones de nuestras pol\u00edticas que proh\u00edben participar o afirmar participar en interferencias extranjeras. Esto sigui\u00f3 a las medidas sin precedentes que tomamos hace m\u00e1s de 2 a\u00f1os para limitar la propagaci\u00f3n de los medios controlados por el estado ruso, incluido el bloqueo de que publiquen anuncios, la ubicaci\u00f3n de su contenido m\u00e1s abajo en los feeds de las personas y recordatorios en producto que piden a las personas que confirmen que desean compartir o navegar hacia el contenido de estos medios. Estos hallazgos y pol\u00edticas tienen como objetivo dar una idea de lo que hemos visto y el enfoque general que hemos adoptado durante este a\u00f1o electoral sin precedentes, pero est\u00e1n lejos de ser un recuento exhaustivo de todo lo que hicimos y vimos. Nuestro enfoque tampoco es inflexible. Con cada elecci\u00f3n queremos asegurarnos de que estamos aprendiendo las lecciones correctas y manteni\u00e9ndonos a la vanguardia de las amenazas potenciales. Lograr el equilibrio entre la libertad de expresi\u00f3n y la seguridad es un desaf\u00edo constante y en evoluci\u00f3n. A medida que hacemos un balance de lo que hemos aprendido durante este a\u00f1o extraordinario, revisaremos nuestras pol\u00edticas y anunciaremos cualquier cambio en los pr\u00f3ximos meses.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/\" \/>\n<meta property=\"og:site_name\" content=\"Acerca de Meta\" \/>\n<meta property=\"article:published_time\" content=\"2024-12-04T21:13:22+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-12-04T21:22:24+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/12\/Responsible-Business-Practices-Report_Header-1.jpeg?resize=1024,576\" \/>\n\t<meta property=\"og:image:width\" content=\"1024\" \/>\n\t<meta property=\"og:image:height\" content=\"576\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"eortiz\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Meta\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"13 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/\"},\"author\":\"Facebook company\",\"headline\":\"Lo que vimos en nuestras plataformas durante las elecciones de 2024 alrededor del mundo\",\"datePublished\":\"2024-12-04T21:13:22+00:00\",\"dateModified\":\"2024-12-04T21:22:24+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/\"},\"wordCount\":2543,\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/12\/Responsible-Business-Practices-Report_Header-1.jpeg?fit=1920%2C1080\",\"keywords\":[\"Combatimos la informaci\u00f3n err\u00f3nea\",\"Comportamiento Inaut\u00e9ntico Coordinado\",\"Elecciones\",\"Inteligencia artificial y aprendizaje autom\u00e1tico\",\"Normas Comunitarias y aplicaci\u00f3n de pol\u00edticas\",\"Seguridad\"],\"articleSection\":[\"Integridad &amp; Seguridad\",\"Integridad de elecciones\",\"Meta\",\"Pol\u00edtica P\u00fablica\",\"Seguridad y Expresi\u00f3n\",\"Uncategorized\"],\"inLanguage\":\"es\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/\",\"name\":\"Lo que vimos en nuestras plataformas durante las elecciones de 2024 alrededor del mundo | Acerca de Meta\",\"isPartOf\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/12\/Responsible-Business-Practices-Report_Header-1.jpeg?fit=1920%2C1080\",\"datePublished\":\"2024-12-04T21:13:22+00:00\",\"dateModified\":\"2024-12-04T21:22:24+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/\"]}],\"author\":\"Acerca de Meta\"},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/#primaryimage\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/12\/Responsible-Business-Practices-Report_Header-1.jpeg?fit=1920%2C1080\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/12\/Responsible-Business-Practices-Report_Header-1.jpeg?fit=1920%2C1080\",\"width\":1920,\"height\":1080},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/about.fb.com\/ltam\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Lo que vimos en nuestras plataformas durante las elecciones de 2024 alrededor del mundo\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#website\",\"url\":\"https:\/\/about.fb.com\/news\/\",\"name\":\"Acerca de Meta\",\"description\":\"\",\"publisher\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/about.fb.com\/ltam\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\",\"alternateName\":[\"Meta Newsroom\",\"Meta\"]},{\"@type\":\"Organization\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#organization\",\"name\":\"Meta\",\"url\":\"https:\/\/about.fb.com\/ltam\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"contentUrl\":\"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500\",\"width\":8000,\"height\":4500,\"caption\":\"Meta\"},\"image\":{\"@id\":\"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/\"}}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Lo que vimos en nuestras plataformas durante las elecciones de 2024 alrededor del mundo | Acerca de Meta","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/","og_locale":"es_ES","og_type":"article","og_title":"Lo que vimos en nuestras plataformas durante las elecciones de 2024 alrededor del mundo | Acerca de Meta","og_description":"La reciente elecci\u00f3n Presidencial en Estados Unidos coron\u00f3 un a\u00f1o sin precedentes en el que se anticip\u00f3 que m\u00e1s de dos mil millones de personas ejercieran su voto en algunas de las democracias m\u00e1s grandes del mundo, incluyendo India, Indonesia, M\u00e9xico y la Uni\u00f3n Europea. Como una empresa que opera plataformas en las que se debaten estos temas, Meta entiende la responsabilidad que tiene para proteger la habilidad de las personas para alzar su voz y asegurar que est\u00e1 preparada para las distintas elecciones alrededor del mundo.\u00a0 Desde 2016 hemos evolucionado nuestro acercamiento a las elecciones, para incorporar las lecciones que aprendemos y estar preparados ante amenazas emergentes. Tenemos a un equipo responsable de los esfuerzos de integridad para elecciones, que incluye expertos en inteligencia de datos, producto, ingenier\u00eda, investigaci\u00f3n, operaciones, pol\u00edtica p\u00fablica y asuntos legales. En 2024, activamos una serie de Centros de Operaciones de Elecciones en el mundo para monitorear y actuar r\u00e1pidamente ante problem\u00e1ticas emergentes, incluyendo las elecciones en Estados Unidos, Bangladesh, Indonesia, India, Pakist\u00e1n, el Parlamento europeo, Francia, Reino Unido, Sud\u00e1frica, M\u00e9xico y Brasil.\u00a0 Habiendo pasado las elecciones de Estados Unidos, podemos compartir algunas de las tendencias que vimos en nuestras plataformas, y explicar c\u00f3mo buscamos equilibrar la libertad de expresi\u00f3n y la seguridad de las personas durante el a\u00f1o.\u00a0 Facilitamos la libertad de expresi\u00f3n Encontrar el balance correcto entre permitir que las personas hagan escuchar sus voces y mantener su seguridad es algo que ninguna plataforma har\u00e1 bien al cien por ciento todo el tiempo. Sabemos que nuestros \u00edndices de error en la aplicaci\u00f3n de nuestras pol\u00edticas son altos y esto obstaculiza la libertad de expresi\u00f3n. Muchas veces, contenido inofensivo puede ser removido o restringido y muchas personas pueden ser penalizadas injustamente. A lo largo del a\u00f1o, hemos tratado de actualizar y aplicar nuestras pol\u00edticas de manera justa, para que las personas alcen su voz; y daremos continuidad a este trabajo en los pr\u00f3ximos meses.\u00a0 Lanzamos controles de contenido pol\u00edtico en Facebook, Instagram y Threads para darle a las personas la posibilidad de tener m\u00e1s recomendaciones de este tipo de publicaciones si as\u00ed lo desean. Estos controles ya se lanzaron en Estados Unidos y pr\u00f3ximamente estar\u00e1n disponibles para el resto del mundo.\u00a0 Permitimos a las personas hacer preguntas o expresar sus preocupaciones sobre los procesos electorales en el contenido org\u00e1nico. Sin embargo, no permitimos afirmaciones o especulaciones sobre corrupci\u00f3n, irregularidades o prejuicios en las elecciones cuando se combinan con una se\u00f1al que indica que el contenido es violencia intimidatoria. Ajustamos nuestras pol\u00edticas para hacer esta distinci\u00f3n. Para el contenido pagado, prohibimos anuncios que cuestionan la legitimidad de una elecci\u00f3n, como lo hemos hecho desde 2020.\u00a0 Actualizamos nuestro sistema de penalizaciones a principios de 2023 para que fuera m\u00e1s justo y protegiera la habilidad que tienen las personas para alzar sus voces, sin perder su efectividad para aplicar las pol\u00edticas en contra personas que persistentemente infringen nuestras pol\u00edticas.\u00a0 Realizamos auditor\u00edas anuales sobre palabras que designamos como groser\u00edas bajo nuestra pol\u00edtica de Lenguaje que incita al odio, priorizando territorios con elecciones en puerta, con el objetivo de mantener listas actualizadas que protejan a comunidades vulnerables y asegurando que no estamos cometiendo errores en la moderaci\u00f3n del discurso p\u00fablico.\u00a0 Tambi\u00e9n, actualizamos nuestro protocolo de penalizaciones relacionado a figuras p\u00fablicas suspendidas por infracciones durante per\u00edodos de disturbios civiles, para asegurar que los estadounidenses escucharan a los candidatos a la presidencia en los mismos t\u00e9rminos. Nos comprometimos a realizar revisiones peri\u00f3dicas para determinar si se justifican sanciones m\u00e1s severas. Durante las elecciones de 2024 alrededor del mundo, conectamos a las personas con informaci\u00f3n confiable sobre el proceso democr\u00e1tico a trav\u00e9s de notificaciones en Facebook e Instagram.\u00a0 Durante la elecci\u00f3n general de Estados Unidos en 2024, los recordatorios en la parte superior del feed de Facebook e Instagram recibieron m\u00e1s de mil millones de impresiones. Estos recordatorios incluyeron informaci\u00f3n sobre el registro para votar, el voto por correo electr\u00f3nico, el voto adelantado en persona y el voto el d\u00eda de la elecci\u00f3n. Las personas dieron clic en estos recordatorios m\u00e1s de 20 mil millones de veces para visitar sitios web gubernamentales oficiales para obtener m\u00e1s informaci\u00f3n. Asimismo, enviamos Alertas de votaci\u00f3n en colaboraci\u00f3n con funcionarios de gobierno estatales y locales, quienes han enviado m\u00e1s de 765 millones de notificaciones en Facebook desde 2020. Esta es una herramienta que se puede adaptar a las necesidades que surjan. Por ejemplo, si ciertas casillas necesitan extender sus horas de operaci\u00f3n el d\u00eda de la elecci\u00f3n. Implementamos un apartado con resultados de b\u00fasqueda en Facebook e Instagram en Estados Unidos. Esto quiere decir que cuando las personas buscaban t\u00e9rminos relacionados con las elecciones de 2024, les mostramos links que dirig\u00edan a fuentes de informaci\u00f3n oficiales con datos sobre c\u00f3mo, cu\u00e1ndo y d\u00f3nde votar. En Instagram, lanzamos stickers para Stories para dirigir a las personas a informaci\u00f3n electoral oficial. En Facebook volvimos a activar el Centro de Informaci\u00f3n Electoral.\u00a0 Las notificaciones en la parte superior del Feed llegaron a millones de personas en pa\u00edses que tuvieron elecciones en 2024, incluyendo:\u00a0 En Reino Unido, nuestro recordatorio el d\u00eda de la elecci\u00f3n alcanz\u00f3 a 43.6 millones de personas en Facebook e Instagram, y casi 900,000 dieron clic para registrarse para votar o revisar su estatus de registro.\u00a0 En la Uni\u00f3n Europea, las personas interactuaron con estas notificaciones m\u00e1s de 41 millones de veces en Facebook y m\u00e1s de 58 millones de veces en Instagram.\u00a0 Las alertas para votar se activaron en Facebook en India el 17 de abril antes de las elecciones nacionales. La notificaci\u00f3n se lanz\u00f3 desde la P\u00e1gina de Facebook de la Comisi\u00f3n electoral de India y alcanz\u00f3 a 145 millones de personas, dirigiendo a las personas a https:\/\/elections24.eci.gov.in\/ para obtener m\u00e1s informaci\u00f3n. La comisi\u00f3n electoral de India tambi\u00e9n us\u00f3 la API de WhatsApp para implementar campa\u00f1as de recordaci\u00f3n, mismas que alcanzaron alrededor de 400 millones de personas.\u00a0 En las elecciones locales de Brasil, las personas interactuaron con los recordatorios de votaci\u00f3n en Facebook e Instagram alrededor de 9.7 millones de veces.\u00a0 En Francia, las personas dieron clic en las notificaciones electorales m\u00e1s de 599 mil veces en Facebook y m\u00e1s de 496 mil veces en Instagram.\u00a0 Meta sigue ofreciendo una transparencia l\u00edder en la industria para anuncios sobre temas sociales, electorales o pol\u00edticos Los anunciantes que publican estos anuncios deben pasar por un proceso de autorizaci\u00f3n e incluir una exenci\u00f3n de responsabilidad de \u201cpagado por\u201d. Luego, estos anuncios se almacenan en nuestra Biblioteca de anuncios durante siete a\u00f1os. Este a\u00f1o, continuamos prohibiendo nuevos anuncios pol\u00edticos, electorales y sociales en Estados Unidos durante la \u00faltima semana de la campa\u00f1a electoral, como lo hemos hecho desde 2020, porque en los \u00faltimos d\u00edas de una elecci\u00f3n puede no haber tiempo suficiente para impugnar nuevas afirmaciones. Desde enero de 2024, en ciertos casos tambi\u00e9n exigimos a los anunciantes que revelen cu\u00e1ndo utilizan IA u otras t\u00e9cnicas digitales para crear o alterar un anuncio sobre un tema pol\u00edtico o social. Monitoreamos el impacto de la IA\u00a0 A principios de a\u00f1o, muchas personas advirtieron sobre el posible impacto de la IA generativa en las elecciones, incluido el riesgo de esparcimiento masivo de las deepfakes y las campa\u00f1as de desinformaci\u00f3n habilitadas por IA. Seg\u00fan lo que hemos monitoreado en nuestros servicios, parece que estos riesgos no se materializaron de manera significativa y que el impacto fue modesto y de alcance limitado. Si bien hubo casos de uso confirmado o sospechoso de IA, los vol\u00famenes se mantuvieron bajos y nuestras pol\u00edticas y procesos existentes demostraron ser suficientes para reducir el riesgo en torno al contenido de IA generativa. Durante el per\u00edodo electoral en las elecciones principales mencionadas anteriormente, las calificaciones sobre el contenido de IA relacionado con las elecciones, la pol\u00edtica y los temas sociales representaron menos de 1% de toda la desinformaci\u00f3n verificada. Como parte de nuestros esfuerzos para prevenir que las personas usaran el generador de im\u00e1genes de IA de Meta para crear deep fakes relacionados con las elecciones, rechazamos 590,000 solicitudes para generar im\u00e1genes del presidente electo Trump, el vicepresidente electo Vance, la vicepresidenta Harris, el gobernador Walz y el presidente Biden en el mes previo al d\u00eda de las elecciones.\u00a0 Tambi\u00e9n hemos monitoreado de cerca el posible uso de la IA generativa por parte de campa\u00f1as de influencia encubiertas (lo que llamamos redes de comportamiento inaut\u00e9ntico coordinado o CIB) y hemos descubierto que solo han logrado mejoras incrementales en la productividad y la generaci\u00f3n de contenido utilizando la IA generativa. Esto no ha impedido nuestra capacidad de desmantelar estas operaciones de influencia porque nos centramos en el comportamiento cuando investigamos y eliminamos estas campa\u00f1as, no en el contenido que publican, ya sea creado con IA o no. En el per\u00edodo previo a las elecciones estadounidenses, solicitamos a Meta AI que respondiera preguntas sobre cu\u00e1ndo y c\u00f3mo votar con enlaces a fuentes confiables que pudieran ofrecerles la informaci\u00f3n m\u00e1s actualizada. El d\u00eda de las elecciones, tambi\u00e9n solicitamos a Meta AI que respondiera ciertas preguntas sobre los candidatos los resultados de las elecciones, indicando a las personas que consultaran con fuentes confiables hasta que varias organizaciones de noticias declararan a un ganador. A lo largo de 2024, hemos cooperado con otros actores del sector para combatir las posibles amenazas alrededor del uso de la IA generativa. Por ejemplo, en febrero de 2024, firmamos el AI Elections Accord junto con docenas de otros l\u00edderes de la industria, comprometi\u00e9ndonos a ayudar a evitar que el contenido enga\u00f1oso generado por IA interfiriera en las elecciones de este a\u00f1o. En India, lanzamos una l\u00ednea de denuncia en WhatsApp en colaboraci\u00f3n con la Misinformation Combat Alliance, que incluye la creaci\u00f3n de una Unidad de an\u00e1lisis de deepfakes pionera en el mundo para ofrecer a las personas evaluaciones de cualquier contenido digital en formato de audio o v\u00eddeo. Y antes de las elecciones del Parlamento Europeo, Meta financi\u00f3 y apoy\u00f3 a la Red Europea de Normas de Verificaci\u00f3n de Datos (EFCSN, por sus siglas en ingl\u00e9s) en un proyecto destinado a mejorar las habilidades y capacidades de los verificadores de datos europeos para desacreditar y contrarrestar la desinformaci\u00f3n generada por IA. Prevenimos la interferencia extranjera Este a\u00f1o, nuestros equipos han desmantelado alrededor de 20 nuevas operaciones de influencia encubierta en todo el mundo, incluyendo Medio Oriente, Asia, Europa y Estados Unidos. Rusia sigue siendo la principal fuente de operaciones de influencia encubierta que hemos desarticulado hasta la fecha, con 39 redes en total desde 2017. Las siguientes fuentes m\u00e1s frecuentes de interferencia extranjera son Ir\u00e1n, con 31 redes CIB, y China, con 11. La mayor\u00eda de las redes CIB que hemos desarticulado han tenido dificultades para crear audiencias aut\u00e9nticas, y algunas usaban \u201cme gusta\u201d o seguidores falsos para parecer m\u00e1s populares de lo que eran. Por ejemplo, desmantelamos una red CIB que se origin\u00f3 principalmente en la regi\u00f3n de Transnistria en Moldavia y se dirig\u00eda a audiencias de habla rusa en Moldavia. Eliminamos esta campa\u00f1a antes de que pudieran crear audiencias aut\u00e9nticas en nuestras aplicaciones. La gran mayor\u00eda de las redes CIB que desarticulamos a nivel mundial intentaron extenderse a trav\u00e9s de muchas aplicaciones en l\u00ednea, incluidas las nuestras, YouTube, TikTok, X, Telegram, Reddit, Medium, Pinterest y m\u00e1s. Hemos visto varias operaciones de influencia trasladar gran parte de sus actividades a plataformas con menos salvaguardas que las nuestras. Por ejemplo, se publicaron videos ficticios sobre las elecciones estadounidenses (vinculados a operaciones de influencia con base en Rusia, de acuerdo a la comunidad de inteligencia estadounidense ) en X y Telegram. En una cantidad m\u00ednima de casos en los que personas en Estados Unidos volvieron a publicar este contenido en nuestras aplicaciones, etiquetamos el contenido como vinculado a actores de influencia rusas. La gran mayor\u00eda de las redes de CIB ten\u00edan sus propios sitios web, que probablemente resistir\u00edan el desmantelamiento por parte de una sola empresa. La operaci\u00f3n m\u00e1s grande y persistente de este tipo se conoce como Doppelganger, que utiliza una vasta red de sitios web falsos, incluidos algunos que suplantan noticias leg\u00edtimas y entidades gubernamentales. Hemos creado el repositorio p\u00fablico m\u00e1s grande de se\u00f1ales de amenaza de Doppelganger, exponiendo m\u00e1s de 6,000 dominios desde 2022 para que los investigadores y otros equipos de investigaci\u00f3n los vean y tambi\u00e9n puedan tomar medidas, adem\u00e1s de bloquearlos para que no se compartan en nuestras aplicaciones. Sin embargo, a pesar de algunas interrupciones por parte de los gobiernos y otros, muchos de los dominios web de Doppelganger que hemos expuesto hasta la fecha han sido reemplazados r\u00e1pidamente y contin\u00faan publicando contenido nuevo, y muchas de sus marcas siguen activas en X y Telegram. Antes de las elecciones estadounidenses, Doppelganger tuvo dificultades para acceder a nuestras aplicaciones y abandon\u00f3 en gran medida la publicaci\u00f3n de enlaces a sus sitios web. La gran mayor\u00eda de los intentos de Doppelganger de atacar a Estados Unidos en octubre y noviembre se detuvieron de manera proactiva antes de que ning\u00fan usuario viera su contenido. Previo a las elecciones estadounidenses, ampliamos nuestra aplicaci\u00f3n continua contra los medios de comunicaci\u00f3n estatales rusos. Prohibimos a Rossiya Segodnya, RT y otras entidades relacionadas de nuestras aplicaciones a nivel mundial por infracciones de nuestras pol\u00edticas que proh\u00edben participar o afirmar participar en interferencias extranjeras. Esto sigui\u00f3 a las medidas sin precedentes que tomamos hace m\u00e1s de 2 a\u00f1os para limitar la propagaci\u00f3n de los medios controlados por el estado ruso, incluido el bloqueo de que publiquen anuncios, la ubicaci\u00f3n de su contenido m\u00e1s abajo en los feeds de las personas y recordatorios en producto que piden a las personas que confirmen que desean compartir o navegar hacia el contenido de estos medios. Estos hallazgos y pol\u00edticas tienen como objetivo dar una idea de lo que hemos visto y el enfoque general que hemos adoptado durante este a\u00f1o electoral sin precedentes, pero est\u00e1n lejos de ser un recuento exhaustivo de todo lo que hicimos y vimos. Nuestro enfoque tampoco es inflexible. Con cada elecci\u00f3n queremos asegurarnos de que estamos aprendiendo las lecciones correctas y manteni\u00e9ndonos a la vanguardia de las amenazas potenciales. Lograr el equilibrio entre la libertad de expresi\u00f3n y la seguridad es un desaf\u00edo constante y en evoluci\u00f3n. A medida que hacemos un balance de lo que hemos aprendido durante este a\u00f1o extraordinario, revisaremos nuestras pol\u00edticas y anunciaremos cualquier cambio en los pr\u00f3ximos meses.","og_url":"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/","og_site_name":"Acerca de Meta","article_published_time":"2024-12-04T21:13:22+00:00","article_modified_time":"2024-12-04T21:22:24+00:00","og_image":[{"width":1024,"height":576,"url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/12\/Responsible-Business-Practices-Report_Header-1.jpeg?resize=1024,576","type":"image\/jpeg"}],"author":"eortiz","twitter_card":"summary_large_image","twitter_misc":{"Written by":"Meta","Est. reading time":"13 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/#article","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/"},"author":"Facebook company","headline":"Lo que vimos en nuestras plataformas durante las elecciones de 2024 alrededor del mundo","datePublished":"2024-12-04T21:13:22+00:00","dateModified":"2024-12-04T21:22:24+00:00","mainEntityOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/"},"wordCount":2543,"publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/12\/Responsible-Business-Practices-Report_Header-1.jpeg?fit=1920%2C1080","keywords":["Combatimos la informaci\u00f3n err\u00f3nea","Comportamiento Inaut\u00e9ntico Coordinado","Elecciones","Inteligencia artificial y aprendizaje autom\u00e1tico","Normas Comunitarias y aplicaci\u00f3n de pol\u00edticas","Seguridad"],"articleSection":["Integridad &amp; Seguridad","Integridad de elecciones","Meta","Pol\u00edtica P\u00fablica","Seguridad y Expresi\u00f3n","Uncategorized"],"inLanguage":"es"},{"@type":"WebPage","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/","url":"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/","name":"Lo que vimos en nuestras plataformas durante las elecciones de 2024 alrededor del mundo | Acerca de Meta","isPartOf":{"@id":"https:\/\/about.fb.com\/ltam\/#website"},"primaryImageOfPage":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/#primaryimage"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/#primaryimage"},"thumbnailUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/12\/Responsible-Business-Practices-Report_Header-1.jpeg?fit=1920%2C1080","datePublished":"2024-12-04T21:13:22+00:00","dateModified":"2024-12-04T21:22:24+00:00","breadcrumb":{"@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/"]}],"author":"Acerca de Meta"},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/#primaryimage","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/12\/Responsible-Business-Practices-Report_Header-1.jpeg?fit=1920%2C1080","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/12\/Responsible-Business-Practices-Report_Header-1.jpeg?fit=1920%2C1080","width":1920,"height":1080},{"@type":"BreadcrumbList","@id":"https:\/\/about.fb.com\/ltam\/news\/2024\/12\/lo-que-vimos-en-nuestras-plataformas-durante-las-elecciones-de-2024-alrededor-del-mundo\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/about.fb.com\/ltam\/"},{"@type":"ListItem","position":2,"name":"Lo que vimos en nuestras plataformas durante las elecciones de 2024 alrededor del mundo"}]},{"@type":"WebSite","@id":"https:\/\/about.fb.com\/ltam\/#website","url":"https:\/\/about.fb.com\/news\/","name":"Acerca de Meta","description":"","publisher":{"@id":"https:\/\/about.fb.com\/ltam\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/about.fb.com\/ltam\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es","alternateName":["Meta Newsroom","Meta"]},{"@type":"Organization","@id":"https:\/\/about.fb.com\/ltam\/#organization","name":"Meta","url":"https:\/\/about.fb.com\/ltam\/","logo":{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/","url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","contentUrl":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2021\/10\/meta-social-16x9-1.jpg?fit=8000%2C4500","width":8000,"height":4500,"caption":"Meta"},"image":{"@id":"https:\/\/about.fb.com\/ltam\/#\/schema\/logo\/image\/"}}]}},"jetpack_featured_media_url":"https:\/\/about.fb.com\/ltam\/wp-content\/uploads\/sites\/14\/2024\/12\/Responsible-Business-Practices-Report_Header-1.jpeg?fit=1920%2C1080","jetpack-related-posts":[],"jetpack_sharing_enabled":true,"amp_enabled":true,"_links":{"self":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25623","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/users\/164097140"}],"replies":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/comments?post=25623"}],"version-history":[{"count":1,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25623\/revisions"}],"predecessor-version":[{"id":25625,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/posts\/25623\/revisions\/25625"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media\/25624"}],"wp:attachment":[{"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/media?parent=25623"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/categories?post=25623"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/about.fb.com\/ltam\/wp-json\/wp\/v2\/tags?post=25623"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}