Meta

Nuestro enfoque integral para proteger las elecciones estadounidenses de 2020  

Por Guy Rosen, VP de Integridad

  • Nuestra estrategia integral para proteger las elecciones estadounidenses en 2020 comenzó años antes de la votación y fue diseñada para extenderse hasta el día de la asunción presidencial. Incluyó la implementación de algunas medidas temporarias, que fueron apenas una parte menor del conjunto del amplio trabajo realizado.
  • Expandimos nuestras políticas en 2020 para interrumpir la actividad de milicias en nuestros servicios y desde entonces hemos prohibido 890 movimientos sociales militarizados. También implementamos reglas para vedar QAnon y ese tipo de organizaciones en nuestras plataformas.
  • Como todo evento público relevante, era esperable que el debate sobre el resultado de las elecciones en Estados Unidos se reflejara inevitablemente en Facebook. Pero la responsabilidad por la insurrección que ocurrió recae sobre quienes violaron la ley durante el ataque y sobre quienes lo incitaron, y no sobre cómo implementamos una de las muchas medidas que adoptamos para proteger la elección. 

Mucho antes de que comenzara el periodo electoral el año pasado, esperábamos que la elección fuera una de las más contenciosas de la historia. Y eso ocurrió antes siquiera de que supiéramos que serían realizadas en medio de una pandemia. Trabajamos desde el 2016 para invertir en personal, tecnologías, políticas y procesos que nos permitieran garantizar que estábamos listos y empezamos a planificar la elección específicamente dos años antes. Creamos una estrategia para que se extendiera hasta el día de la asunción en 2021, sabiendo que existía una alta posibilidad de que los resultados fueran a ser cuestionados. Hicimos planes específicos para ese escenario.

Esos planes fueron elaborados sobre el conjunto de inversiones y medidas que fuimos adoptando para garantizar la integridad en nuestras plataformas desde el 2016, entre ellas:

  • La construcción de un equipo global de 35.000 personas dedicadas a integridad y seguridad, que actualmente cuenta con más de 40.000 integrantes.
  • El empoderamiento de la ciudadanía para que participe del proceso, incluyendo un programa para facilitar el registro de más de 4,5 millones de votantes en EEUU el año pasado.  
  • La activación de nuestro Centro de Operaciones para Elecciones, integrado por especialistas de distintos equipos de Facebook para identificar y responder a las posibles amenazas en la plataforma. Ese Centro trabajó durante el período poselectoral y hasta después de la asunción.
  •  La desarticulación de operaciones de influencia encubiertas que buscaban interferir en nuestra plataforma en forma similar a lo que había ocurrido en 2016. Como resultado, eliminamos redes dirigidas a Estados Unidos, incluyendo cinco involucradas en comportamiento inauténtico coordinado originadas en Rusia, cinco en Irán, una en China y otras cinco domésticas de Estados Unidos.
  • La expansión de nuestras políticas e inversiones para remover milicias e impedir que QAnon se organice en nuestra plataforma.
  • La adopción de medidas adicionales para controlar la viralidad y el contenido potencialmente dañino. Esta tarea incluyó la reducción del alcance de contenido que nuestros sistemas predicen cómo violento o que puede incitar a la violencia, y límites a la distribución de contenido proyectado como potencialmente falso hasta que sea revisado por nuestros verificadores independientes.
  • La eliminación progresiva de los modelos de clasificación del News Feed a partir de fines del 2019, que mejora el contenido que según predicen nuestros sistemas será compartido y generará una mayor interacción. Estos cambios se aplicaron al contenido estimado como de sesgo político o que podría tratar problemas sociales y siguen en vigor en la actualidad.
  • La prohibición de contenido sobre supresión del voto. Desde marzo del 2020 y hasta el día de la elección removimos más de 265.000 piezas de Facebook e Instagram en Estados Unidos por violar nuestras políticas de interferencia del voto.
  • Alianzas con verificadores independientes de información para ayudarnos a etiquetar desinformación relacionada a la elección y a eliminar contenido que infringiese nuestras normas.
  • Contribución a una mayor transparencia sobre publicidad política en la plataforma a través de nuestra Biblioteca de Anuncios, que permite saber quién está detrás de los avisos.
  • Registro obligatorio para todos los que quieran correr publicidad política y sobre asuntos ligados a la elección en Facebook, para corroborar su identidad y que puedan recibir la autorización correspondiente.
  • La suspensión de nuevos anuncios políticos y sociales vinculados a la campaña siete días antes de la elección en Estados Unidos y entre el día de la elección y el de la asunción presidencial.
  • La creación de un Centro de Información para votantes para garantizar que las personas accedan a información confiable sobre la elección y el proceso de votación. Una vez reportados los resultados, el Centro promovió los datos precisos, que fueron mantenidos en la plataforma hasta después del día de la elección.
  • Notificaciones en Facebook e Instagram, informando claramente que Joe Biden era proyectado como el ganador de los comicios, una vez que los principales medios independientes del país comenzaron a reportarlo, entre ellos las cadenas ABC, CBS, Fox, NBC, CNN y la agencia AP.
  • Etiquetado de publicaciones sobre el voto y la elección, incluyendo posts realizados por políticos, que contaban con un link para acceder al Centro de Información para votantes. Luego de la elección, también agregamos etiquetas con el ganador proyectado en todas las publicaciones de los candidatos, junto con un vínculo al Centro de Información. También colocamos etiquetas al contenido que estaba tergiversando el proceso de conteo de los votos, que incluyó datos del Centro de Política Bipartidario.
  • La aplicación de una serie de medidas temporarias donde había riesgos específicos de que un pico de actividad en la plataforma podría implicar que los sistemas que teníamos operando para velar por el cumplimiento de nuestras políticas podrían no ser suficientes. Un ejemplo fue la limitación de la distribución de videos en vivo que nuestros sistemas predijeron como potencialmente relacionados a la elección, y la remoción automática de contenido potencialmente violatorio con niveles de certeza inferiores a lo usual incluso antes de que fueran revisados por nuestros equipos. Tomamos esas iniciativas para responder a señales específicas que veíamos en la plataforma, como saltos en el contenido reportado. Después, fuimos desactivando algunas de ellas de manera gradual y responsable a medida que esas señales volvieron a los niveles anteriores. Algunas de las medidas permanecieron activas hasta la asunción presidencial.

Si bien este último ítem es importante, se trató de apenas uno más de una larga serie de iniciativas implementadas mucho antes, durante y después de la elección. En la planificación, nos preparamos para diferentes escenarios y consideramos muchos factores sociales para entender cómo responder a la violencia.

Esa es en gran medida la razón por la cual desarrollamos opciones de producto para circunstancias extraordinarias, a las que internamente llamamos medidas “de emergencia”. Y es también el motivo por el que mantuvimos todos nuestros sistemas operacionales hasta mucho después del día de la elección e incluso luego de que identificáramos señales específicas de que las amenazas posibles se estaban estabilizando, más de un mes después de que los principales medios dieran por ganador al actual presidente Joe Biden.

Culpar por lo que ocurrió el 6 de enero a cómo implementamos uno de las muchas medidas listados en este texto es absurdo. Somos una plataforma de redes sociales significativa, por lo que es natural que el contenido sobre los grandes eventos tenga su reflejo en Facebook. Pero la responsabilidad por la insurrección recae meridianamente sobre quienes violaron la ley y sobre quienes los incitaron. Trabajamos con las autoridades en los días y semanas posteriores al 6 de enero con la meta de asegurar que estuviera disponible cualquier información que pudiera vincular a los responsables con los delitos que cometieron. Por supuesto que siempre hay aprendizajes sobre el trabajo que hacemos para proteger las elecciones y para responder de manera inmediata a las amenazas y los desafíos de largo plazo. Aplicaremos esas lecciones aprendidas mientras seguimos haciendo nuestro trabajo.



Utilizamos cookies para personalizar contenido, adaptar y medir los anuncios, y proporcionar una experiencia más segura. Al hacer clic o navegar en el sitio, aceptas que recopilemos información dentro y fuera de Facebook mediante cookies. Consulta más información, incluida información relativa a los controles disponibles en: Política de cookies