Las plataformas de Meta están diseñadas para que las personas puedan expresarse libremente. Esto puede ser un poco caótico, ya que cuando millones de personas hacen oír su voz queda a la vista todo lo bueno, lo malo y lo feo. Pero eso es, precisamente, lo que se entiende como libertad de expresión.
En su discurso de 2019 en la Universidad de Georgetown, Mark Zuckerberg argumentó que la libertad de expresión ha sido el motor del progreso tanto en la sociedad estadounidense como alrededor del mundo. Y que limitar el discurso, incluso con las mejores intenciones, puede reforzar las estructuras de poder existentes en lugar de empoderar a las personas. «Algunos creen que darle más libertad de expresión a las personas nos divide en lugar de unirnos. Muchos a lo largo del espectro político creen que alcanzar los objetivos políticos que les parecen importantes es más relevante que cada individuo pueda tener su propia voz. Me parece que eso es peligroso», dijo.
En los últimos años, hemos desarrollado sistemas cada vez más complejos para gestionar el contenido en nuestras plataformas, en parte debido a la presión pública y política para moderarlo. Ese abordaje ha ido demasiado lejos. Aunque muchos de esos esfuerzos han sido bienintencionados, con el tiempo se extendieron al punto de llevarnos a cometer demasiados errores, frustrando a nuestros usuarios, y a menudo interfiriendo en la libertad de expresión que nos propusimos promover. Demasiado contenido inofensivo es censurado, demasiadas personas quedan erróneamente encerradas en la «cárcel de Facebook» y a menudo somos demasiado lentos para responder cuando esto sucede.
Queremos corregirlo y volver al compromiso fundamental con la libertad de expresión. Hoy, estamos implementando algunos cambios para mantenernos fieles a ese ideal.
Fin del Programa de Verificadores de Datos Independientes y transición a Notas de la Comunidad
Cuando lanzamos nuestro programa de verificación de datos independiente en 2016 fuimos muy claros en que no queríamos convertirnos en árbitros de la verdad. Hicimos lo que pensamos que era la mejor opción, y más razonable en ese momento, delegando la responsabilidad en organizaciones dedicadas a verificar hechos en forma independiente y proveer más información a las personas acerca de lo que ven en línea, especialmente cuando en el caso de contenidos engañosos virales, y que puedan juzgar por sí mismas lo que ven y lo que leen.
Pero no fue así como resultaron las cosas, especialmente en Estados Unidos. Los expertos, como todas las demás personas, tienen sus propios sesgos y perspectivas, lo que se manifestó en algunas elecciones sobre qué verificar y cómo. Con el tiempo, terminamos teniendo demasiado contenido verificado que podría interpretarse como discurso político legítimo o debate. Nuestro sistema generó luego consecuencias reales mediante el uso de etiquetas intrusivas y una reducción en la distribución de esos posts. Un programa destinado a informar, frecuentemente se convirtió en una herramienta para censurar.
Ahora estamos modificando ese enfoque. Estamos poniendo fin al actual programa de verificadores de datos independientes en Estados Unidos y, en su lugar, vamos a movernos hacia un programa de Notas de la Comunidad. Hemos visto que este enfoque funciona en X, donde se empodera a la comunidad para decidir cuándo un post puede ser potencialmente engañoso y requiere de información adicional; y diferentes personas con diferentes perspectivas deciden qué tipo de contexto es útil para que otros usuarios vean. Creemos que esta podría ser una mejor forma de lograr la intención original de informar a las personas acerca de lo que están viendo, con una menor propensión a los sesgos.
- Una vez que el programa esté en marcha, Meta no escribirá Notas de la Comunidad ni decidirá cuáles se muestran. Serán escritas y calificadas por usuarios.
- Al igual que en X, las Notas de la Comunidad requerirán un acuerdo entre personas con diferentes perspectivas para ayudar a prevenir calificaciones sesgadas
- Queremos ser transparentes acerca de cómo las diferentes perspectivas informarán las Notas en nuestras aplicaciones y trabajamos para encontrar la mejor manera de compartir esta información.
- Las personas en Estados Unidos ya pueden inscribirse y tener la oportunidad de estar entre los primeros contribuyentes al programa.
Planeamos implementar Notas de la Comunidad en los próximos meses, comenzando en Estados Unidos, y continuaremos mejorando la función durante el año. A medida que avance esa transición, removeremos los controles que existen en Estados Unidos para regular la cantidad de piezas verificadas que las personas desean ver y la reducción en la distribución de contenidos verificados. Además, reemplazaremos las advertencias de pantalla completa que deben ser clicadas para poder acceder a la publicación por una etiqueta menos intrusiva que indicará la existencia de información adicional para quienes quieran verla.
Más Libre Discurso
A lo largo del tiempo, hemos desarrollado sistemas complejos para gestionar el contenido en nuestras plataformas que cada vez son más complicados de implementar. En consecuencia, hemos sido demasiado severos en la aplicación de nuestras reglas, limitando el debate político legítimo y censurando demasiado contenido inocuo, lo que ha llevado a que muchas personas sean objeto de la aplicación de normas frustrantes.
Por ejemplo, en diciembre de 2024 eliminamos millones de piezas a diario. Y aunque estas acciones representan menos del 1% del contenido producido diariamente, creemos que entre el 10% y el 20% pudieron haber sido errores; es decir, contenido que podría no haber violado nuestras políticas. Esto no incluye acciones contra ataques a gran escala. Planeamos expandir nuestros informes de transparencia para compartir la cantidad de errores cometidos de manera regular para que las personas puedan acompañar nuestro progreso. También proporcionaremos detalles sobre los errores que cometemos al aplicar nuestras políticas de spam.
Queremos deshacer el avance del abordaje que ha hecho que nuestras reglas sean demasiado restrictivas y propensas a una aplicación excesiva. Estamos eliminando una serie de limitantes sobre temas como la inmigración, la identidad de género y el género, que son objeto frecuente de discurso político y debate. No es justo que las cosas se puedan decir en la televisión o en el Congreso, pero no en nuestras plataformas. Estos cambios en las políticas pueden tardar algunas semanas en implementarse.
También vamos a cambiar cómo aplicamos nuestras políticas para reducir los errores que representan la mayor parte de la censura en nuestras plataformas. Hasta ahora, hemos utilizado sistemas automatizados para escanear todas las violaciones de políticas, pero esto ha causado demasiados errores y demasiado contenido fue censurado. Nos enfocaremos para que estos sistemas aborden violaciones graves e ilegales, como terrorismo, explotación sexual infantil, drogas, fraudes y estafas. Para violaciones más leves, vamos a basarnos en el reporte de alguna persona antes de adoptar cualquier medida.
Asimismo, degradamos demasiado contenido luego que nuestros sistemas lo estiman como potencialmente violatorio de nuestros estándares comunitarios. Estamos en proceso de eliminar la mayoría de esas reducciones y exigiremos tener un mayor nivel de confianza de que ese contenido se trata efectivamente de una violación. También ajustaremos nuestros sistemas para requerir un grado mucho mayor de certeza antes de eliminar un contenido. Como parte de estos cambios, removeremos el equipo de trust and safety que escribe nuestras políticas de contenido y hace sus revisiones desde California para trasladarlo a Texas y otros lugares en Estados Unidos.
A menudo las personas tienen la oportunidad de apelar la forma en que aplicamos nuestras políticas, pero el proceso puede ser frustrantemente lento y no siempre el resultado es correcto. Hemos agregado personal adicional para hacer este trabajo y en más casos requeriremos que varios revisores lleguen a una determinación antes de dar de baja un contenido.
Estamos trabajando para hacer que la recuperación de cuentas sea más sencilla, además de probar tecnología de reconocimiento facial. También hemos comenzado a utilizar modelos fundacionales de lenguaje (LLMs) para tener una segunda opinión sobre algunos contenidos antes de tomar medidas sobre ellos.
Un enfoque personalizado para el contenido político
Desde el 2021, hemos realizado cambios para reducir el contenido cívico que las personas ven -publicaciones sobre elecciones, política o asuntos sociales- basándonos en un pedido de nuestros usuarios. Pero fue un cambio muy brusco. Empezaremos a reintroducir este tipo de contenido en Facebook, Instagram y Threads con un enfoque más personalizado, de manera que las personas que quieran ver más publicaciones políticas en sus feeds puedan hacerlo.
Continuamente probamos formas para ofrecer experiencias personalizadas, y recientemente hemos realizado pruebas sobre contenido cívico. Como consecuencia, empezaremos a tratar el contenido cívico tanto de personas como de Páginas de Facebook de manera similar al resto de las publicaciones del feed y lo clasificaremos y mostraremos de acuerdo con señales explícitas (como darle «me gusta» a un contenido) e implícitas (como ver publicaciones) que nos ayudan a predecir qué es significativo para las personas. También recomendaremos más contenido político según estas señales personalizadas y ampliaremos las opciones que las personas tienen para controlar cuánto de este contenido ven.
Estos cambios son un intento por regresar al compromiso con la libertad de expresión que Mark Zuckerberg estableció en su discurso en Georgetown. Esto implica estar atentos al impacto de nuestras políticas y sistemas sobre la capacidad de las personas para hacer oír sus voces y tener humildad para cambiar nuestro enfoque cuando sepamos que no lo estamos haciendo bien.