Por Nick Clegg, VP de Asuntos Públicos y Comunicaciones
La polarización y las tensiones que atraviesan a la sociedad se reflejan en las redes sociales. Y plataformas como Facebook son el espejo de esas discusiones: con más de 3 mil millones de personas usando las aplicaciones de Facebook mensualmente, todo lo bueno, lo malo y lo feo de nuestras sociedades encontrará un lugar para ser expresado. Eso pone una gran responsabilidad en Facebook y en otras compañías de redes sociales para decidir qué contenido es aceptable.
Facebook ha recibido muchas críticas en las últimas semanas por su decisión de permitir que publicaciones controvertidas del presidente estadounidense, Donald Trump, se mantengan en la plataforma, y también fue cuestionada por personas y empresas que se anuncian en nuestros servicios sobre cómo abordamos el discurso de odio. Quiero ser claro: Facebook no se beneficia del odio. Miles de millones de personas usan Facebook e Instagram porque tienen buenas experiencias en nuestras apps. Nuestra comunidad no quiere ver contenido de odio, nuestros anunciantes no quieren verlo, y nosotros tampoco. No hay incentivo alguno para que hagamos otra cosa que no sea eliminarlo.
Más de 100 mil millones de mensajes son publicados diariamente en nuestros servicios. Somos nosotros hablando, compartiendo nuestras vidas, nuestras opiniones, nuestras esperanzas y nuestras experiencias. En esas miles de millones de interacciones, una pequeña fracción es contenido de odio. Cuando encontramos publicaciones de este tipo en Facebook e Instagram, tenemos tolerancia cero y las removemos. Cuando un contenido no clasifica para ser tratado como discurso de odio, ni es considerado dentro de otras políticas destinadas a prevenir daños o la supresión del voto, nos inclinamos por la libre expresión, porque en última instancia, la mejor manera de contrarrestar el discurso ofensivo, divisivo y dañino es con más conversación. Exponerlo a la luz es mejor que esconderlo en las sombras.
Desafortunadamente, la tolerancia cero no significa cero casos. Con el volumen de contenido que se publica diariamente en nuestras plataformas, erradicar el odio es como buscar una aguja en un pajar. Invertimos miles de millones de dólares anuales en recursos humanos y tecnología para mantener nuestra plataforma segura. Hemos triplicado nuestro equipo de seguridad hasta llegar a las actuales 35 mil personas. Somos pioneros en la aplicación de inteligencia artificial para eliminar contenido de odio a escala.
Y hemos progresado. Un informe reciente de la Comisión Europea reveló que Facebook revisó el 95,7% de los reportes de discurso de odio en menos de 24 horas, más rápido que YouTube y Twitter. El mes pasado, informamos que removimos casi el 90% del discurso de odio que encontramos antes de que alguien lo reportara. Esto representó un aumento del 24% en nuestra eficacia en poco más de dos años. Actuamos sobre 9,6 millones de piezas de contenido en el primer trimestre del 2020, frente a los 5,7 millones del trimestre anterior. Y el 99% del contenido de ISIS y Al Qaeda que eliminamos es retirado antes de que alguien lo reporte.
Estamos mejorando, pero no somos complacientes. Es por eso que anunciamos recientemente nuevas políticas y productos para asegurar que todos puedan mantenerse seguros, informados y, en última instancia, puedan usar su voz donde más importa: el voto. Esto incluye el despliegue de la mayor campaña de información electoral en la historia de los EEUU, una iniciativa que busca registrar a cuatro millones de votantes. También, implementamos actualizaciones a las políticas diseñadas para combatir la supresión del voto y el discurso de odio. Muchos de estos cambios son el resultado directo de contribuciones de la comunidad de derechos civiles. Seguiremos trabajando con ellos y junto a otros expertos para ajustar nuestras políticas y abordar nuevos riesgos a medida que vayan surgiendo.
Es comprensible y necesario hacer foco en el discurso de odio y en otros tipos de contenido dañino en las redes sociales, pero vale la pena recordar que la gran mayoría de las conversaciones que suceden son positivas.
Lo vimos cuando se desató la pandemia de coronavirus. Miles de millones de personas usaron Facebook para mantenerse conectadas cuando estaban físicamente separadas. Abuelos y nietos, hermanos y hermanas, amigos y vecinos. Y más que eso, las personas se unieron para ayudarse mutuamente. Se formaron miles y miles de grupos locales, y millones de personas se organizaron para ayudar a los más vulnerables en sus comunidades. Otras, para celebrar y apoyar a los trabajadores de la salud. Y cuando las empresas tuvieron que cerrar sus puertas al público, para muchos, Facebook fue su salvavidas. Más de 160 millones de negocios usan las herramientas gratuitas de Facebook para llegar a los clientes, y muchos las emplearon para mantenerse a flote, lo que ayudó a preservar empleos y el sustento de muchas personas.
Es importante destacar que Facebook contribuyó para que las personas obtuvieran información precisa y confiable sobre temas sanitarios. Orientamos a más de 2 mil millones de personas en Facebook e Instagram para que accedan a la información de la Organización Mundial de la Salud y de otras autoridades de salud pública. Y más de 350 millones de personas hicieron clic para ver ese contenido.
Y vale la pena recordar que cuando las cosas más oscuras están sucediendo en nuestra sociedad, las redes sociales les brindan a las personas una herramienta para echar luz. Para mostrarle al mundo lo que está sucediendo; organizarse contra el odio y unirse; y para que millones en todo el mundo expresen su solidaridad. Lo hemos visto en innumerables ocasiones, y lo estamos viendo ahora mismo con el movimiento Black Lives Matter.
Es posible que nunca podamos erradicar el odio por completo en Facebook, pero estamos mejorando constantemente en la tarea de detenerlo.
*Columna publicada en exclusiva en La Nación (Argentina), Valor Económico (Brasil), El Tiempo (Colombia) y El Universal (México) en América Latina.