La inteligencia artificial mejora cada día. Aquí te contamos lo que eso representa para frenar el discurso de odio.
Las cifras que Facebook publicó hoy en el más reciente Informe de Cumplimiento de Normas Comunitarias son prueba de las diversas formas en las que la tecnología está ofreciendo los avances que el mundo necesita. En los últimos tres meses de 2020 mejoramos significativamente la detección proactiva del discurso de odio y el contenido de bullying y acoso: 97% del discurso de odio que fue retirado de Facebook fue detectado por nuestros sistemas automatizados antes de que un humano lo detectara, en comparación a un 94% del trimestre anterior y 80,5% de finales de 2019.
Lo que es más importante, este porcentaje aumentó 24% en comparación a finales de 2017, un ritmo de mejora que rara vez vemos en tecnologías que se despliegan a tal escala. Si observamos las veces en las que las nuevas tecnologías han ayudado a resolver los problemas más difíciles a los que se enfrenta nuestro mundo, desde curar enfermedades hasta producir automóviles más seguros, los avances se produjeron de forma incremental a lo largo de décadas, a medida que las tecnologías se perfeccionaban y mejoraban.
Hoy en día escucho la misma historia de mejoras constantes y continuas cuando hablo con los ingenieros que construyen sistemas de inteligencia artificial que pueden evitar que el discurso de odio y otros contenidos no deseados se propaguen por Internet.
Lo que resulta muy alentador es que todo el campo de la IA avanza mes con mes, lo que se traduce en avances espectaculares por año.
Detrás de estas alentadoras cifras, hay historias de progreso constante, impulsadas por la tecnología de IA, que está dando mejores resultados, incluso cuando la naturaleza de los desafíos evoluciona y las personas se esfuerzan por evadir la detección de nuestros sistemas.
Un ejemplo de ello es la forma en que nuestros sistemas detectan ahora el contenido violatorio en los comentarios de las publicaciones. Esto ha sido históricamente un reto para la IA, porque determinar si un comentario viola nuestras políticas a menudo depende del contexto de la publicación a la que responde. «Esta es una gran noticia» puede significar cosas totalmente diferentes cuando se escribe debajo de publicaciones que anuncian el nacimiento de un hijo y la muerte de un ser querido.
A lo largo de 2020, nuestros ingenieros trabajaron para mejorar la forma en que nuestros sistemas de IA analizan los comentarios, teniendo en cuenta tanto los propios comentarios como su contexto. Esto requirió una comprensión mejor y más profunda del lenguaje, así como la capacidad de combinar análisis de imágenes, texto y otros detalles dentro de una publicación.
Como muchos de los avances tecnológicos más importantes, este trabajo no fue revolucionario sino evolutivo. Nuestros equipos reunieron mejores datos de aprendizaje, mejores características y mejores modelos de IA para producir un sistema que analiza mejor los comentarios y aprende continuamente de los nuevos datos. Los resultados de estos esfuerzos son evidentes en las cifras publicadas hoy: en los tres primeros meses de 2020, nuestros sistemas solo detectaron 16% de los contenidos de acoso e intimidación sobre los que actuamos antes de que alguien los denunciara. Al final del año, esa cifra había aumentado a casi 49%, lo que significa que se detectaron y eliminaron millones de contenidos adicionales por infringir nuestras políticas antes de que alguien los reportara. Esperamos que haya más mejoras a medida que el campo de la tecnología de IA siga avanzando.
Índice de detección proactiva de 97,1 % en el cuarto trimestre de 2020
La IA ahora detecta más discursos de odio que han sido eliminados de Facebook de forma proactiva, lo que supone un aumento de 2,4% en un trimestre.
Otra área de mejora ha sido la forma en que actualmente funcionan nuestros sistemas en varios idiomas. Gracias, en gran medida, a las mejoras en la forma en que nuestras herramientas de IA pueden detectar contenidos infractores en idiomas ampliamente hablados como el español y el árabe, la cantidad de contenidos de incitación al odio que se retiraron alcanzó los 26,9 millones, frente a los 22,1 millones del trimestre anterior.
La mejora en estas lenguas extranjeras se debe a que todo un paquete de tecnologías de IA dio un salto importante el año pasado. Ya hemos escrito sobre Linformer, una nueva arquitectura que nos permite entrenar modelos de IA en textos más largos y complejos, y sobre RIO, un nuevo sistema que permite a nuestras herramientas de moderación de contenidos aprender y mejorar constantemente en función de los nuevos contenidos que se publican en Facebook cada día.
Lo que realmente me enorgullece no es sólo que estas tecnologías de vanguardia hagan que nuestras plataformas sean mejores y más seguras, sino que hayamos publicado la investigación que las sustenta y hayamos liberado el código, lo que permite a los investigadores académicos y a los ingenieros de todo el sector trabajar con lo que hemos construido.
A pesar de estas mejoras alentadoras, aún queda mucho por hacer. Un área de interés particular es conseguir que la IA mejore aún más en la detección de contenidos dentro del contexto en distintos idiomas, culturas y geografías. Las mismas palabras pueden interpretarse a menudo como benévolas u ofensivas, dependiendo de dónde se publiquen y quién las lea. Entrenar a las máquinas para que capten estos matices es especialmente difícil.
Pero, al igual que muchos otros desafíos, estamos viendo avances continuos y la evolución constante de nuestras capacidades de IA no muestra signos de desaceleración. Aunque 2020 fue un año de mejora constante en el desempeño de nuestros sistemas, también fue un año en el que nuestros científicos de investigación realizaron avances fundamentales que se trasladarán de sus laboratorios a nuestros sistemas centrales más rápido que nunca. Estoy seguro de que el año que viene se revelarán tecnologías totalmente nuevas que se sumarán a las que impulsaron tantos avances en 2020.