Por Guy Rosen, Vicepresidente de Gestión de Productos.
Hay dos formas para reconocer contenido inapropiado como videos terroristas, incitación al odio, pornografía o violencia: eliminarla cuando alguien lo reporte o encontrarlo proactivamente a través de la tecnología. Ambos son importantes, pero los avances en tecnología, incluso en inteligencia artificial, aprendizaje automático y visión artificial, significan que ahora podemos:
- Eliminar contenido inapropiado más rápido porque no siempre tenemos que esperar a que sea reportado. Cuando se trata de un suicidio, esto puede significar la diferencia entre la vida y la muerte porque en cuanto nuestra tecnología identifique que alguien expresó sentimientos de suicidio, podemos ofrecer ayuda o trabajar con los primeros en responder, lo que hemos hecho en más de mil casos
- Detectar más contenido porque no tenemos que esperar a que alguien más lo encuentre y reporte. Como anunciamos hace dos semanas, en el primer trimestre de 2018 eliminamos proactivamente casi dos millones de publicaciones de contenido de ISIS y Al-Qaeda: el 99 por ciento de las cuales fueron eliminadas antes de que alguien lo reportara a Facebook.
- Aumentar la capacidad de nuestro equipo de revisión para trabajar en casos en que se necesita experiencia humana para comprender el contexto o los matices de una situación particular. Por ejemplo, ¿alguien está hablando sobre su propia adicción a las drogas o animando a otros a tomar drogas?
Nos llevó tiempo desarrollar este software y estamos constantemente trabajando para mejorarlo. Hacemos esto mediante el análisis de ejemplos específicos de contenido inapropiado que ya fue reportado y eliminado, con el fin de identificar patrones de comportamiento. Estos patrones se pueden usar para enseñar a nuestro software a buscar proactivamente otros problemas similares.
- Desnudosy violencia gráfica: Estos son dos tipos muy diferentes de contenido, pero estamos utilizando mejoras en la visión computacional para eliminar ambos de forma proactiva.
- Discurso de odio: Comprender el contexto del discurso por lo general requiere ojos humanos: es un discurso de odio, o se lo comparte para condenar el discurso de odio o aumentar la conciencia al respecto? Comenzamos a implementar la tecnología para detectar de manera proactiva algo que pueda violar nuestras políticas, comenzando con ciertos idiomas, como inglés y portugués. Luego, nuestros equipos revisan el contenido, de modo que lo que está bien permanece en la plataforma. Un ejemplo es alguien que describe el odio que encontraron para concientizar sobre el problema.
- Cuentas falsas: Bloqueamos millones de cuentas falsas todos los días cuando se crean y antes de que puedan causar algún daño. Esto es muy importante en la lucha contra el spam, las noticias falsas, la desinformación y los anuncios inapropiados. Recientemente, empezamos a usar inteligencia artificial para detectar cuentas vinculadas a estafas financieras.
- Spam: La gran mayoría de nuestro trabajo para combatir el spam se realiza automáticamente mediante patrones reconocibles de comportamiento problemático. Por ejemplo, si una cuenta se publica una y otra vez en una sucesión rápida, eso es una señal fuerte de que algo está mal.
- Propaganda terrorista: La gran mayoría de este contenido se elimina automáticamente, sin la necesidad de que alguien lo reporte primero.
- Prevención del suicidio: Como se explicó anteriormente, identificamos de manera proactiva las publicaciones que pueden manifestar que las personas están en riesgo para que puedan obtener ayuda.
Cuando hablo de tecnología como la inteligencia artificial, la visión computacional o el aprendizaje automático, las personas a menudo se preguntan por qué no progresamos más rápido – y es una buena pregunta. La Inteligencia Artificial, por ejemplo, es muy prometedora, pero todavía estamos a años de que sea efectiva para todo tipo de contenido inapropiado porque el contexto es muy importante. Es por eso que tenemos personas que siguen revisando los informes.
Y, en términos más generales, la tecnología necesita grandes cantidades de datos de capacitación para reconocer patrones de comportamiento significativos, que a menudo nos faltan en los idiomas menos utilizados o en los casos que no se informan con frecuencia. Es por eso que normalmente podemos hacer más en inglés, ya que es el mayor conjunto de datos que tenemos en Facebook.
Pero estamos invirtiendo en tecnología para aumentar nuestra precisión en nuevos idiomas. Por ejemplo, Facebook AI Research (FAIR) está trabajando en un área llamada embeddings multilenguas como una forma potencial de abordar el tema desafío del lenguaje. Es por eso que a veces pedimos a las personas que reporten si las publicaciones contienen cierto tipo de contenido, para alentarlas a marcarlo para su revisión. Y es por eso que los informes que provienen de personas que usan Facebook son tan importantes, y por lo que pedimos a nuestra comunidad que por favor siga reportando. Trabajando juntos podemos ayudar a que Facebook sea más seguro para todos.