Nuestra Respuesta contra los Medios manipulados 

Por Monika Bickert, Vicepresidente de Global Policy Management

Las personas comparten millones de fotos y videos en Facebook todos los días, creando algunas de las imágenes más atractivas y creativas en nuestra plataforma. Parte de ese contenido es manipulado, a menudo por buenas razones, como tornar un video más nítido o un audio más entendible. Pero hay personas que lo hacen con el objetivo de engañar a otros.

Las manipulaciones se pueden hacer a través de una tecnología simple como la del Photoshop o mediante herramientas sofisticadas que usan inteligencia artificial o técnicas de «aprendizaje profundo» para crear videos que distorsionan la realidad, usualmente llamados «deepfakes». Si bien estos videos aún son raros en Internet, presentan desafíos importantes para nuestra industria y para la sociedad a medida que aumenta su uso. 

Hoy, queremos compartir nuestro abordaje para las deepfakes y para cualquier otro tipo de medio manipulado. Nuestra estrategia tiene varios componentes, que van desde la investigación de contenido generado por Inteligencia artificial (AI) y comportamientos engañosos, como las cuentas falsas, hasta alianzas con académicos, el gobierno y la industria para dejar expuestos a quienes estén detrás de estas acciones. 

La colaboración es clave. Hemos conversado con más de 50 especialistas a nivel global, provenientes de áreas técnicas, de la política, de los medios, del derecho, de organizaciones cívicas y del mundo académico para informarles sobre nuestras políticas y mejorar la ciencia de detección de medios manipulados.

Como resultado de estas asociaciones y de estas discusiones, estamos fortaleciendo la aplicación de nuestras políticas para videos manipulados que hayan sido identificados como deepfakes. En adelante,  eliminaremos contenido que haya sido manipulado con el objetivo de engañar a otros si cumple con los siguientes criterios:

  • Fue editado o sintetizado, más allá de ajustes para mejorar su claridad o calidad, de manera que no son aparentes para una persona común y que podrían llevar a pensar que alguien dijo palabras que en realidad no pronunció.
  • Es producto de la inteligencia artificial o del aprendizaje automático que combina, reemplaza o superpone contenido en un video, haciendo que parezca auténtico.

Esta política no aplica para contenidos como la parodia o la sátira, o videos que han sido editados para omitir palabras o cambiar el orden de las mismas.

En línea con nuestras políticas, cualquier audio, foto o video, ya sea un deepfake o no, será eliminado de Facebook si viola nuestras Normas Comunitarias, incluyendo desnudos, violencia gráfica, contenido que procura suprimir votos y discurso de odio.

Los videos que no cumplan con los estándares definidos para su eliminación podrán ser chequeados por uno de los 55 verificadores de información que trabajan en más de 40 idiomas en todo el mundo.  Si un verificador califica una foto o un video como falso, o parcialmente falso, reducimos significativamente su distribución en el News Feed. Y si es publicado como un anuncio, lo rechazamos. Esta iniciativa también muestra una advertencia, indicando que el contenido fue marcado como falso, a las personas que lo ven, a quienes intenten compartirlo, o a quienes ya lo hayan hecho.

Este abordaje es crítico para nuestra estrategia y es consistente con lo que hemos escuchado de parte de los especialistas. Si simplemente elimináramos todos los videos manipulados, calificados como falsos por los verificadores, aún seguirían disponibles en internet o dentro del ecosistema de redes sociales. Al etiquetarlos como falsos, aportamos a las personas información y contexto relevante sobre ellos.

Nuestro enfoque para hacer cumplir las normas contra los medios manipulados también se beneficia de nuestro trabajo para perseguir a quienes están detrás de estas acciones. El mes pasado identificamos y eliminamos una red que usaba fotos generadas con inteligencia artificial para enmascarar cuentas falsas. Nuestros equipos continúan buscando activamente cuentas falsas y otros comportamientos coordinados inauténticos.

También trabajamos para identificar contenido manipulado, cuyo exponente más difícil de detectar son las deepfakes. Por esa razón lanzamos en septiembre del año pasado el Deep Fake Detection Challenge, que alentó a personas de todo el mundo a realizar investigaciones y generar herramientas de código abierto para detectar las falsificaciones profundas. Este proyecto dispone de una financiación de 10 millones de dólares y contempla una coalición de organizaciones, que incluye a la Asociación sobre IA, Cornell, MIT, WITNESS, Microsoft, BBC y AWS, entre muchas otras de la sociedad civil y de la tecnología, de los medios y de la comunidad académica.

También nos hemos asociado con Reuters, el mayor proveedor de noticias multimedia del mundo, para ayudar a los periodistas a identificar deepfakes y medios manipulados a través de un curso gratuito de capacitación en línea. Para los grandes volúmenes de imágenes y videos, las organizaciones editoriales dependen cada vez más de terceros, lo que convierte a la identificación de imágenes manipuladas en un desafío mayor. Este programa apoya los esfuerzos de las redacciones para esta tarea.

Mientras nuestras alianzas y nuestras propias ideas evolucionan, lo mismo acontece con nuestras políticas sobre medios manipulados. Estamos comprometidos a invertir y a trabajar con todos los interesados ​​en esta área para encontrar soluciones con un impacto real.



Utilizamos cookies para personalizar contenido, adaptar y medir los anuncios, y proporcionar una experiencia más segura. Al hacer clic o navegar en el sitio, aceptas que recopilemos información dentro y fuera de Facebook mediante cookies. Consulta más información, incluida información relativa a los controles disponibles en: Política de cookies