Como una empresa que lleva más de una década a la vanguardia en el desarrollo de la IA, ha sido enormemente alentador ser testigos de la explosión de creatividad de las personas que utilizan nuestras nuevas herramientas de IA generativa, como nuestro generador de imágenes Meta AI, que ayuda a las personas a crear imágenes con simples indicaciones de texto.
A medida que se difumina la diferencia entre contenidos humanos y sintéticos, la gente quiere saber en dónde está el límite. Para muchas personas, esta es la primera vez que ven contenidos generados por IA y nuestros usuarios nos han dicho que valoran la transparencia en torno a esta nueva tecnología. Por eso es importante que ayudemos a la gente a saber cuándo un contenido fotorrealista ha sido creado con IA. Para ello, aplicamos la etiqueta «Imaginado con IA» a las imágenes fotorrealistas creadas con nuestra función Meta AI, pero queremos poder hacerlo también con los contenidos creados con herramientas de otras empresas.
Por eso hemos estado trabajando con socios del sector para desarrollar estándares técnicos comunes que indiquen cuando un contenido se ha creado con IA. La detección de estas señales nos permitirá etiquetar las imágenes generadas por IA que los usuarios publiquen en Facebook, Instagram y Threads. Estamos desarrollando esta capacidad y en los próximos meses empezaremos a aplicar etiquetas en todos los idiomas disponibles en cada aplicación. Adoptaremos este enfoque a lo largo del próximo año, durante el cual se llevarán a cabo varias elecciones importantes en todo el mundo. Durante este tiempo, esperamos aprender mucho más sobre cómo la gente crea y comparte contenidos de IA, qué tipo de transparencia considera más valiosa y cómo evolucionan estas tecnologías. Lo que aprendamos servirá como base para definir mejores prácticas en el sector y robustecerá nuestro enfoque de cara al futuro.
Un nuevo enfoque para identificar y etiquetar contenido generado por IA
Cuando se crean imágenes fotorrealistas con nuestra función Meta AI, hacemos varias cosas para asegurarnos de que la gente sepa que la AI está involucrada, incluyendo la colocación de marcadores visibles que se pueden ver en las imágenes, así como marcas de agua invisibles y metadatos incrustados dentro de los archivos de imagen. El uso de marcas de agua invisibles y metadatos mejora la solidez de estos marcadores invisibles y ayuda a otras plataformas a identificarlos. Esta es una parte importante del enfoque responsable que estamos adoptando para crear funciones de IA generativa.
Dado que los contenidos generados por IA aparecen en todo Internet, hemos estado trabajando con otras empresas del sector para desarrollar estándares comunes que permitan identificarlos a través de foros como el Partnership on AI (PAI). Los marcadores invisibles que utilizamos para las imágenes de Meta AI -metadatos IPTC y marcas de agua invisibles- se ajustan a las mejores prácticas de la PAI.
Estamos creando herramientas líderes en el sector capaces de identificar marcadores invisibles a escala -en concreto, la información «generada por IA» de los estándares técnicos C2PA e IPTC– para poder etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock a medida que ponen en marcha sus planes para añadir metadatos a las imágenes creadas por sus herramientas.
Aunque las empresas están empezando a incluir señales en sus generadores de imágenes, no han empezado a incluirlas en las herramientas de IA que generan audio y video a la misma escala, por lo que aún no podemos detectar esas señales y etiquetar este contenido de otras empresas. Mientras el sector trabaja para conseguirlo, vamos a añadir una función para que los usuarios nos informen cuando compartan video o audio generados por IA, de modo que podamos añadirles una etiqueta. Exigiremos a los usuarios que utilicen esta herramienta de divulgación y etiquetado cuando publiquen contenido orgánico con un video fotorrealista o un sonido realista que haya sido creado o alterado digitalmente, y podremos aplicar sanciones si no lo hacen. Si determinamos que el contenido de imagen, video o audio creado o alterado digitalmente crea un riesgo particularmente alto de engañar al público sobre un asunto de importancia, podremos añadir una etiqueta más prominente de ser necesario, para que la gente tenga más información y contexto.
Este enfoque representa la vanguardia de lo que es técnicamente posible ahora mismo. Pero aún no es posible identificar todos los contenidos generados por IA, y hay formas de eliminar los marcadores invisibles. Así que estamos estudiando varias opciones. Trabajamos duro para desarrollar clasificadores que nos ayuden a detectar automáticamente los contenidos generados por IA, aunque carezcan de marcadores invisibles. Al mismo tiempo, buscamos formas de dificultar la eliminación o alteración de las marcas de agua invisibles. Por ejemplo, FAIR, el laboratorio de investigación sobre IA de Meta, ha presentado recientemente una investigación sobre una tecnología de marcas de agua invisibles que estamos desarrollando llamada Stable Signature. Esta tecnología integra el mecanismo de marca de agua directamente en el proceso de generación de imágenes para algunos tipos de generadores de imágenes, lo que podría ser valioso para los modelos de código abierto, ya que la marca de agua no se puede desactivar.
Este trabajo es especialmente importante, ya que es probable que en los próximos años se convierta en un espacio cada vez más complejo. Las personas y organizaciones que quieran engañar activamente a la gente con contenidos generados por IA buscarán formas de eludir las salvaguardias que se establezcan para detectarlo. En nuestro sector y en la sociedad en general, tendremos que seguir buscando formas de ir un paso por delante.
Mientras tanto, es importante que la gente tenga en cuenta varias cosas a la hora de determinar si el contenido ha sido creado por IA, como comprobar si la cuenta que comparte el contenido es de confianza o buscar detalles que puedan parecer o sonar poco naturales.
Estos son los primeros días para la difusión de contenido generado por IA. A medida que se vuelva más común en los próximos años, habrá debates en toda la sociedad sobre lo que se debe y no se debe hacer para identificar tanto el contenido sintético como el no sintético. La industria y los reguladores pueden desarrollar formas de verificar el contenido que no ha sido creado utilizando IA, así como el contenido que sí lo ha hecho. Lo que establecemos hoy son los pasos que creemos apropiados para el contenido que se comparte en nuestras plataformas en este momento. Pero, seguiremos observando y aprendiendo mientras revisamos regularmente nuestro enfoque. Seguiremos colaborando con nuestros pares de la industria y dialogando con los gobiernos y la sociedad civil.
La IA es a la vez una espada y un escudo
Nuestras Normas Comunitarias se aplican a todos los contenidos publicados en nuestras plataformas, independientemente de cómo se hayan creado. Cuando se trata de contenido dañino, lo más importante es que seamos capaces de detectarlo y tomar medidas independientemente de si se ha generado o no utilizando IA. Y el uso de IA en nuestros sistemas de integridad es una parte importante de lo que nos permite detectarlos.
Llevamos años utilizando sistemas de IA para proteger a nuestros usuarios. Por ejemplo, nos ayudan a detectar y combatir el lenguaje que incita al odio y otros contenidos que infringen nuestras políticas. Esta es en gran parte la razón por la que hemos sido capaces de reducir la prevalencia del lenguaje que incita al odio en Facebook a solo 0.01-0.02% (correspondiente al tercer trimestre de 2023). En otras palabras, por cada 10,000 visualizaciones de contenido, calculamos que solo una o dos contendrán lenguaje que incita al odio.
Aunque utilizamos tecnología de IA para ayudar a cumplir nuestras políticas, nuestro uso de herramientas de IA generativa para este fin ha sido limitado. Aún así confiamos que la IA generativa podría ayudarnos a retirar contenidos nocivos con mayor rapidez y precisión, también podría ser útil para hacer cumplir nuestras políticas en momentos de mayor riesgo, como las elecciones. Empezamos a probar grandes modelos lingüísticos (LLM) entrenándolos con nuestras Normas Comunitarias para ayudarnos a determinar si un contenido infringe nuestras políticas. Estas pruebas iniciales sugieren que los LLM pueden funcionar mejor que los modelos de aprendizaje automático existentes. Además, estamos utilizando los LLM para eliminar contenidos de las filas de revisión en determinadas circunstancias, cuando estamos seguros de que no infringen nuestras políticas. Esto libera capacidad para que los revisores se centren en los contenidos que tienen más probabilidades de incumplir nuestras normas.
Los contenidos generados por IA también pueden ser verificados por nuestros socios independientes que revisan y etiquetan los contenidos desacreditados para que la gente disponga de información precisa cuando encuentre contenidos similares en Internet.
Meta es pionera en el desarrollo de IA desde hace más de una década y sabemos que el progreso y la responsabilidad pueden y deben ir de la mano. Las herramientas de IA generativa ofrecen enormes oportunidades, y creemos que es posible y necesario que estas tecnologías se desarrollen de forma transparente y responsable. Por eso queremos ayudar a la gente a saber cuando se han creado imágenes fotorrealistas con IA, y por eso también somos abiertos sobre los límites de lo que es posible. Seguiremos aprendiendo de cómo la gente utiliza nuestras herramientas para mejorarlas y seguiremos colaborando con otros a través de foros como PAI para desarrollar normas y medidas de seguridad comunes.