Actualizado el 12 de septiembre de 2024
En breve, estaremos implementando un cambio en las etiquetas de «Información de IA» en nuestras plataformas para que reflejen mejor el alcance del uso de la IA en el contenido. Nuestra intención siempre ha sido ayudar a las personas a saber cuándo ven contenido generado con IA, y continuamos trabajando con otras empresas de la industria para mejorar nuestro proceso de etiquetado; buscamos que las etiquetas en nuestras plataformas estén más en línea con las expectativas del público.
Para el contenido que detectamos que solo fue modificado o editado por herramientas de IA, llevaremos la etiqueta de «Información de IA» al menú de la publicación. Seguiremos mostrando la etiqueta de «Información de IA» para el contenido que detectamos fue generado por una herramienta de IA, y también compartiremos si el contenido está etiquetado debido a señales recibidas por la industria o porque la persona que publicó el contenido lo informó. Estos cambios comenzarán a implementarse la próxima semana.
Actualizado el 1 de julio de 2024
Queremos que las personas sepan cuando una publicación fue generada con Inteligencia Artificial (AI). Este año, anunciamos un nuevo enfoque para identificar ese tipo de contenido y una parte importante de este enfoque depende de los indicadores estándar que emplea la industria y que son incluidos en el contenido que crean con sus propias herramientas. Eso nos ayuda a evaluar si algo fue originado mediante el uso de IA.
Al igual que otras empresas de esta industria, encontramos que nuestras etiquetas basadas en esos indicadores no siempre están alineadas con las expectativas que tienen las personas ni proveen suficiente contexto. Por ejemplo, algunos contenidos que fueron modificados levemente con IA, como las herramientas que se usan para hacer retoques, contenían esos indicadores estándar de la industria y, por lo tanto, eran etiquetados como «Creado con IA». Mientras trabajamos con toda la industria para mejorar el proceso para que nuestro esquema de etiquetas esté mejor alineado con lo que pretendemos, estamos actualizando la leyenda de «Creado con IA»por «Información de IA» en nuestras plataformas, donde las personas podrán encontrar más información.
**
Publicado el 5 de abril de 2024
Estamos haciendo cambios en la forma en que tratamos los contenidos manipulados en Facebook, Instagram y Threads con base en la retroalimentación que recibimos del Consejo asesor de contenido, que apunta que debemos actualizar nuestro enfoque para reflejar una gama más amplia del contenido que existe hoy y proporcionar contexto sobre el contenido a través de etiquetas. Estos cambios también se basan en el proceso de revisión de la política de Meta, que incluyó encuestas de opinión pública extensas y consultas con académicos, organizaciones de la sociedad civil y otros.
Estamos de acuerdo con el argumento del Consejo asesor de contenido que sustenta que nuestro enfoque actual es demasiado limitado, ya que solo cubre los videos creados o alterados por IA que hacen parecer que una persona dice algo que no ha dicho. Nuestra política sobre contenidos manipulados se redactó en 2020, cuando los contenidos realistas generados por IA eran escasos y la preocupación general se centraba en los videos. En los últimos cuatro años, y especialmente en el último, se han desarrollado otros tipos de contenidos realistas generados por IA, como audio y fotos, y esta tecnología está evolucionando rápidamente. Como señaló el Consejo, está claro que la manipulación para mostrar a una persona haciendo algo que no ha hecho es igualmente importante de abarcar.
El Consejo también argumentó que arriesgamos de forma innecesaria la libertad de expresión al eliminar los contenidos manipulados que no infringen otras de nuestras políticas. Recomendó un enfoque «menos restrictivo» para los contenidos manipulados, como etiquetas con contexto. En febrero, anunciamos que hemos estado trabajando con socios de la industria en normas técnicas comunes para identificar contenidos de IA, incluidos video y audio. Nuestras etiquetas «Creado con IA» en video, audio e imágenes generados por IA se basarán en nuestra detección de señales de imágenes de IA y en si las personas indican que están subiendo contenidos generados por IA. Ya añadimos «Imaginado con IA» a las imágenes fotorealistas creadas con nuestra función Meta AI.
Estamos de acuerdo en que ofrecer transparencia y contexto adicional es ahora la mejor manera de tratar estos contenidos. Las etiquetas abarcarán una gama más amplia de contenidos, además de los contenidos manipulados que el Consejo asesor de contenido recomendó etiquetar. Si determinamos que una imagen, un video o un audio creados o alterados digitalmente representan un riesgo particularmente alto de engañar materialmente al público sobre un asunto de importancia, podremos añadir una etiqueta más destacada para que la gente tenga más información y contexto. Este enfoque general proporciona a las personas más información sobre el contenido para que puedan evaluarlo mejor y para que tengan más contexto si ven el mismo contenido en otro lugar.
Mantendremos este contenido en nuestras plataformas añadiendo etiquetas informativas y contexto, a menos que infrinja nuestras políticas. Por ejemplo, eliminaremos el contenido, independientemente de que haya sido creado por IA o por una persona, si infringe nuestras políticas contra la supresión del voto, bullying y acoso, violencia e incitación, o cualquier otra política incluida en nuestras Normas Comunitarias. También contamos con una red de casi 100 verificadores de datos independientes que seguirán revisando los contenidos falsos y engañosos generados por IA. Cuando los verificadores de datos califican un contenido como Falso o Alterado, lo mostramos más abajo en el Feed para que lo vea menos gente, y añadimos una etiqueta superpuesta con información adicional. Además, rechazamos anuncios cuando incluyen contenido desacreditado y, desde enero, los anunciantes tienen que indicar cuando crean o alteran digitalmente un anuncio político o social en determinados casos
Tenemos previsto empezar a etiquetar los contenidos generados por IA en mayo de 2024, y en julio dejaremos de eliminar contenidos basándonos únicamente en nuestra política de videos manipulados. Este marco de tiempo da tiempo para que la gente entienda el proceso para auto etiquetar contenido antes de que dejemos de eliminar el subconjunto más pequeño de contenido manipulado.
El Proceso de políticas sustentado en opiniones de expertos mundiales y encuestas públicas
En la primavera de 2023, empezamos a revaluar nuestras políticas para ver si necesitábamos un nuevo enfoque para seguir el ritmo de los rápidos avances tecnológicos y el uso de la IA generativa. Consultamos a más de 120 partes interesadas en 34 países de las principales regiones del mundo. En general, recibimos un amplio apoyo para etiquetar los contenidos generados por IA y un fuerte respaldo a una etiqueta más prominente en escenarios de alto riesgo. Muchas partes interesadas se mostraron receptivas al concepto de que las personas revelen por sí mismas los contenidos generados por IA.
La mayoría de las partes interesadas coincidieron en que la eliminación debería limitarse únicamente a los casos de mayor riesgo en los que el contenido pueda estar vinculado a un daño, ya que la IA generativa se está convirtiendo en una herramienta de expresión creativa de uso generalizado. Esto está alineado con los principios en los que se basan nuestras Normas Comunitarias: que las personas sean libres de expresarse y, al mismo tiempo, estén seguras en nuestras plataformas.
También realizamos un estudio de opinión pública con más de 23.000 encuestados en 13 países y preguntamos a la gente cómo deberían abordar las empresas de redes sociales, como Meta, los contenidos generados por IA en sus plataformas. Una gran mayoría (82%) está a favor de las etiquetas de advertencia para los contenidos generados por IA que muestran a personas diciendo cosas que no han dicho.
Además, el Consejo asesor de contenido señaló que sus recomendaciones se basan en consultas con organizaciones de la sociedad civil, académicos, organizaciones intergubernamentales y otros expertos.
Basándonos en los comentarios de los expertos y del público, estamos tomando medidas que consideramos adecuadas para plataformas como la nuestra. Queremos ayudar a la gente a saber cuándo se han creado o editado imágenes fotorealistas utilizando IA, por lo que seguiremos colaborando con colegas del sector a través de foros como Partnership on AI y mantendremos un diálogo constante con los gobiernos y la sociedad civil, y seguiremos revisando nuestro enfoque a medida que avance la tecnología.