Meta

Creando funciones de Inteligencia Artificial generativa en forma responsable

Destaques:

Meta lleva más de una década siendo una empresa pionera en IA. Hemos lanzado más de 1.000 modelos de IA, bibliotecas y conjuntos de datos para investigadores, incluida la última versión de nuestro gran modelo lingüístico, Llama 2, que fue posibilitado mediante una colaboración con Microsoft.

En Connect 2023, anunciamos varias funciones nuevas de IA generativa que las personas pueden utilizar para hacer que las experiencias que tienen en nuestras plataformas sean aún más sociales e inmersivas. Esperamos que estas herramientas puedan ayudar a las personas de diversas maneras. Imaginemos un grupo de amigos que planean un viaje juntos. En un chat grupal, pueden pedir a un asistente de IA sugerencias de actividades para realizar o restaurantes para experimentar. O en otro caso, un profesor podría utilizar la IA para ayudar a crear clases empleando distintos estilos de aprendizaje personalizados para cada uno de los alumnos.

La construcción de esta tecnología conlleva la responsabilidad de desarrollar las mejores prácticas y las mejores políticas que sea posible. Aunque hay muchos casos de uso interesantes y creativos para la IA generativa, no siempre será perfecta. Los modelos subyacentes, por ejemplo, tienen el potencial de generar respuestas ficticias o exacerbar estereotipos que pueden aprender de los datos que fueron utilizado para su entrenamiento. Hemos incorporado las lecciones que aprendimos durante la última década a estas nuevas funciones, como es el caso de las notificaciones para que las personas puedan entender los límites de la IA generativa, o el de los clasificadores de integridad, que nos ayudan a detectar y eliminar respuestas peligrosas. Todo ello de acuerdo con las mejores prácticas del sector descritas en la Guía de uso responsable de Llama 2.

En consonancia con nuestro compromiso con desarrollar IA en forma responsable, también sometemos nuestros productos a pruebas de estrés para mejorar su seguridad y colaboramos regularmente con legisladores, especialistas del mundo académico y de la sociedad civil, entre  muchos otros miembros del sector, para avanzar en el uso responsable de esta tecnología. Desarrollaremos estas funciones paso a paso y lanzaremos las IA en fase beta. Seguiremos perfeccionando y mejorando estas funciones a medida que las tecnologías evolucionen y veamos cómo la gente las utiliza en su vida cotidiana.

Cómo trabajamos de forma responsable y priorizamos la seguridad de las personas

Los modelos de IA personalizados que impulsan nuevas experiencias basadas en texto, como Meta AI, nuestro asistente impulsado por modelos lingüísticos, se construyen sobre la base de Llama 2 y aprovechan sus principios fundacionales de seguridad y responsabilidad. También hemos invertido en medidas específicas para las funciones que anunciamos hoy.

Estamos compartiendo un recurso que explica las medidas que adoptamos para detectar posibles vulnerabilidades, reducir riesgos, mejorar la seguridad y reforzar la fiabilidad. Como por ejemplo:

¿Cómo protegemos la privacidad de las personas?

Debemos rendir cuentas acerca de la manera en que protegemos la privacidad de las personas a los reguladores, legisladores y distintos especialistas, y trabajamos con ellos para garantizar que lo que construimos siga las mejores prácticas y cumpla con las normas estrictas de protección de datos.

Creemos que es importante que las personas entiendan los tipos de datos que utilizamos para entrenar los modelos que impulsan nuestros productos de IA generativa. Por ejemplo, no utilizamos sus mensajes privados con amigos y familiares para entrenar nuestras IA. Podemos utilizar los datos de tu uso de los stickers de IA, como tus búsquedas de un sticker para utilizarlo en un chat, para mejorar nuestros modelos de stickers de IA. Puede obtener más información sobre los tipos de datos que utilizamos en nuestro artículo sobre privacidad de la IA generativa.

¿Cómo nos aseguramos de que las personas sepan usar las nuevas funciones y conozcan sus limitaciones?

Proveemos información dentro de las mismas funciones para ayudar a las personas a entender cuándo están interactuando con IA y cómo funciona esta nueva tecnología. Indicamos en la experiencia del producto que podría entregar resultados inexactos o inadecuados.

El año pasado publicamos 22 «Tarjetas de Sistema» para dar a los usuarios información comprensible sobre cómo nuestra IA toma decisiones y sus efectos. Hoy compartimos las nuevas tarjetas del sistema de IA generativa en el sitio web de IA de Meta, uno para los sistemas de IA que generan texto que alimenta Meta AI y otro para los sistemas de IA que generan imágenes para los stickers de IA, Meta AI, restyle y backdrop. Estas tarjetas incluyen una demostración interactiva para que los usuarios puedan ver cómo el perfeccionamiento de sus indicaciones afecta a los resultados de los modelos.

¿Cómo ayudamos a las personas a saber cuándo se crean las imágenes con nuestras funciones de IA?

Seguimos las mejores prácticas de la industria para que sea más difícil difundir información errónea con nuestras herramientas. Las imágenes creadas o editadas por Meta AI, restyle y backdrop tendrán marcadores visibles para que las personas sepan que el contenido fue creado por AI. También estamos desarrollando técnicas adicionales para incluir información dentro de los archivos de imagen que fueron creados por Meta AI, y tenemos la intención de ampliar esto a otras experiencias a medida que la tecnología mejore. No tenemos previsto añadir estas funciones a los stickers de IA, ya que no son fotorrealistas y es poco probable que induzcan a error a las personas haciéndoles creer que son reales.

Actualmente, la industria no tiene normas comunes para identificar y etiquetar los contenidos generados por IA. Creemos que deberían existir y es por eso que estamos trabajando con otras empresas, en foros como el Partnership on AI, con la expectativa de desarrollarlas.

¿Qué medidas estamos tomando para impedir que las personas difundan información errónea utilizando IA generativa?

La inteligencia artificial es un elemento clave para combatir la desinformación y otros contenidos nocivos. Por ejemplo, hemos desarrollado tecnologías de IA para que encuentren contenidos que son prácticamente duplicados de otros ya previamente verificados. También disponemos de una herramienta llamada Few-Shot Learner, que puede adaptarse más fácilmente para actuar con rapidez sobre tipos de contenidos nocivos nuevos o en evolución, y que funciona en más de 100 idiomas. Antes teníamos que recopilar miles o incluso millones de ejemplos para crear un conjunto de datos lo suficientemente grande como para entrenar un modelo de inteligencia artificial, y luego afinarlo para que funcionara correctamente. Few-Shot Learner puede entrenar un modelo de IA basado en apenas un puñado de ejemplos.

La IA generativa podría ayudarnos a eliminar contenidos nocivos con mayor rapidez y precisión que las actuales herramientas de IA. Hemos empezado a probar grandes modelos lingüísticos (LLM) entrenándolos con nuestras Normas Comunitarias para ayudarnos a determinar si un contenido infringe o no nuestras políticas. Estas pruebas iniciales sugieren que los LLM pueden funcionar mejor que los modelos de aprendizaje automático existentes, o al menos mejorar algunos, como Few-Shot Learner, y somos optimistas en que la IA generativa pueda ayudarnos a aplicar nuestras políticas en el futuro.