Meta

Lancement de Llama 3.1 : nos modèles les plus performants à ce jour

Les nouveautés : 

Jusqu’à aujourd’hui, les grands modèles de langage open-source étaient généralement en retard par rapport à leurs homologues closed-source en termes de capacités et de performances. Aujourd’hui, nous entrons dans une nouvelle ère où l’open-source ouvre la voie. Nous dévoilons Llama 3.1 405B, que nous considérons comme le modèle de fondation le plus grand et le plus performant au monde, disponible en libre accès. Avec plus de 300 millions de téléchargements de toutes les versions de Llama à ce jour, nous ne faisons que commencer.

Présentation de Llama 3.1

Llama 3.1 405B est le premier modèle disponible en libre accès qui rivalise avec les meilleurs modèles d’IA en termes de capacités de pointe dans les domaines de la connaissance générale, de l’orientation, des mathématiques, de l’utilisation d’outils et de la traduction multilingue. Avec la sortie du modèle 405B, nous sommes prêts à stimuler l’innovation, avec des possibilités de croissance et d’exploration sans précédent. Nous pensons que la dernière génération de Llama va donner naissance à de nouvelles applications et à de nouveaux paradigmes de modélisation, y compris la génération de données synthétiques pour permettre l’amélioration et l’entraînement de modèles plus petits, ainsi que la distillation de modèles – une capacité qui n’a jamais été atteinte à cette échelle dans le domaine de l’open-source.

Dans le cadre de la dernière version, nous présentons des versions améliorées des modèles 8B et 70B. Ceux-ci sont multilingues et disposent d’une longueur de de contexte nettement plus importante (128 Ko), d’une utilisation d’outils de pointe et de capacités de raisonnement globalement plus solides. Cela permet à nos derniers modèles de prendre en charge des cas d’utilisation avancés, tels que le résumé de textes longs, les agents conversationnels multilingues et les assistants de codage. Nous avons également modifié notre licence, ce qui permet aux développeurs d’utiliser les résultats des modèles Llama, y compris le 405B, pour améliorer d’autres modèles. Fidèles à notre engagement en faveur de l’open-source, nous mettons dès aujourd’hui ces modèles à la disposition de la communauté pour téléchargement sur llama.meta.com et Hugging Face, ainsi que pour le développement immédiat sur notre vaste écosystème de plateformes partenaires.

Évaluations du modèle 

Pour cette version, nous avons évalué les performances sur plus de 150 ensembles de données de référence couvrant un large éventail de langues. En outre, nous avons réalisé des évaluations humaines approfondies qui comparent Llama 3.1 à des modèles concurrents dans des scénarios réels. Notre évaluation expérimentale suggère que notre modèle phare est compétitif par rapport aux principaux modèles de fondation sur une série de tâches, y compris GPT-4, GPT-4o, et Claude 3.5 Sonnet. En outre, nos petits modèles sont compétitifs par rapport aux modèles closed et open-source qui ont un nombre similaire de paramètres.

 

Architecture du modèle

L’entraînement de Llama 3.1 405B sur plus de 15 trillions de tokens, notre plus grand modèle à ce jour, a constitué un défi majeur. Pour permettre des entraînements à cette échelle et obtenir les résultats que nous avons obtenus dans un délai raisonnable, nous avons considérablement optimisé notre pile d’entraînement complète et poussé l’entraînement de notre modèle sur plus de 16 000 GPU H100, faisant du 405B le premier modèle Llama entraîné à cette échelle.

Pour y remédier, nous avons fait des choix de conception qui visent à maintenir le processus de développement du modèle évolutif et simple.

Par rapport aux versions précédentes de Llama, nous avons amélioré à la fois la quantité et la qualité des données que nous utilisons pour la pré- et la post-formation. Ces améliorations comprennent le développement de pipelines de pré-traitement et de curation plus minutieux pour les données de pré-entraînement, le développement d’une assurance qualité plus rigoureuse et des approches de filtrage pour les données de post-entraînement.

Comme prévu par les lois d’échelle pour les modèles de langage, notre nouveau modèle phare surpasse les modèles plus petits formés à l’aide de la même procédure. Nous avons également utilisé le modèle de paramètres 405B pour améliorer la qualité post-entraînement de nos modèles plus petits.

Pour soutenir l’inférence de production à grande échelle pour un modèle à l’échelle du 405B, nous avons quantifié nos modèles de 16 bits (BF16) à 8 bits (FP8) numériques, réduisant efficacement les exigences de calcul nécessaires et permettant au modèle de fonctionner dans un seul nœud de serveur.

Fine-tuning de l’instruction et du chat

Avec Llama 3.1 405B, nous nous sommes efforcés d’améliorer l’utilité, la qualité et la capacité du modèle à suivre des instructions détaillées en réponse aux instructions de l’utilisateur, tout en garantissant des niveaux élevés de sécurité. Nos plus grands défis ont été la prise en charge d’un plus grand nombre de capacités, la fenêtre contextuelle de 128K et l’augmentation de la taille des modèles.

En post-entraînement, nous produisons des modèles de chat finaux en effectuant plusieurs cycles d’alignement sur le modèle pré-entraîné. Chaque cycle implique un fine-tuning supervisé (supervised fine-tuning – SFT), un échantillonnage par rejet (Rejection Sampling – RS) et une optimisation directe des préférences (Direct Preference Optimization – DPO). Nous utilisons la génération de données synthétiques pour produire la grande majorité de nos exemples de SFT, en itérant plusieurs fois pour produire des données synthétiques de qualité de plus en plus élevée pour toutes les capacités. En outre, nous investissons dans de multiples techniques de traitement des données pour filtrer ces données synthétiques afin d’obtenir la meilleure qualité possible. Cela nous permet d’adapter la quantité de données fine-tunées à l’ensemble des capacités.

Nous équilibrons soigneusement les données afin de produire un modèle de haute qualité pour toutes les capacités. Par exemple, nous maintenons la qualité de notre modèle sur les benchmarks à fenêtre de contexte court, même lorsque nous l’étendons à un contexte de 128K. De même, notre modèle continue à fournir des réponses maximalement utiles, même lorsque nous ajoutons des mesures d’atténuation de la sécurité.

Le système Llama

Les modèles Llama ont toujours été conçus pour fonctionner dans le cadre d’un système global capable d’orchestrer plusieurs composants, y compris l’appel à des outils externes. Notre vision est d’aller au-delà des modèles de fondation pour donner aux développeurs l’accès à un système plus large qui leur donne la flexibilité de concevoir et de créer des offres personnalisées qui s’alignent sur leur vision. Cette réflexion a débuté l’année dernière lorsque nous avons présenté pour la première fois l’incorporation de composants en dehors du LLM principal.

Dans le cadre de nos efforts continus pour développer l’IA de manière responsable au-delà de la couche de modèle et pour aider les autres à faire de même, nous publions un système de référence complet qui comprend plusieurs exemples d’applications et de nouveaux composants tels que Llama Guard 3, un modèle de sécurité multilingue, et Prompt Guard, un filtre d’injection de prompts. Ces exemples d’applications sont en open-source et peuvent être utilisés par la communauté.

La mise en œuvre des composants de cette vision du système Llama est encore fragmentée. C’est pourquoi nous avons commencé à travailler avec l’industrie, les start-up et la communauté au sens large pour aider à mieux définir les interfaces de ces composants. Pour ce faire, nous lançons un appel à commentaires sur GitHub pour ce que nous appelons « Llama Stack ». Llama Stack est un ensemble d’interfaces standardisées et validées pour la construction de composants canoniques de la chaîne d’outils (fine-tuning, génération de données synthétiques) et d’applications agentiques. Nous espérons que ces interfaces seront adoptées par l’ensemble de l’écosystème, ce qui devrait faciliter l’interopérabilité.

Nous sommes ouverts à tout commentaire et à toute amélioration de la proposition. Nous sommes impatients de développer l’écosystème autour de Llama et d’abaisser les barrières pour les développeurs et les fournisseurs de plateformes.

L’approche ouverte favorise l’innovation

Contrairement aux modèles fermés, les poids des modèles Llama peuvent être téléchargés. Les développeurs peuvent entièrement personnaliser les modèles en fonction de leurs besoins et de leurs applications, s’entraîner sur de nouveaux ensembles de données et procéder à des ajustements supplémentaires. Cela permet à l’ensemble de la communauté des développeurs et au monde entier de mieux réaliser la puissance de l’IA générative. Les développeurs peuvent entièrement personnaliser leurs applications et les exécuter dans n’importe quel environnement, que ce soit sur sursite, dans le cloud ou même localement sur un ordinateur portable, le tout sans partager de données avec Meta.

Bien que beaucoup puissent affirmer que les modèles fermés sont plus rentables, les modèles Llama offrent un coût par token parmi les plus bas de l’industrie, selon les tests effectués par Artificial Analysis. Comme l’a fait remarquer Mark Zuckerberg, l’open-source permettra à un plus grand nombre de personnes dans le monde d’avoir accès aux avantages et aux possibilités de l’IA, de ne pas concentrer le pouvoir entre les mains d’un petit nombre et de déployer la technologie de manière plus homogène et plus sûre dans la société. C’est pourquoi nous continuons à prendre des mesures pour que l’IA en libre accès devienne la norme du secteur.

Nous avons vu la communauté réaliser des choses étonnantes avec les modèles Llama précédents, notamment un compagnon d’étude IA construit avec Llama et déployé dans WhatsApp et Messenger, un LLM adapté au domaine médical conçu pour aider à guider la prise de décision clinique, et une start-up à but non lucratif dans le domaine de la santé au Brésil qui facilite l’organisation et la communication par le système de santé des informations relatives à l’hospitalisation des patients, tout cela en sécurisant les données. Nous sommes impatients de voir ce qu’ils construiront avec nos derniers modèles grâce à la puissance de l’open-source.

Construire avec Llama 3.1 405B

Pour le développeur moyen, l’utilisation d’un modèle à l’échelle du 405B est un défi. Bien qu’il s’agisse d’un modèle incroyablement puissant, nous reconnaissons qu’il nécessite des ressources de calcul et une expertise considérables. Nous avons échangé avec la communauté, et le développement de l’IA générative ne se limite pas aux modèles d’incitation. Nous voulons permettre à chacun de tirer le meilleur parti de la 405B, y compris :

C’est là que l’écosystème Llama peut vous aider. Dès le premier jour, les développeurs peuvent profiter de toutes les capacités avancées du modèle 405B et commencer à construire immédiatement. Les développeurs peuvent également explorer des flux de travail avancés tels que la génération de données synthétiques faciles à utiliser, suivre des instructions clés en main pour la distillation de modèles et activer un RAG transparent avec des solutions de partenaires, notamment AWS, NVIDIA et Databricks. En outre, Groq a optimisé l’inférence à faible latence pour les déploiements dans le cloud, Dell réalisant des optimisations similaires pour les systèmes sur site.

Nous avons travaillé avec des projets communautaires clés tels que vLLM, TensorRT et PyTorch pour intégrer le support dès le premier jour afin de s’assurer que la communauté est prête pour le déploiement en production.

Nous espérons que notre publication du 405B stimulera également l’innovation au sein de la communauté élargie afin de faciliter l’inférence et le fine-tuning des modèles de cette échelle et de permettre la prochaine vague de recherche sur la distillation de modèles.

Testez la collection de modèles Llama 3.1 dès aujourd’hui

Nous sommes impatients de voir ce que la communauté fera de ce travail. Il y a tellement de potentiel pour construire de nouvelles expériences utiles en utilisant le multilinguisme et l’augmentation de la longueur de la fenêtre de contexte. Avec la pile Llama et les nouveaux outils de sécurité, nous sommes impatients de continuer à construire avec la communauté open-source de manière responsable. Avant de publier un modèle, nous nous efforçons d’identifier, d’évaluer et d’atténuer les risques potentiels par le biais de plusieurs mesures, notamment des exercices de découverte des risques avant le déploiement, par l’intermédiaire d’une équipe d’experts et d’une mise au point de la sécurité. Par exemple, nous menons des exercices intensifs avec des experts externes et internes pour tester les modèles et trouver des façons inattendues de les utiliser. (Pour en savoir plus sur la façon dont nous développons notre collection de modèles Llama 3.1 de manière responsable, lisez cet article de blog).

Bien qu’il s’agisse de notre plus grand modèle à ce jour, nous pensons qu’il y a encore beaucoup de choses à explorer à l’avenir, notamment des tailles plus adaptées aux appareils, des modalités supplémentaires et davantage d’investissements au niveau de la plateforme d’agents. Comme toujours, nous sommes impatients de découvrir les produits et les expériences extraordinaires que la communauté va créer avec ces modèles.

Ce travail a été soutenu par nos partenaires de la communauté de l’IA. Nous tenons à les remercier (par ordre alphabétique) : Accenture, Amazon Web Services, AMD, Anyscale, CloudFlare, Databricks, Dell, Deloitte, Fireworks.ai, Google Cloud, Groq, Hugging Face, IBM WatsonX, Infosys, Intel, Kaggle, Microsoft Azure, NVIDIA DGX Cloud, OctoAI, Oracle Cloud, PwC, Replicate, Sarvam AI, Scale.AI, SNCF, Snowflake, et UC Berkeley – vLLM Project.