日々の暮らしの中でAIを活用する人が増える中、誰もがパーソナライズされた体験の未来を創造できるよう、先進的なモデルやシステムがオープンに提供されることが重要になっています。Metaは4月5日(米国時間)、オープンソースAIモデルLlamaのエコシステム全体を支える、最も高度なモデルのラインアップを発表しました。Llama 4 Scout と Llama 4 Maverick は、オープンウェイトとして初めて登場する、ネイティブにマルチモーダル対応したモデルであり、かつてない長文のコンテキスト処理をサポートします。さらに、初めて Mixture-of-Experts(MoE)構造を採用しています。そして Llama 4 Behemoth は、これまでで最も強力なモデルであり、世界で最も賢い大規模言語モデルの一つとして、新たなモデルラインアップの「教師」としての役割を果たします。
Llama 4モデルの登場は、Llamaエコシステムにとって新たな時代のスタートを意味します。
- Llama 4 Scout: 17Bのアクティブパラメータと16のエキスパートを備えたモデルで、同クラスにおいて世界最高のマルチモーダル性能を誇ります。単一のNVIDIA H100 GPU上で、前世代のすべてのLlamaモデルを上回るパフォーマンスを発揮します。さらに、業界最高水準となる1,000万トークンの長さのコンテキストウィンドウを提供し、Gemma 3、Gemini 2.0 Flash-Lite、Mistral 3.1といったモデルを、広範なベンチマークにおいて上回っています。
- Llama 4 Maverick: 17Bのアクティブパラメータを持ちつつ、128のエキスパートを活用するモデルです。マルチモーダル分野においては、GPT-4oやGemini 2.0 Flashを上回り、推論・コーディング領域では、新たに登場したDeepSeek v3と同等の結果を、パラメータ数は半分以下で実現しています。Maverickは、パフォーマンス対コスト比においても最高レベルの性能を誇り、実験的チャットバージョンでは、LMArenaにおいてELOスコア1417を記録しています。
- Llama 4 Behemoth :上記2つのモデルは、Llama 4 Behemoth による「蒸留」によって実現されています。Behemothは、288Bのアクティブパラメータと16のエキスパートを搭載した、これまでで最も強力かつ世界でも有数の高性能大規模言語モデル(LLM)です。GPT-4.5、Claude Sonnet 3.7、Gemini 2.0 Proを、複数のSTEMベンチマークにおいて上回る結果を出しています。なお、Llama 4 Behemothは現在もトレーニング中であり、今後さらに詳細をお伝えしていく予定です。
私たちは、オープンであることがイノベーションを加速させ、開発者にとっても、Metaにとっても、そして社会全体にとっても有益であると信じ続けています。今回発表した Llama 4 ScoutおよびLlama 4 Maverick は、llama.comおよびHugging Faceからダウンロード可能となっており、どなたでも最新の技術を使って新たな体験を創造できます。また、パートナー企業を通じた提供も順次開始予定です。
私たちのモデルを活用するアプリケーションの開発者も、業務フローに統合しようとしている企業も、あるいはAIの可能性やその恩恵に興味を持っている方も、Llama 4 ScoutとLlama 4 Maverickは、次世代のインテリジェンスを製品に取り入れるための最適な選択肢です。
今回の発表はLlama 4ラインアップの始まりに過ぎません。Metaは、真にインテリジェントなシステムとは、汎用的なアクションを実行し、人間と自然に対話し、未知の課題にも柔軟に対応できるものであるべきだと考えています。Llamaにこうした能力を与えることで、Metaが提供するプラットフォームはさらに進化し、開発者には次なる消費者・ビジネス向けユースケースを創造するチャンスが広がります。現在も、モデルと製品の両面で研究とプロトタイプ開発を進めており、4月29日(米国時間)に開催される「LlamaCon」では、Metaのビジョンをさらに詳しくご紹介する予定です。「LlamaCon」に関する最新情報は、こちらからご登録の上、お受け取りいただけます。
Metaは、利用者にとって本当に役立つ、実用的なモデルの開発を目指すと同時に、適切な安全対策の整備にも注力しています。この取り組みの一環として、Llamaをさらに柔軟で応答性の高いモデルへと進化させ続けており、より多くの質問に対応できるだけでなく、多様な視点に対して判断を下すことなく、偏りのない応答を目指しています。詳細については、こちらのブログをご覧ください。