Meta

責任ある生成AIの構築に向けて

Metaは、10年以上にわたりAIのパイオニアであり続け、1,000 を超えるAIモデル、ライブラリ、データセットを研究者向けにリリースしてきました。その中には、マイクロソフト社との協力によって実現した、最新バージョンの大規模言語モデル「Llama 2」も含まれています。

Connect 2023では、Metaのプラットフォーム上における体験をよりソーシャルで没入感のあるものにする、新しい生成AI機能を発表しました。私たちは、このような生成AIツールがさまざまな点で人々の助けとなることを願っています。友人同士で旅行の計画を立てることを想像してみてください。グループチャットでAIアシスタントにお勧めのレジャーやレストランを尋ねることができます。また、教師であれば、それぞれの生徒の学習スタイルに合わせた個別の授業計画を立てるのにAIを活用できるかもしれません。

こうしたテクノロジーの構築には、ベストプラクティスや方針を確立していく責任が伴います。生成AIの用途には、面白く、創造的なものがたくさんありますが、それは常に完璧というわけではありません。たとえば、基盤となっているモデルは、架空の回答を生成したり、学習データから学んだステレオタイプを過剰に反映したりすることがあります。Metaは、この10年間で学んだ教訓を新しい機能に組み込んでいます。生成AIの限界を理解してもらうための注意書きや、危険な回答の検知と除外に役立つ完全性区分などはその一例です。こうした対策は、Llama 2の責任ある使用のためのガイドに概説されている業界のベストプラクティスに従って行われています。

Metaは、責任あるAIへの取り組みに基づき、安全性を向上させるために製品のストレステストを実施しています。また、政策担当者、学界や市民社会の専門家、そして業界関係者らとも協力を重ねながら、このテクノロジーの責任ある使用を推進しています。テクノロジーの進化と、人々の日常生活におけるテクノロジーの使用方法に合わせて、今後もこうした機能の改善を継続的に行っていきます。 

責任ある構築と人々の安全の優先

大規模言語モデルを活用した「Meta AI」など、新しいテキストベースの体験を支えるカスタムAIモデルはLlama 2を基盤として構築されているため、Llama 2の安全性と責任に関する学習を活用しています。それに加えて、私たちは、Connect 2023で発表した機能に関する具体的な対策にも注力してきました。 

潜在的な脆弱性の検出、リスクの低減、安全性と信頼性の向上のために私たちが実施している手順については、公開資料(英文のみ)で詳しく説明しています。以下に例を挙げます。

人々のプライバシーを保護するための対策

Metaは、規制当局、政策担当者、専門家から人々のプライバシーを守る責任を負っています。私たちはそうしたステークホルダーと協力し、私たちが構築するものがベストプラクティスに従っていること、データ保護に関する厳しい基準を満たしていることを保証します。

私たちは、生成AI製品を支えているモデルの学習に、どのような種類のデータが使用されているのかを知っていただくことが大切だと考えています。たとえば、友人や家族の間で交わされるプライベートなメッセージがAIの学習に使用されることはありません。Metaが使用するデータの種類については、こちら(英文のみ) で詳しく説明しています。 

新しい機能の使用方法ならびにその限界を知ってもらうための対策

AIとの対話がいつ行われ、この新しいテクノロジーがどのように機能しているのかを利用者に知ってもらうため、各機能内で情報を提供しています。また、利用者が機能を使用するそのときに、不正確または不適切な出力が返される可能性があることを明示しています。

この1年間に、私たちは22個のシステムカードを公開し、AIシステムがどのように人々に影響を与える決定を下しているかについて、わかりやすい情報を提供してきました。本日、新しい生成AIシステムカードをMetaのAIウェブサイト(英文のみ)に2つ公開しました。1つは、Meta AIを支えるテキストを生成するAIシステムに関するもの(英文のみ)、もう1つは、AIスタンプ、Meta AI、restyle、backdropに使用される画像を生成するAIシステムに関するもの(英文のみ)です。これらには操作可能なデモが含まれているので、プロンプトの改善がモデルの出力にどのように影響するのかを実際に確かめることができます。

AI機能によって作成された画像であることを知らせるための対策

Metaは業界のベストプラクティスに従っているため、私たちのツールを使って偽情報を拡散することはさらに難しくなっています。Meta AI、restyle、backdropによって作成または編集された画像には、AIが作成したコンテンツであることがわかるようにマークが表示されます。また、他のソースからAIが生成した画像や動画を識別し、そうでないものと区別することができるように、他の企業とも協力しています。ただし、AIスタンプにはこのような機能の追加は予定していません。AIスタンプは写真のようなリアルな映像ではないので、人々が本物と誤解する可能性は低いと考えられます。

現在のところ、業界全体でAI生成コンテンツの識別や分類に用いられる共通の基準はありません。私たちは、こうした基準が必要であると考え、Partnership on AIなどの団体を通じて他の企業とも協力して基準の策定を目指しています。

生成AIを活用して偽情報の拡散を防ぐ方法

AIは、偽情報やその他の有害コンテンツの対処においても重要な役割を果たします。たとえば、私たちが開発したAIテクノロジー(英文のみ)では、以前にファクトチェックした内容とほぼ同じものを検出することできます。また、フューショット学習(英文のみ)を活用したツールもあります。これは、100以上の言語に対応し、新しい有害コンテンツや進化する有害コンテンツにすばやく対処することができます。これまで、1つのAIモデルを学習させるためには、千から、ときには数百万に及ぶサンプルを集めて十分な大きさのデータセットを作り、その後、適切に機能させるためにファインチューニングを行う必要がありました。フューショット学習では、少数のサンプルに基づいてAIモデルを学習させることができます。

生成AIは、既存のAIツールよりももっと速く的確に有害コンテンツを排除できるようになるでしょう。私たちは、コミュニティ規定を学習させた大規模言語モデル(LLM)を、コンテンツのポリシー違反の判断に活用する検証を始めています。最初の検証では、LLMは既存の機械学習モデルよりも高いパフォーマンスを発揮できること、また少なくともフューショット学習などのモデルを強化できることが示唆されました。私たちは、将来的に生成AIをポリシーの実施に活用できるだろうという明るい見通しを持っています。

 

ダウンロード:Llama 2の責任ある使用のためのガイド