Meta

規定違反に対する措置件数を初公表

Facebookではどのような基準でコンテンツの表示を許可しているのか、規約違反はどのくらいあるのか、という質問をよくいただきます。Facebookは、以前から、表示が認められるもの、削除されるものの基準をコミュニティ規定で明示してきました。先月、Facebookは初めて、この規定を実行する際のガイドラインを公表しました。4月24日(米国時間)から、公開されているコミュニティ規定は、Facebookの社内ガイドラインとほぼ同じ内容を反映しています。そして違反件数については、5月15日(米国時間)に、コミュニティ規定施行レポートで公開し、Facebookの取り組みの成果について利用者の皆様にご判断いただけるようにしました。

Facebook上の悪質コンテンツを測定する具体的な手法については、「困難な問題」シリーズ記事コミュニティ規定施行レポートの読み方で詳しく説明しています。なお、Facebookはより良い方法を常に模索しながらこの問題に取り組んでおり、優先すべき事項や有効性が証明された対策に基づき、測定手法を今後も変更、改善してまいります。

コミュニティ規定施行レポートは、2017年10月から2018年3月までの規定違反に対して、Facebookが行った措置についてまとめたものです。ここでは規定違反を「過度な暴力描写」「成人のヌードと性的行為」「テロリストによるプロパガンダ」「ヘイトスピーチ」「スパム」「偽アカウント」の6つに分類しています。このレポートでは以下の情報を公開しています。

措置対象として最も多かったのは偽アカウントと、そこから発生する膨大なスパムです。具体的な数字を挙げると次のようになります。

他の規定違反には以下のようなものがあります。

F8基調講演でCEOのマーク・ザッカーバーグが申し上げたとおり、悪質コンテンツ排除の取り組みにはまだまだ多くの改善の余地があります。人工知能(AI)などのテクノロジーは有望ですが、悪質コンテンツのほとんどを検出できるようになるにはまだ何年もかかるでしょう。このような判断にはコンテンツが投稿された文脈の理解が非常に重要だからです。例えば、現在のAIは、ある文章が憎悪を煽る意図で書かれたのか、問題意識を高める目的で実体験をつづったものなのかを見分けることができません。また、先日ご説明したように、テクノロジーに意味のある行動パターンを検出させるには膨大な学習データが必要だという問題もあります。あまり広く使われていない言語や、報告されることが少ないケースでは、それだけのデータが確保できないことも多いのです。さらに、スパム、ポルノ、偽アカウントなどの違反コンテンツの投稿者は、規制をかいくぐろうと絶えず巧妙に手口を変えており、Facebookもそれに合わせて対策を変えていく必要があります。そのために現在、人員を増やし開発体制を強化して、Facebookをすべての人にとってより安全な場所にすべく、取り組みを継続しています。

Facebookでは、透明性の向上はアカウンタビリティーと責任の強化につながると考えます。このたびの情報公開はこれらの取り組みを促進するものであり、また取り組みの一環でもあります。今回公表するデータはFacebook社内で本件の進捗評価に使用しているものと同じデータです。皆様のご意見やご提案をお聞かせいただければ幸いです。