Meta

コミュニティ規定施行レポート第4版を公開

Facebookはこのたび、2019年第2四半期および第3四半期を対象にしたコミュニティ規定施行レポート第4版を公開します。今回のレポートは、Facebookの10のポリシーに関連する指標と、Instagramの4つのポリシーに関連する指標に則っています。

上記の指標には以下の項目を含みます:

また、新しいページも開設しました。これにより、コミュニティ規定がさまざまな種類のコンテンツにどのように適用されるかの例とともに、私たちがどうやって基準を設けているか確認できるようになります。

 

レポートにInstagramを追加

今回初めて、Instagramにおけるポリシーの施行状況に関するデータを公開しています。Instagramのデータ公開が初めてとなる本レポートでは、次の4つのポリシー分野に関連するデータを報告しています。「児童のヌードと性的搾取」、「規制対象品(特に銃火器および薬物の不法な販売)」、「自殺と自傷行為」、「テロリストによるプロパガンダ」です。Instagramでの異議申し立てされたコンテンツと復元されたコンテンツに関連する指標については、Instagramにおける異議申し立てを2019年第2四半期に開始したばかりのため、本レポートでは公開していませんが、今後のレポートで公開をする予定です。

InstagramとFacebookでは、同じ事前検知システムを用いて有害なコンテンツを検出し削除していますが、これら2つのサービスでは指標が異なる場合があります。これにはさまざまな理由がありますが、1つはアプリの機能と利用方法の違いです。例えばInstagramにはURLへのリンク、フィードへの再シェア機能、ページやグループの機能はありません。コミュニティの規模も異なり、世界の地域によって、どちらのアプリを使用する頻度が高いかも異なります。また、事前検知技術をどのような場面でより活用してきたかも違います。指標を比較して、進歩が見られた部分と更なる改善が必要な部分を確認するには、それぞれのアプリごとの各ポリシー分野について、四半期ごとに指標がどのように変化するかを確認するよう推奨します。

 

第4版で新たに追加された項目


利用者の安全を守る取り組みの強化

私たちは、排除に取り組んでいる有害なコンテンツ全般にわたって、ポリシーの施行とその取り組みに対する透明性を高める努力を引き続き強化いたします。自殺と自傷行為に関するコンテンツおよびテロリストによるプロパガンダに加えて、規制対象品および児童のヌードと性的搾取に関する指標においてその前進が見られました。過去5年間に行ってきたAIへの投資は、引き続きこれらの問題に取り組むうえで重要な要素となります。実際、近年におけるこの技術の進歩は違反コンテンツの検出率と削除率に貢献しています。

児童のヌードと性的搾取については、FacebookとInstagramの両方で同じコンテンツが繰り返し投稿される事例を検出して削除するために、内部データベースに違反コンテンツを追加するプロセスを改善し、より多くの違反コンテンツを特定し削除することが可能になりました。

Facebookにおいて:

今回初めてInstagramのデータも含めていますが、過去2四半期でこの分野において措置を講じたコンテンツ数と事前対応率は向上しています:

銃火器および薬物の不法な販売を禁止する規制対象品ポリシーに関しては、事前検出システムへの継続的な投資とポリシー施行のための手法の向上により、前回のレポートから改善が見られました。

Facebookにおいて:

Instagramにおいて:


ヘイトスピーチを排除する新たな戦略

過去2年にわたって、私たちは利用者の皆様が有害なコンテンツをFacebookに報告する前、時には閲覧する前に検出できるよう、ヘイトスピーチの事前検知に投資してきました。検出手法には、すでにヘイトスピーチとして削除済みの画像とテキストに一致する文字列を識別する手法を用い、投稿されたテキストと画像のマッチング、そして投稿へのリアクションやコメントおよび言葉遣いなどが、過去にヘイトポリシーに違反するコンテンツに見られた一般的フレーズやパターン、攻撃にどれだけ一致しているかを評価する機械学習分類が含まれます。

当初、これらのシステムを採用して、潜在的なヘイトスピーチのポリシー違反を事前検出し、コンテンツレビューチームに送信していました。これは、AIにはできない状況評価を人の手により適切に行うためです。違反を正確に検出するシステム機能が継続的に改良されたおかげで、2019年第2四半期から一部の投稿の自動削除を開始しましたが、これは、過去にポリシー違反によりレビューチームが削除したテキストまたは画像と同一もしくはほぼ同一である場合、あるいはポリシーに違反する一般的な攻撃に非常に近いコンテンツである場合のみ自動削除されるもので、特定の場合にのみ行っています。これは自動削除システムが、違反コンテンツやよくある攻撃のさまざまな例において、数十万回、あるいは数百万回に届くかというトレーニングを重ねてきたことで可能となりました。システムが潜在的なヘイトスピーチを事前検出したその他のすべてのケースにおいては、該当コンテンツは引き続き評価チームに送信し最終決定を行っています。検出システムのこうした進化により、Facebookの事前対応率は前回レポートの68%から80%に上昇し、ヘイトスピーチポリシー違反のために検出および削除するコンテンツ量が増加しました。

このような進歩は喜ばしいものではありますが、こうした技術は完璧ものではなく、間違いが起こる可能性があることも認識しています。そのため、ポリシー違反コンテンツを削除する際の正確性を高め、ヘイトスピーチについて議論または非難するコンテンツを保護できるようなシステムへの投資を継続していきます。コンテンツレビューチームによる決定の正確性を審査するための評価方法と同様の方法で、自動削除されたコンテンツを私たちのチームが定期的に評価し、ポリシーが正しく施行されていることを確実にします。また私たちの投稿削除が間違いであると利用者が異議を申し立てた場合は、コンテンツの再審査を継続します。


指標の更新

前回のレポート以降、本年夏にレポートを作成するための計算で発生した問題を特定した上で、措置を講じるコンテンツ量の測定方法を改善しました。このレポートでは、2018年第3四半期から2019年第1四半期の期間において、措置を講じたコンテンツ、事前対応率、異議申し立てコンテンツ、復元済みコンテンツについて以前に公表した指標を更新しています。

上記の四半期中、計算プロセスの問題による影響を受けたのは講じた措置件数の測定方法のみであり、ポリシーの施行状況や講じた措置についての情報公開の方法に対しては影響は見られませんでした。例えば、写真1枚を含む投稿がポリシーに違反していることを検出した場合は、写真と投稿を削除するという2つの別個の措置ではなく、1つのコンテンツに対する措置を講じたことを指標に反映させます。ですが2019年7月に、これらの措置を記録およびカウントするシステムが、実際に講じられた措置を正確に記録しなかったことが判明しました。これは主に、数ミリ秒以内に講じられる複数の措置をカウントする必要があり、講じられた個々の措置を見逃したり、誇張したりしないようにするためです。

私たちは措置を測定するためのプロセスを引き続き改善し、提供する指標が正確であることを保証できる安定したシステム構築を行います。これらのプロセスの詳細については、こちらをご参照ください。