Facebookはこのたび、2019年第2四半期および第3四半期を対象にしたコミュニティ規定施行レポート第4版を公開します。今回のレポートは、Facebookの10のポリシーに関連する指標と、Instagramの4つのポリシーに関連する指標に則っています。

上記の指標には以下の項目を含みます:

  • 表示頻度(プレヴァレンス): Facebookのポリシーに違反するコンテンツの表示頻度です。
  • 措置を講じたコンテンツ: コミュニティ規定違反を理由にFacebookが措置を講じたコンテンツの量です。
  • 事前対応率: 措置を講じたコンテンツのうち、外部からの報告を受ける前にFacebookのシステムが検出したコンテンツの量です。
  • 異議申し立てされたコンテンツ: 措置を講じた後に利用者が異議申し立てを行ったコンテンツの量です。
  • 復元されたコンテンツ: Facebookが当初の措置を講じた後に復元されたコンテンツの量です。

また、新しいページも開設しました。これにより、コミュニティ規定がさまざまな種類のコンテンツにどのように適用されるかの例とともに、私たちがどうやって基準を設けているか確認できるようになります。

 

レポートにInstagramを追加

今回初めて、Instagramにおけるポリシーの施行状況に関するデータを公開しています。Instagramのデータ公開が初めてとなる本レポートでは、次の4つのポリシー分野に関連するデータを報告しています。「児童のヌードと性的搾取」、「規制対象品(特に銃火器および薬物の不法な販売)」、「自殺と自傷行為」、「テロリストによるプロパガンダ」です。Instagramでの異議申し立てされたコンテンツと復元されたコンテンツに関連する指標については、Instagramにおける異議申し立てを2019年第2四半期に開始したばかりのため、本レポートでは公開していませんが、今後のレポートで公開をする予定です。

InstagramとFacebookでは、同じ事前検知システムを用いて有害なコンテンツを検出し削除していますが、これら2つのサービスでは指標が異なる場合があります。これにはさまざまな理由がありますが、1つはアプリの機能と利用方法の違いです。例えばInstagramにはURLへのリンク、フィードへの再シェア機能、ページやグループの機能はありません。コミュニティの規模も異なり、世界の地域によって、どちらのアプリを使用する頻度が高いかも異なります。また、事前検知技術をどのような場面でより活用してきたかも違います。指標を比較して、進歩が見られた部分と更なる改善が必要な部分を確認するには、それぞれのアプリごとの各ポリシー分野について、四半期ごとに指標がどのように変化するかを確認するよう推奨します。

 

第4版で新たに追加された項目

  • 自殺と自傷行為に関するデータ: 自殺と自傷行為に関連するコンテンツへの措置について詳細を報告します。この分野は複雑かつ慎重に扱う必要があるため、私たちは利用者の皆様の安全確保が考慮されるよう専門家と連携しています。自殺または自傷行為を描写または助長するコンテンツを削除しており、これには、特定の過激な画像や、利用者を同様の行為に誘導する恐れがあると専門家が判断したリアルタイム描写などが含まれます。回復中の文脈における治癒後の切り傷またはその他過激でない自傷行為のイメージなど、ポリシー違反ではないものの、一部の利用者に影響を及ぼす可能性のあるコンテンツの上を覆う形でスクリーンをかけるようにします。また最近、自傷行為に関連するポリシーを強化し、より多くの違反コンテンツを検出し削除するための技術を強化しました。
  • Facebookでは、2019年第2四半期に約200万件のコンテンツに対して措置を講じました。そのうち96.1%はFacebookが事前に検出したもので、第3四半期にはさらに取り組みが進展し、250万件のコンテンツを削除、そのうち97.3%を事前に検出しました。
  • Instagramでも同様の進展が見られました。2019年第2四半期には83万5000件を削除し、そのうち77.8%を事前に検出しました。第3四半期には84万5000件を削除し、そのうち79.1%を事前に検出しました。
  • テロリストによるプロパガンダに関するより広範なデータ:  Facebookの危険な人物および団体に関するポリシーでは、すべてのテロリスト組織に対し、Facebookのサービスを利用することを禁止しています。私たちはこれまでにさまざまな組織を、彼らの行いを基にテロリスト組織として特定してきました。 以前のレポートでは特にアルカイダ、ISISおよびそれらの関連組織に対する取り組みのみ報告していました。それは世界的に最も広範に脅威を与えるとされている組織の特定に注力していたためです。今回は、レポートの範囲を拡張し、すべてのテロ組織に対する私たちの取り組みを含めています。Facebook上のアルカイダ、ISISおよびそれらの関連組織に関するコンテンツの検出、削除率は引き続き99%以上を維持していましたが、すべてのテロ組織の事前検知率および削除率は98.5%で、Instagramでは92.2%でした。テロリストたちは戦略を変え続けることがわかっているため、今後もテロ関連コンテンツを排除するための自動化技術への投資を継続するとともに、私たちも繰り返し戦略を改善していきます
  • 自殺と自傷行為および規制対象品の推定表示頻度: このレポートでは初めて、自殺と自傷行為ポリシーおよび規制対象品ポリシーに違反するコンテンツの表示頻度指標を追加しています。Facebookは、利用者がポリシーに違反するコンテンツを実際に閲覧した頻度を最も重要視しているため、表示頻度または利用者がサービス上で違反コンテンツを閲覧する可能性のある頻度を測定します。児童のヌードと性的搾取、規制対象品、自殺と自傷行為、テロリストによるプロパガンダは、最も深刻な安全上の懸念として取り組んでいるポリシー分野ですが、ポリシーに違反するコンテンツを実際に利用者が閲覧する可能性は極めて低く、大半は利用者が閲覧する前に削除しています。その結果、これらのポリシー分野における表示頻度を測定するためにコンテンツをサンプリングすると、多くの場合、指標を確実に推定するのに十分な違反コンテンツが見つからず、また時には違反コンテンツが全く見つからない場合もあります。その代わりとして、利用者がこれらのポリシーに違反するコンテンツを閲覧する頻度の上限を推定することができます。2019年第3四半期のこの上限は0.04%でした。つまり、2019年第3四半期のFacebookまたはInstagramでの10,000回の閲覧のうち、ポリシーに違反したコンテンツを含む閲覧はわずか4回未満であると推定されます。 
  • 表示頻度が非常に低く上限しか公表できない場合、この上限は報告期間によって0.01%単位で変わる可能性がありますが、ごく小さな変化であるため、コンテンツの表示頻度に実際の違いが生じるわけではありません。


利用者の安全を守る取り組みの強化

私たちは、排除に取り組んでいる有害なコンテンツ全般にわたって、ポリシーの施行とその取り組みに対する透明性を高める努力を引き続き強化いたします。自殺と自傷行為に関するコンテンツおよびテロリストによるプロパガンダに加えて、規制対象品および児童のヌードと性的搾取に関する指標においてその前進が見られました。過去5年間に行ってきたAIへの投資は、引き続きこれらの問題に取り組むうえで重要な要素となります。実際、近年におけるこの技術の進歩は違反コンテンツの検出率と削除率に貢献しています。

児童のヌードと性的搾取については、FacebookとInstagramの両方で同じコンテンツが繰り返し投稿される事例を検出して削除するために、内部データベースに違反コンテンツを追加するプロセスを改善し、より多くの違反コンテンツを特定し削除することが可能になりました。

Facebookにおいて:

  • 2019年第3四半期に、Facebookは1160万件のコンテンツを削除しており、これは2019年第1四半期の580万件から増加しました。過去4四半期で、このポリシーへの違反を理由に削除したコンテンツの99%以上を事前に検出しました。

今回初めてInstagramのデータも含めていますが、過去2四半期でこの分野において措置を講じたコンテンツ数と事前対応率は向上しています:

  • 2019年第2四半期に、51万2000件のコンテンツを削除し、そのうち92.5%はFacebookが事前に検出しました。
  • 第3四半期は大きく改善し、75万4000件を削除し、そのうち94.6%を事前に検出しました。

銃火器および薬物の不法な販売を禁止する規制対象品ポリシーに関しては、事前検出システムへの継続的な投資とポリシー施行のための手法の向上により、前回のレポートから改善が見られました。

Facebookにおいて:

  • 2019年第3四半期に、薬物販売に関連したコンテンツを440万件削除し、そのうち97.6%を事前に検出しました。84万1000件を削除し、そのうち84.4%を事前検出した2019年第1四半期 に比べ増加しました。
  • また、2019年第3四半期は、銃火器の販売に関連したコンテンツを230万件削除し、そのうち93.8%を事前検出しました。60万9000件を削除し、そのうち69.9%を事前検出した2019年第1四半期から増加しました。

Instagramにおいて:

  • 2019年第3四半期に薬物販売に関連したコンテンツを150万件削除し、そのうち95.3%を事前に検出しました。
  • 2019年第3四半期に銃火器の販売に関連したコンテンツを5万8600件削除し、そのうち91.3%を事前検出しました。


ヘイトスピーチを排除する新たな戦略

過去2年にわたって、私たちは利用者の皆様が有害なコンテンツをFacebookに報告する前、時には閲覧する前に検出できるよう、ヘイトスピーチの事前検知に投資してきました。検出手法には、すでにヘイトスピーチとして削除済みの画像とテキストに一致する文字列を識別する手法を用い、投稿されたテキストと画像のマッチング、そして投稿へのリアクションやコメントおよび言葉遣いなどが、過去にヘイトポリシーに違反するコンテンツに見られた一般的フレーズやパターン、攻撃にどれだけ一致しているかを評価する機械学習分類が含まれます。

当初、これらのシステムを採用して、潜在的なヘイトスピーチのポリシー違反を事前検出し、コンテンツレビューチームに送信していました。これは、AIにはできない状況評価を人の手により適切に行うためです。違反を正確に検出するシステム機能が継続的に改良されたおかげで、2019年第2四半期から一部の投稿の自動削除を開始しましたが、これは、過去にポリシー違反によりレビューチームが削除したテキストまたは画像と同一もしくはほぼ同一である場合、あるいはポリシーに違反する一般的な攻撃に非常に近いコンテンツである場合のみ自動削除されるもので、特定の場合にのみ行っています。これは自動削除システムが、違反コンテンツやよくある攻撃のさまざまな例において、数十万回、あるいは数百万回に届くかというトレーニングを重ねてきたことで可能となりました。システムが潜在的なヘイトスピーチを事前検出したその他のすべてのケースにおいては、該当コンテンツは引き続き評価チームに送信し最終決定を行っています。検出システムのこうした進化により、Facebookの事前対応率は前回レポートの68%から80%に上昇し、ヘイトスピーチポリシー違反のために検出および削除するコンテンツ量が増加しました。

このような進歩は喜ばしいものではありますが、こうした技術は完璧ものではなく、間違いが起こる可能性があることも認識しています。そのため、ポリシー違反コンテンツを削除する際の正確性を高め、ヘイトスピーチについて議論または非難するコンテンツを保護できるようなシステムへの投資を継続していきます。コンテンツレビューチームによる決定の正確性を審査するための評価方法と同様の方法で、自動削除されたコンテンツを私たちのチームが定期的に評価し、ポリシーが正しく施行されていることを確実にします。また私たちの投稿削除が間違いであると利用者が異議を申し立てた場合は、コンテンツの再審査を継続します。


指標の更新

前回のレポート以降、本年夏にレポートを作成するための計算で発生した問題を特定した上で、措置を講じるコンテンツ量の測定方法を改善しました。このレポートでは、2018年第3四半期から2019年第1四半期の期間において、措置を講じたコンテンツ、事前対応率、異議申し立てコンテンツ、復元済みコンテンツについて以前に公表した指標を更新しています。

上記の四半期中、計算プロセスの問題による影響を受けたのは講じた措置件数の測定方法のみであり、ポリシーの施行状況や講じた措置についての情報公開の方法に対しては影響は見られませんでした。例えば、写真1枚を含む投稿がポリシーに違反していることを検出した場合は、写真と投稿を削除するという2つの別個の措置ではなく、1つのコンテンツに対する措置を講じたことを指標に反映させます。ですが2019年7月に、これらの措置を記録およびカウントするシステムが、実際に講じられた措置を正確に記録しなかったことが判明しました。これは主に、数ミリ秒以内に講じられる複数の措置をカウントする必要があり、講じられた個々の措置を見逃したり、誇張したりしないようにするためです。

私たちは措置を測定するためのプロセスを引き続き改善し、提供する指標が正確であることを保証できる安定したシステム構築を行います。これらのプロセスの詳細については、こちらをご参照ください。