Meta

削除、抑制、情報提供:問題のあるコンテンツを管理する新しい対策

2016年から、Facebookでは問題のあるコンテンツをFacebookが提供するアプリ全体にわたって管理することを目的とした削除、抑制、情報提供(Remove、Reduce、Inform)という対策を実施しています。この対策では、私たちのポリシーに違反するコンテンツを削除し、ポリシーには違反していないが問題のあるコンテンツの拡散を抑制しています。また、利用者の皆様に対して、クリック、閲覧またはシェアをするコンテンツを判断するための追加情報を提供しています。この対策は、選挙期間などの重要な時期だけでなく年間を通して実施しています。

Facebookは4月10日、メンローパークの本社において、少人数のジャーナリストを招き、利用者の皆様の安全確保とFacebookが提供するアプリを通じて配信される情報の正当性の維持を目的とする「削除、抑制、情報提供」についての最新情報を説明しました。

削除について(read more)

抑制について(read more)

情報提供について(read more)



Facebook

Facebookではコミュニティ規定によりFacebook上で許可および禁止されている行為を定めています。この規定では、いじめ、嫌がらせ、ヘイトスピーチなどの行為について説明されており、この規定に反するコンテンツは、私たちが認識した時点で直ちに削除されます。昨年、Facebookではこのコミュニティ規定を施行する上での社内ガイドラインを公開し、私たちの判断に対して利用者の皆様が異議を申し立てられるようにすることで、どのようなコンテンツが削除の対象となるか、利用者の皆様によりご理解いただけるようにいたしました。

コミュニティ規定はFacebookのすべての機能に対して適用されますが、実際の運用にあたってはその機能独自の対策をとっています。その例として、過去2年間にわたって実施している「安全なコミュニティに向けての取り組み」があります。この取り組みは有害なグループやグループ内での被害から利用者の皆様を保護することを目的としており、最新のテクノロジー、人員による審査、利用者の皆様からの報告を組み合わせることで有害なグループを特定し、削除しています。これは、公開、非公開および秘密のグループ、すべてが対象になります。結果として、グループ内に投稿されたさまざまな種類の違反コンテンツを、利用者の皆様からの報告を待たずに、利用者の皆様の目にほとんど触れることなく事前に検出できるようになりました。

同様にストーリーズも、問題のあるコンテンツの拡散防止と抑制に関して、独自の対策が必要です。ストーリーズは24時間で削除されるため、より迅速に対応し違反コンテンツを削除しなければなりません。この機能は写真や動画にテキストやステッカー、書き込みを追加できるため、違反コンテンツを隠す目的で悪用される可能性があります。また、複数のストーリーズをつないで連続性のあるストーリーズにするなどの楽しみ方も一般的なため、ストーリーズ全体を表示してチェックする必要があります。これは、個々のストーリーズをチェックするだけでは、ストーリーズ全体で見たときに規定に違反していることを見逃す可能性があるためです。

4月10日の説明会では、このような状況や対策のほか、今後の方針についても以下のように説明しました。

Facebookの「削除」の取り組みについての詳細は、コミュニティ規定の改訂に携わる人々プロセスに関する動画をご覧ください。

Facebook

偽情報やクリックベイトなど、問題のあるコンテンツであってもコミュニティ規定の削除基準を満たさないものがあります。利用者の皆様からは、この種類のコンテンツは見たくないという声をいただくことが多く、私たちはこれらのコンテンツの投稿を許可する一方で、拡散されないようにしています。

過去2年間にわたって、Facebookでは特に偽情報の抑制 に重点を置いて取り組んできました。偽アカウントや組織的な不正行為に対する取り締まりの成果は上がってきています。写真や動画を利用した偽情報の増加には、テクノロジーと人員による審査を組み合わせて対処しています。また、新しい対策として、利用者の皆様がフェイクニュースを見分け、ニュースフィードに表示される記事について詳細を確認できるようにしました。第三者によるファクトチェックの取り組みも拡大し、45社のファクトチェックパートナーが24言語のコンテンツを審査するまでになりました。

以下は、Facebookニュースフィードチームのメンバーが4月10日に説明した今後の方針です。

Facebook上での「抑制」に関する取り組みの詳細については、このブログを参照してください。

Instagram

Instagramに関しても、どのようにして利用者の皆様に安全で適切なコンテンツをおすすめしているのか説明しました。Instagramでもコミュニティ規定に違反していない不適切なコンテンツの拡散を抑制する取り組みを開始し、このような投稿を[発見]ページとハッシュタグページで制限しています。例えば、フォローしているアカウントが性的な暗示を含むコンテンツを投稿した場合、そのコンテンツはフォローしている人のフィードには表示されますが、このようなコンテンツは広範囲のコミュニティが見ることができる[発見]ページまたはハッシュタグページでは拡散が抑制されます。

Facebook

Facebookは、利用者の皆様がどのコンテンツを閲覧し、信頼してシェアできるのかを判断するために、より多くの情報を知らせる機能と製品に投資しています。昨年、コンテキストボタンでニュースフィードの記事の背景情報を提供することを開始しました。このボタンには発行者についてのウィキペディア記事、Webサイトの年数、Facebookで記事がシェアされた回数やシェアされた場所などが表示されます。コミュニティ規定に違反して削除された投稿や、第三者ファクトチェッカーによって「虚偽」、「虚実混交」または「虚偽の見出し」と評価された投稿をページクオリティタブに示すことで、ページの所有者がコンテンツの質を改善することを支援しました。また、以下に示すように今後の方針についても説明しました。

Messenger

4月10日の説明でMessengerについて強調した点は、プライバシーと安全性に関する新機能と機能のアップデートまたは更新です。これらの機能によって、利用者の皆様は細かく操作を設定し、常に情報を入手できます。