Meta

削除、抑制、情報提供:問題のあるコンテンツを管理する新しい対策

2016年から、Facebookでは問題のあるコンテンツをFacebookが提供するアプリ全体にわたって管理することを目的とした削除、抑制、情報提供(Remove、Reduce、Inform)という対策を実施しています。この対策では、私たちのポリシーに違反するコンテンツを削除し、ポリシーには違反していないが問題のあるコンテンツの拡散を抑制しています。また、利用者の皆様に対して、クリック、閲覧またはシェアをするコンテンツを判断するための追加情報を提供しています。この対策は、選挙期間などの重要な時期だけでなく年間を通して実施しています。

Facebookは4月10日、メンローパークの本社において、少人数のジャーナリストを招き、利用者の皆様の安全確保とFacebookが提供するアプリを通じて配信される情報の正当性の維持を目的とする「削除、抑制、情報提供」についての最新情報を説明しました。

削除について(read more)

  • 毎月、最新の情報を利用者の皆様が確認できるよう、Facebookのコミュニティ規定サイトに新しいセクションを公開
  • Facebookグループに対するポリシーの更新と新機能「グループのクオリティ」の導入

抑制について(read more)

  • 社外の専門家と協力して、Facebook上のフェイクニュースの取り締まりを強化し、さらに迅速に対応するための新しい方法を検討開始
  • 第三者ファクトチェッカーであるAP通信が審査対象とするコンテンツを拡大
  • 偽情報を繰り返しシェアするFacebookグループからの投稿の表示を抑制
  • 「クリックギャップ」シグナルをニュースフィードのランキングに導入し、ニュースフィードに表示される品質の低いコンテンツを削減

情報提供について(read more)

  • ニュースフィードのコンテキストボタンを画像にも適用(2019年4月10日午前11時(太平洋時間)に最新情報として発表)
  • 英語およびスペイン語のコンテンツにおいて、信頼性の表示をニュースフィードのコンテキストボタンに追加
  • Facebookのページクオリティタブに詳細情報を追加
  • Facebookグループからの退会後でも自分の投稿やコメントをグループから削除可能に
  • なりすまし対策としてMessengerにFacebookの認証バッジを表示
  • Messengerに管理を強化するメッセージ設定と新しくなったブロック機能を用意
  • Messengerに転送インジケーターとコンテキストボタンを導入し、偽情報の拡散を防止



Facebook

Facebookではコミュニティ規定によりFacebook上で許可および禁止されている行為を定めています。この規定では、いじめ、嫌がらせ、ヘイトスピーチなどの行為について説明されており、この規定に反するコンテンツは、私たちが認識した時点で直ちに削除されます。昨年、Facebookではこのコミュニティ規定を施行する上での社内ガイドラインを公開し、私たちの判断に対して利用者の皆様が異議を申し立てられるようにすることで、どのようなコンテンツが削除の対象となるか、利用者の皆様によりご理解いただけるようにいたしました。

コミュニティ規定はFacebookのすべての機能に対して適用されますが、実際の運用にあたってはその機能独自の対策をとっています。その例として、過去2年間にわたって実施している「安全なコミュニティに向けての取り組み」があります。この取り組みは有害なグループやグループ内での被害から利用者の皆様を保護することを目的としており、最新のテクノロジー、人員による審査、利用者の皆様からの報告を組み合わせることで有害なグループを特定し、削除しています。これは、公開、非公開および秘密のグループ、すべてが対象になります。結果として、グループ内に投稿されたさまざまな種類の違反コンテンツを、利用者の皆様からの報告を待たずに、利用者の皆様の目にほとんど触れることなく事前に検出できるようになりました。

同様にストーリーズも、問題のあるコンテンツの拡散防止と抑制に関して、独自の対策が必要です。ストーリーズは24時間で削除されるため、より迅速に対応し違反コンテンツを削除しなければなりません。この機能は写真や動画にテキストやステッカー、書き込みを追加できるため、違反コンテンツを隠す目的で悪用される可能性があります。また、複数のストーリーズをつないで連続性のあるストーリーズにするなどの楽しみ方も一般的なため、ストーリーズ全体を表示してチェックする必要があります。これは、個々のストーリーズをチェックするだけでは、ストーリーズ全体で見たときに規定に違反していることを見逃す可能性があるためです。

4月10日の説明会では、このような状況や対策のほか、今後の方針についても以下のように説明しました。

  • 毎月の最新情報を利用者の皆様が確認できるよう、コミュニティ規定サイトに新しいセクションを用意
    Facebookでは現在のポリシーを再検討し、新しいポリシーの草案を作成します。これは、施行の精度を向上することや、コンテンツのレビュアー、社内での議論、専門家による批評、社外からの協力によって指摘された新しいトレンドに先行することなどを目的としています。ポリシーの変更はすべてこの新しいセクションに掲載し、重要性の高い変更についてはその詳細をシェアいたします。4月10日から、英語を対象にこの取り組みを開始します。
  • グループに対するポリシーの更新と、新機能「グループのクオリティ」の導入
    「安全なコミュニティに向けての取り組み」の一環として、コミュニティ規定違反に対してFacebookグループの管理者が負う説明責任を拡大します。数週間後から、削除対象であるかどうかを判断する目的でグループを審査する際、管理者やモデレーターによるグループ内での違反コンテンツの投稿または、メンバーのそのような投稿を承認した場合は、そのグループがコミュニティ規定に違反していることを示すより明確な兆候と見なされます。また、「グループのクオリティ」という新機能を導入し、大部分の違反コンテンツを削除してフラグを付けた上でその概要を示すと同時に、グループ内で見つかったフェイクニュースに関するセクションを設けます。これは、私たちがコミュニティ規定を適用する方法とタイミングを管理者に対してわかりやすく示すことが目的です。この取り組みは、数週間後に全世界で開始いたします。

Facebookの「削除」の取り組みについての詳細は、コミュニティ規定の改訂に携わる人々プロセスに関する動画をご覧ください。

Facebook

偽情報やクリックベイトなど、問題のあるコンテンツであってもコミュニティ規定の削除基準を満たさないものがあります。利用者の皆様からは、この種類のコンテンツは見たくないという声をいただくことが多く、私たちはこれらのコンテンツの投稿を許可する一方で、拡散されないようにしています。

過去2年間にわたって、Facebookでは特に偽情報の抑制 に重点を置いて取り組んできました。偽アカウントや組織的な不正行為に対する取り締まりの成果は上がってきています。写真や動画を利用した偽情報の増加には、テクノロジーと人員による審査を組み合わせて対処しています。また、新しい対策として、利用者の皆様がフェイクニュースを見分け、ニュースフィードに表示される記事について詳細を確認できるようにしました。第三者によるファクトチェックの取り組みも拡大し、45社のファクトチェックパートナーが24言語のコンテンツを審査するまでになりました。

以下は、Facebookニュースフィードチームのメンバーが4月10日に説明した今後の方針です。

  • 社外の専門家と協力して、Facebook上のフェイクニュースの取り締まりを強化し、さらに迅速に対応するための新しい方法を検討開始
    専門的なファクトチェックパートナーは、偽情報への対策を行ううえで私たちにとって重要な役割を果たしていますが、規模の面で課題を抱えています。専門的なファクトチェッカーは世界中で不足しており、ファクトチェックには時間がかかります。ファクトチェッカーの作業を支援する方法の一つは、Facebookの利用者の皆様から、偽情報が含まれていると思われるコンテンツを指摘してもらうことです。Facebookでは2017年以降、この方法を試験的に実施しています。今後数か月かけて、これまでの結果を踏まえて、引き続きさまざまな学者、ファクトチェックの専門家、ジャーナリスト、調査研究者、市民団体の助言を得ながら、このような取り組みのメリットとリスクについて把握していきます。Facebookが情報の真偽を判断するのではなく、新しい方法で独自報道を支援し、信頼のおける情報を広め、既存のファクトチェックの取り組みを補完し、利用者の皆様が自由に自らを表現できるようにする必要があります。私たちが導入するすべてのシステムで、情報操作や改ざんに対する予防策を用意し、個人的な偏見が入り込む余地をなくし、少数グループの声を保護しなければなりません。この試験的なプロセスについては、進捗を公表し、世界中の幅広いグループの人々からフィードバックをいただきたいと考えています。この取り組みは、4月10日から全世界で開始いたします。
  • 第三者ファクトチェッカーであるAP通信が審査対象とするコンテンツを拡大。
    第三者ファクトチェックパートナーであるAP通信が取り組みを拡大し、Facebookに投稿された事実を誤認させるような動画やスペイン語コンテンツの事実と異なる点を指摘します。この取り組みは、4月10日から米国で開始いたしました。
  • 偽情報を繰り返しシェアするFacebookグループからの投稿の表示を抑制。
    独立したファクトチェッカーから事実ではないと判断されたコンテンツを繰り返しシェアする利用者がグループにいる場合は、そのグループ全体のニュースフィードの配信を抑制します。この取り組みは、4月10日から全世界で開始いたしました。
  • 「クリックギャップ」シグナルをニュースフィードのランキングに導入。
    ランキングでは多くのシグナルを使用してニュースフィードに表示される低い品質のコンテンツを削減します。この「クリックギャップ」という新しいシグナルは、インターネットの概念的な「地図」であるWebグラフを利用しています。Webグラフでは、内部や外部へのリンクが多いドメインほどマップの中心近くに表示される一方、これらのリンクが少ないドメインほどマップの端に表示されます。クリックギャップは対象となる外部ドメインに対してFacebook内で発生するクリック数が、Webグラフ上の位置に比べて大きく差があるドメインを探します。「この差(ギャップ)は、Facebookニュースフィード内ではよくクリックされているドメインであってもそれがFacebook外で一般的に受けている評価を正しく反映しているとは言えない状態であること、すなわちこのドメインが品質の低いコンテンツを作成している兆候であると考えられます。この機能は、4月10日から全世界で利用開始しました。

Facebook上での「抑制」に関する取り組みの詳細については、このブログを参照してください。

Instagram

Instagramに関しても、どのようにして利用者の皆様に安全で適切なコンテンツをおすすめしているのか説明しました。Instagramでもコミュニティ規定に違反していない不適切なコンテンツの拡散を抑制する取り組みを開始し、このような投稿を[発見]ページとハッシュタグページで制限しています。例えば、フォローしているアカウントが性的な暗示を含むコンテンツを投稿した場合、そのコンテンツはフォローしている人のフィードには表示されますが、このようなコンテンツは広範囲のコミュニティが見ることができる[発見]ページまたはハッシュタグページでは拡散が抑制されます。

Facebook

Facebookは、利用者の皆様がどのコンテンツを閲覧し、信頼してシェアできるのかを判断するために、より多くの情報を知らせる機能と製品に投資しています。昨年、コンテキストボタンでニュースフィードの記事の背景情報を提供することを開始しました。このボタンには発行者についてのウィキペディア記事、Webサイトの年数、Facebookで記事がシェアされた回数やシェアされた場所などが表示されます。コミュニティ規定に違反して削除された投稿や、第三者ファクトチェッカーによって「虚偽」、「虚実混交」または「虚偽の見出し」と評価された投稿をページクオリティタブに示すことで、ページの所有者がコンテンツの質を改善することを支援しました。また、以下に示すように今後の方針についても説明しました。

  • コンテキストボタンを画像にも適用。
    2018年4月に初めて導入されたコンテキストボタン機能では、発行者やニュースフィードに表示される記事についての詳細な背景情報を提供し、利用者の皆様がどのコンテンツを閲覧し、信頼してシェアできるのかを判断しやすくしました。この機能を、第三者ファクトチェッカーが審査した画像に対しても実施し、現在米国内で試験的に運用しています(2019年4月10日午前11時(太平洋時間)に最新情報として発表)。
  • 信頼性表示をコンテキストボタンに追加。
    信頼性表示」とは、報道機関が運営する団体Trust Projectが考案した表示項目のことで、投稿した報道機関によって設けられた公正性および正確性に関する倫理およびその他の規定を利用者の皆様に明示します。この表示はコンテキストボタンにあり、発行者のファクトチェック方法、倫理に関する声明、訂正内容、所有者、資金提供元、編集チームの情報を提供します。この取り組みは、2019年3月から英語とスペイン語で開始しました。
  • Facebookのページクオリティタブに情報を追加。今後順次このタブに表示される情報を追加していきます。まず数か月後にクリックベイトに関する詳細情報をページのステータスに表示します。この機能は、近日中に全世界で利用できます。
  • グループからの退会後でも自分の投稿やコメントをグループから削除が可能に。グループからの退会後でも、この機能を使用できます。今回のアップデートで、グループに対する透明性を高め、利用者の皆様の個人による制御を強化することを目的にしています。この機能は、近日中に全世界で利用できます。

Messenger

4月10日の説明でMessengerについて強調した点は、プライバシーと安全性に関する新機能と機能のアップデートまたは更新です。これらの機能によって、利用者の皆様は細かく操作を設定し、常に情報を入手できます。

  • なりすまし対策としてMessengerにFacebookの認証バッジを表示。このツールでは、本人であることが確認されているアカウントに認証バッジを表示することで、著名人になりすました詐欺行為を避けるのに役立ちます。友達を装っている利用者から連絡を受ける場合は、昨年導入されたなりすましの報告ツールをMessengerで使用することを引き続き推奨します。この対策は、今週から全世界で利用できます。
  • Messengerに管理を強化するメッセージ設定と新しくなったブロックの用意「メッセージ設定」により、友達の友達といった友達以外の利用者や、自分の電話番号を知っている利用者、またはInstagramで自分をフォローしている利用者がメッセージを送ることができるどうかを管理できます。「新しくなったブロック機能」では、迷惑な連絡先を簡単にブロックしたり、望まない連絡を防ぐことができます。この機能は、今週から全世界で利用できます。
  • 転送インジケーターとコンテキストボタンを導入し、偽情報の拡散を防止。転送インジケーターでは、受信したメッセージが送信者によって転送された場合に、通知を受け取ることができます。コンテキストボタンでは、シェアされた記事の詳細を知ることができます。この機能は、今年の初めから全世界で利用できるようになりました。


Facebookでは、表示されるコンテンツや広告のパーソナライズ、広告の測定、セキュリティの確保のためにCookieを使用しています。サイトをクリックまたは閲覧することで、FacebookによるFacebook内外でのCookieの使用に同意するものとします。コントロール方法など、Cookieの使用に関する詳細はこちらをご覧ください: Cookieポリシー