Metaでは、若年層の利用者を直接的・間接的な危害から守るために継続して取り組みを行っています。10代の利用者に向けて年齢に応じた適切な体験を提供し、望まないやりとりを防ぐために開発したティーンアカウントや、搾取的なコンテンツを検知し削除する高度な技術まで、対策は多岐に渡ります。
このような取り組みに関して、Metaは7月23日(米国時間)、新たに導入した機能や、安全のためのツールの効果を示すデータなどを発表しました。
- ティーンアカウントのDMに安全のための新機能を追加し、やりとりしている相手に関してより多くの情報を10代の利用者に提供
- ヌード保護など、最近追加された機能の効果を示すデータを公開
- 13歳未満の子どもを代表して大人が管理している場合にもティーンアカウントの保護機能を一部導入し、悪用の恐れがあるアカウントの取り締まりを強化
望まない、危険なやりとりから10代の利用者を守るために
ティーンアカウントのDMに安全のための新機能を追加し、やりとりしている相手に関してより多くの情報を10代の利用者に提供することで、詐欺の可能性があるかどうかを見分けやすくしました。新しいメッセージ画面の上部には、相手のアカウントがInstagramに登録された年月や安全に関する情報、アカウントをブロックするオプションも表示されます。
また、ブロックと報告のオプションをDMの画面に追加し、これらのアクションを取りやすくしました。コミュニティ規定に違反している可能性のあるアカウントを報告しやすくすることで、Metaが審査し、適切に措置を講じることができます。
これらの新しい機能は、プライベートメッセージについて注意喚起したり、不快に感じるものはブロック・報告することを促すといった安全のための既存の通知を補完するものです。10代の利用者にも活用されており、通知を見たあとにアカウントをブロックした回数は今年6月だけで100万回、報告した件数は100万件でした。
さらに、DM上でヌードと疑われる画像を自動的にぼかすヌード保護の機能を全世界で導入して以来、10代を含む99%の利用者がこの機能をオンのまま利用しています。今年6月には、DMで受信した画像のうち40%以上がぼかした状態のままで維持され、望まないヌード画像が表示されることを大幅に削減しました。この機能はティーンアカウントの利用者には自動的に適用されており、ヌードだと疑われる画像を転送しようとする利用者には通知を表示して再考するように促すこともしています。その結果、5月には通知を見たあと画像のシェアをやめた場合が約45%に上りました。
子どもの代わりに大人が管理するアカウントにもティーンアカウントの保護機能を一部導入
自分の子どもの写真や動画を定期的に投稿する保護者や、タレント活動をしている子どものマネージャーなど、13歳未満の子どもを代表して大人が管理するアカウントについても、安全のための対策を強化します。Instagramを利用するには13歳以上である必要がありますが、その年齢に達しない場合でも大人が代わりにアカウントを運営していることを自己紹介に明記していれば、アプリの利用を認めています。もし、13歳未満の子ども自身がアカウントを管理していると分かった場合には、そのアカウントは削除します。
このようなアカウントの多くは健全に利用されているものの、投稿に性的なコメントを残す、性的な画像をDMで要求するなど、Metaのコミュニティ規定に明確に違反する行為で子どもを搾取しようとする人々も残念ながら存在します。そこで本日、そのような行為を防ぐための新たな措置を発表します。
まず、子どもを代表して大人が管理するアカウントにもティーンアカウントの保護機能の一部を適用します。望まないメッセージを受け取る必要がないよう、DMの受信設定を最も厳しいレベルに自動的に適用し、攻撃的なコメントをフィルタリングする非表示ワードの機能も有効にします。安全についての設定を更新したという通知はフィードの上部に表示し、プライバシー設定も見直すように促します。これらの変更は今後数ヶ月以内に反映される予定です。
疑わしい行動を取っている大人、例えば10代の利用者にブロックされたことがある大人が、こうしたアカウントを見つけることを難しくする対策も講じます。お互いのアカウントをおすすめとして表示しないようにすること、検索で見つけづらくすることに加えて、疑わしいと思われる大人が投稿に対して残したコメントも非表示にします。昨年にはサブスクリプションやギフトの受け取りについての利用条件を変更し、子どもに関するコンテンツを主に投稿するアカウントは利用できないようにしており、今回の対策もそれに続くものです。
オンライン上の有害なアカウントに対処
本日紹介した新たな安全対策に加えて、規約に違反するアカウントには継続して積極的な措置を取っています。Metaの専門チームは今年初め、13歳未満の子どもを代表して大人が管理するアカウントに性的なコメントを残したり、性的な画像を要求したりしたInstagramアカウントを13万5千件近く削除しました。また、それらのアカウントと関連するFacebookおよびInstagramのアカウント50万件も追加で削除しました。被害を受けた利用者に対しては、投稿したコンテンツに不適切な行動を取ったアカウントを削除したことを通知し、注意喚起を行うと同時に、ブロックや報告を行うことを促しました。
子どもたちを搾取しようとする人々は、特定のプラットフォームだけに限定することなく行動します。Metaでは、Tech CoalitionのLanternプログラムを通じて、そのようなアカウントに関する情報を他のテクノロジー企業とも共有しています。