Meta

Facebook의 커뮤니티 규정 집행 현황을 알려드립니다.

가이 로젠(Guy Rosen), 제품 총괄 부사장

사람들은 안전하다는 느낌이 들 때 비로소 안심하고 Facebook에 콘텐츠를 공유할 수 있을 것입니다. 저희가 지난 2년 동안 Facebook 서비스에서 악성 콘텐츠를 더욱 효과적으로 삭제하기 위해 각종 기술과 인력에 많은 노력을 기울여온 이유가 바로 그 때문입니다. 올해 봄, 저희는 모든 분들이 Facebook에서 허용되는 행위와 그 이유를 더욱 명료하게 이해하실 수 있도록 커뮤니티 규정 집행을 위한 검토 팀의 내부 가이드라인을 최초로 공개했습니다. 뒤이어 5월에는 커뮤니티 규정이 얼마나 지켜지고 있는지 확인하실 수 있도록 저희 서비스에 감지된 규정 위반 콘텐츠의 수를 공개했습니다.

오늘은 Facebook의 두 번째 커뮤니티 규정 집행 보고서를 공개합니다. 이번 보고서에는 2018년 4월부터 2018년 9월까지 6개월 동안 폭력적인 이미지, 성인 나체 이미지 및 성적 행위, 테러리스트 선전, 혐오 발언, 스팸, 가짜 계정에 대한 정책 집행 결과가 담겨있습니다. 또한 ‘따돌림 및 괴롭힘’과 ‘아동 나체 이미지 및 아동에 대한 성착취’에 대한 데이터가 새롭게 포함되었습니다.

정책 위반 콘텐츠 감지

사용자의 신고가 접수되기 전에 정책 위반 콘텐츠를 사전 감지하는 기능이 점점 더 큰 성과를 내고 있습니다. 특히 혐오 발언과 폭력적인 이미지 분야에서는 효과를 보이고 있지만, 여전히 더 많은 개선이 필요한 분야도 있습니다.

규정 위반 콘텐츠 및 계정 삭제

악성 콘텐츠를 발견하는 것뿐 아니라 발견된 콘텐츠를 삭제하는 기능도 점점 더 개선되고 있습니다. 2018년 3분기에 Facebook은 폭력적인 이미지가 포함된 콘텐츠 1,540만 개에 조치를 취했으며, 이는 2017년 4분기보다 10배 이상 늘어난 수치입니다. 이는 매우 유사하거나 동일한 콘텐츠에 대해 동일한 조치를 자동으로 적용하는 기술을 지속적으로 개선해온 결과입니다. 또한 지난주에 공개한 바와 같이, 2018년 2분기에 삭제한 테러리스트 관련 콘텐츠의 양도 크게 증가했습니다. 데이터베이스에서 이미 규정 위반으로 분류된 콘텐츠와 매우 유사한 사진을 사전에 감지하는 기술인 미디어 매칭 시스템의 사용 범위를 확장하여 이전의 테러리스트 선전 이미지를 삭제했기 때문입니다. 정책 위반 콘텐츠 중 일부가 삭제되지 않았던 버그를 수정한 것도 성과 증대에 도움이 된 것으로 보입니다.

2분기 및 3분기에 걸쳐 적발 및 삭제된 가짜 계정의 수는 각각 8억 40만 개와 7억 5,370만 개로, 역시 이전 동일 기간에 비해 증가한 결과를 보였습니다. 이러한 가짜 계정의 대부분은 상업적인 스팸 공격에 사용하기 위해 대량으로 만들어진 것입니다. 대부분의 가짜 계정을 등록 후 몇 분 이내에 발견하여 삭제할 수 있기 때문에, 3분기 수익 보고서에 언급된 바와 같이 Facebook 내 가짜 계정 유포 비율은 월간 액티브 사용자의 3~4% 수준에 머무르고 있습니다.

새로운 카테고리 추가

이번 보고서에는 ‘따돌림 및 괴롭힘’과 ‘아동 나체 이미지 및 아동에 대한 성착취’에 대한 데이터가 새롭게 추가되었습니다. 이에 따라 앞으로 해당 카테고리에 해당하는 위반 행위에 대한 적발과 규정 집행에 대한 경과를 함께 보실 수 있을 것입니다.

따돌림 및 괴롭힘은 개인적이며 상황에 따른 해석이 필요한 부분이 있어, 사용자의 신고가 있어야 이를 인지하거나 삭제할 수 있는 경우가 많습니다. 이러한 특징으로 인해 다른 유형에 비해 사전 감지율이 낮게 나타나는 분야입니다. 지난 분기에 저희는 따돌림 및 괴롭힘 관련 정책을 위반한 210만 개 콘텐츠에 대해 조치를 취했으며, 그중 15%가 사용자 신고가 이루어지기 전에 사전 삭제된 건이었습니다. 이 콘텐츠들은 사실 다른 위반 행위를 찾는 과정에서 발견된 것이었습니다. 대개 피해자가 가해 콘텐츠를 직접 신고해야 조치가 가능하다는 점이 많은 분들께 불편을 드릴 수 있다는 점을 잘 알고 있습니다. 이 분야에서 더욱 효과적으로 악용 사례를 미리 발견할 수 있도록 기능 개선을 위해 최선을 다하겠습니다.

Facebook의 커뮤니티 규정에서는 아동 학대를 엄격하게 금지하고 있으며, 잠재적인 학대 행위를 방지하기 위해 성(性)적이지 않은 콘텐츠, 예를 들어 큰 문제가 없어 보이는 아이들의 목욕 장면 등에 대해서도 다른 맥락에서 악용될 수 있기 때문에 필요한 조치를 취합니다. 지난 분기에만 아동 나체 이미지 또는 아동에 대한 성착취 규정을 위반한 870만 개의 콘텐츠가 Facebook에서 삭제되었으며, 그중 99%는 사용자의 신고가 접수되기 전에 조치가 이루어졌습니다. 최근에는 Facebook에서 아동 학대를 퇴치하기 위한 새로운 기술을 공개했으며, 이 기술을 통해 불법 콘텐츠를 훨씬 더 빠르게 식별할 수 있을 것으로 확신합니다.

저희는 Facebook에서 악용 사례를 방지하기 위해 해야 할 일이 아직 많다는 것을 잘 알고 있습니다. 앞으로도 머신 러닝과 인공 지능이 Facebook에서 악성 콘텐츠를 찾고 삭제하는 데 도움이 될 것으로 보입니다. 또한 이러한 진행 상황을 숫자로 파악하는 것 역시 저희가 이 문제에 집중하고 책임을 다하는 데 중요한 역할을 할 것입니다. Facebook은 프로세스와 데이터 측정 방법을 평가하기 위해 측정 및 관리 전문가들로 이루어진 데이터 투명성 자문 그룹(DTAG)과 협력하고 있으며, 앞으로도 더욱 정확하고 의미 있는 정보를 제공해드리기 위해 지속적으로 데이터를 개선하도록 노력할 것입니다.

커뮤니티 규정 집행 보고서, 정부 요청 및 지적 재산권 관련 삭제 조치에 대한 업데이트 사항은 뉴스룸을 통해 지속적으로 공유해드리도록 하겠습니다.