By Alex Schultz, Vice President of Analytics
회사나 조직이 당면한 문제에 대한 좋은 결정을 내리려면, 개인의 경험이나 직관보다는 정확하게 측정된 수치를 활용하는 것이 도움이 됩니다. 저명한 경영 컨설턴트 피터 드러커(Peter Drucker)의 말처럼, “측정할 수 있어야 개선할 수 있는 것”입니다. Facebook의 안전과 보안 문제에 대해 저희가 지키고자 하는 원칙 역시 이와 같습니다.
Facebook은 사람들이 서로 다른 생각을 터놓고 이야기할 수 있는 곳입니다. 다소 논쟁의 여지가 있거나 과격하게 보이는 생각 역시 마찬가지입니다. 그러나 동시에 Facebook은 모두에게 안전한 곳이어야 합니다. 문제는 이 둘 사이의 균형을 맞추는 일이 쉽지 않다는 것입니다.
지난 달, 저희는 Facebook 의 콘텐츠 관리팀이 Facebook에서 어떤 내용을 보여주고 삭제할지 판단하는 데 사용하는 가이드라인을 처음으로 공개했습니다. 그리고 오늘, 이러한 가이드라인을 시행한 결과의 효용성을 측정하는 데 쓰는 내부 데이터를 처음으로 공유합니다. 이 측정방식은 앞으로도 계속 개선하고 고도화해 나갈 부분이라 오늘 말씀드리는 내용 중 추후에 변경이 이뤄지는 부분이 있을 수도 있습니다.
오늘은 Facebook의 내부 프로세스 및 데이터 방법론에 대해 자세히 설명해드리려고 합니다. 이는 저희 서비스에서 유해 콘텐츠를 얼마나 효과적으로 삭제하고 있는지 공개하기 위함으로, 그 결과는 여러분이 판단하실 수 있을 것으로 생각합니다. 또한, 오늘 공개해드리는 내용을 통해 학계나 정부 관계자, 커뮤니티 그룹에 계신 모든 분들이 저희에게 더욱 쉽게 의견을 주시는데 도움이 되기를 바랍니다. 여러분의 의견으로 저희 서비스가 더 나아질 수 있기 때문입니다.
혐오 발언, 테러 선동, 아동 착취 이미지 등 유해 콘텐츠를 Facebook에 게시하려는 사람들이 늘 있다는 현실 자체를 저희가 바꿀 수는 없습니다. 저희가 할 수 있는 것은 Facebook의 커뮤니티 규정을 위반하는 콘텐츠를 사용자가 보는 빈도, 즉 조회수를 제어하기 위해 노력하는 것입니다. 저는 데이터 분석 부문의 책임자로서, Facebook에서 정책이 얼마나 효과적으로 시행되고 있는지 보다 잘 파악할 수 있도록 측정하는 팀을 이끌고 있습니다.
총 영향력
저희가 사용하는 가장 중요한 측정값은 영향력입니다. 이는 Facebook에 유해 콘텐츠가 게시되었을 때 이러한 콘텐츠가 미치는 유해성을 말합니다. 이를 확인하기 위한 개념적 공식은 매우 간단합니다. 저희는 콘텐츠가 얼마나 자주 보여졌는지(“조회 수”), 그리고 각 조회 시마다 이를 본 사용자와 커뮤니티에 얼마나 영향을 미쳤는지를 측정합니다.
총 영향력 = 정책 위반 콘텐츠의 조회 수 x 조회당 정책 위반 콘텐츠의 영향력
조회 수는 비교적 확인하기 쉽습니다. 사용자가 어떤 콘텐츠를 본 횟수만 측정하면 되니까요. 하지만, 영향력을 정확하게 측정하는 일은 훨씬 어렵습니다. 예를 들어, 혐오 발언을 본 사용자와 폭력적 이미지를 본 사용자가 얼마나 부정적인 영향을 받았는지 비교하려면 어떻게 해야 할까요? 그 차이는 어떻게 나타내야 할까요? 테러리스트 선동의 심각성과 아동 성범죄 이미지의 심각성을 어떻게 비교할 수 있을까요?
이러한 영향력을 수치로 비교할 수는 없기 때문에, 저희는 유해성을 유형별로 분류하고 우선 순위를 지정하는 방법을 선택했습니다. 이 방법이 주관적일 수 있다고 생각하시는 분도 계실 거라 생각합니다. 그 분들 생각처럼, 이 방식에 주관이라는 요소가 포함되는 것은 사실입니다. 그러나 우선 순위를 지정하면 가장 긴급하고 위험하다고 확인된 콘텐츠의 관리에 가장 신속하게 리소스를 집중시키는 데 도움이 됩니다.
예를 한 번 들어볼까요? 어떤 사용자가 Facebook에 나체 이미지를 게시한다고 가정해보겠습니다. 이는 당사의 규정에 위배되며 Facebook에서는 이를 삭제합니다. 실제로, Facebook의 나체 이미지 필터는 현재 매우 효과적입니다. 그러나 이러한 이미지가 헤어진 여성에게 복수하려는 남성이 게시한 사진이라면 어떻게 될까요? Facebook에서는 이 경우 부정적인 영향력이 훨씬 더 크다고 간주하고 해당 이미지를 삭제 조치 대기열로 보냅니다. 이 과정은 응급실에서 부상자를 분류하는 것과 유사한 맥락입니다. 모든 환자의 생명이 중요하지만, 가장 심각한 경우를 최우선 순위로 두는 것입니다.
Facebook에서 보이는 유해콘텐츠의 빈도
허위 계정, 혐오 발언, 나체 이미지 등 각각의 특정한 악용 카테고리 내에서 Facebook이 가장 중점을 두는 부분은 Facebook에서 모든 콘텐츠가 조회된 총 횟수에 비례하여 Facebook 규정을 위반하는 콘텐츠가 실제로 조회된 빈도입니다. 저희는 이를 ‘확산’이라고 합니다. 이는 어떤 콘텐츠가 Facebook에 표시된 기간이 아닌, 콘텐츠가 조회된 빈도를 측정한 값입니다. 가령 혐오 발언을 담은 콘텐츠가 10분 동안 1백만 번 조회된 경우, 30분 동안 10번 조회된 것보다 훨씬 나쁜 것으로 보는 것입니다.
저희는 Facebook에서 콘텐츠 샘플을 선택한 후, 해당 콘텐츠가 얼마만큼 부적절한지 분류해 이러한 지표를 계산합니다. 자세한 내용은 해당 데이터에 대한 가이드에서 참조하실 수 있습니다. Facebook은 이러한 확산 정보를 확인해 단순히 Facebook의 규칙을 위반하는 콘텐츠의 갯수를 세는 것이 아닌, 콘텐츠의 실제 조회 수에 중점을 둡니다. 다시 말하자면, Facebook은 모든 콘텐츠를 똑같이 취급하지 않습니다. 1백만 번 조회된 게시물이라면 샘플링될 확률이 1백만 배 더 높다는 것을 의미하며 이는 바람직한 일입니다.
일각에서는 Facebook이 규정에 위배되는 콘텐츠(예: 게시물 또는 이미지)를 삭제하는 데 걸리는 시간에 대한 지표를 공개해야 한다는 의견을 제기하기도 합니다. 그러나 저희는 얼마나 빨리 조치했느냐가 Facebook의 서비스를 효과적으로 감시하기 위한 최상의 지표는 아니라고 생각합니다. 물론 실수를 하기도 합니다. Facebook의 커뮤니티 규정을 실제로 위반하지 않은 콘텐츠가 삭제되는 경우도 있고, 삭제되어야 하는 콘텐츠가 삭제되지 않는 일도 발생합니다. 어떠한 실수든 실제 사용자에게 부정적인 영향을 미칠 수 있기 때문에 이를 개선하기 위해 늘 노력합니다.
Facebook은 신고된 콘텐츠를 검토하는데 더 많은 인력을 집중적으로 투자합니다. 그러나 가이 로젠(Guy Rosen)이 2주 전에 설명드린 바와 같이, 머신 러닝, 컴퓨터 비전, 인공 지능 같은 새로운 기술은 사람보다 훨씬 더 빠른 속도와 훨씬 더 폭넓은 규모로 유해 콘텐츠를 더욱 빨리 찾는데 도움이 됩니다. 실제로, 인공 지능을 사용하면 유해 콘텐츠가 신고되기도 전에 해당 콘텐츠를 Facebook에서 삭제할 수 있습니다. 바로 이 점 때문에 현재 콘텐츠가 신고되기 전에 Facebook이 콘텐츠를 플래그하는 빈도를 측정하고 있습니다. 이 지표는 유해 콘텐츠가 Facebook 사용자에게 미치는 부정적인 영향을 줄이는 것과 직접적인 연관이 있어 이를 개선하는 것이 매우 중요합니다.
선의의 가치 찾기
저는 게이 남성으로 Facebook을 쓰면서 이 서비스와 그 이용자들로부터 접할 수 있는 가장 좋은 점과 나쁜 점 모두를 직접 경험했습니다. Facebook은 제가 세상에 혼자라고 느낄 때 커뮤니티, 즉 공동체를 찾을 수 있도록 도와주었습니다. Facebook의 공개 범위 설정 기능 역시 관계에 따라 제 게시물을 누구에게 어느 정도까지 공유할 것인지를 조절할 수 있도록 도움을 주었고 여전히 이 기능으로 커밍아웃의 범위를 조절하고 있습니다. 동시에, 제가 사람들에게 많이 알려지게 되고, Facebook에서 맡은 역할로 인해 쏟아지는 비난을 받기도 했습니다. 이로 인해 우울함과 두려움을 느낄 때도 있었습니다.
이런 개인적인 경험들이 저희 모두를 여러분이 Facebook에서 긍정적인 경험을 하실 수 있도록 더욱 노력하게 만드는 요인들이 됩니다. 오늘 소개해드린 내용, 블로그 및 가이드를 통해, 저희가 이를 위해 어떤 노력을 기울이고 있는지 확인하실 수 있으셨기를 바랍니다. 더불어, 이를 어떻게 개선할 수 있을지 공론의 장을 함께 만들어주시기를 기대합니다. 측정할 수 있으면, 개선할 수 있으니까요.