Meta

Facebook을 더욱 안전한 공간으로 만들기 위한 노력

독일 에센(Essen)의 콘텐츠 리뷰어들

모니카 비커트(Monika Bickert)
글로벌 정책총괄 부사장(VP of Global Policy Management)

2018년 7월 17일:

최근 영국Channel 4 뉴스가 보도한Facebook콘텐츠 관련 의혹에 대한 몇 가지 중요한 사실관계를 바로 잡고자 합니다.

크로스 체크(Cross Check)

첫 번째로, 게시자가 누구든 커뮤니티 규정을 위반한 콘텐츠는Facebook에서 삭제한다는 방침을 분명히 밝힙니다. 우리는 정치 성향과 관계 없이 그 어떤 집단에도 특별한 보호 혜택을 제공하지 않습니다. Channel 4의 탐사보도 프로그램인‘디스패치(Dispatches)’가 설명한‘크로스 체크(Cross Check)’ 시스템의 의미는 간단합니다. Facebook이 정책을 정확하게 적용했다는 점을 분명히 하기 위해, 특정 페이지나 프로필의 일부 내용에 대한 이중 검증 장치가 있다는 뜻입니다.

보통 사용자의 관심도가 높고 방문이 규칙적으로 이루어지는 페이지나 콘텐츠의 경우 실수로 삭제되거나 방치되지 않도록 크로스 체크를 적용합니다. Channel 4, BBC, The Verge 등 많은 언론사들의Facebook 페이지 역시 크로스 체크됩니다. 유명 인사나 정부,과거에 Facebook이 실수를 범한 적이 있는 페이지 등에서 올린 게시물 등에 이를 적용합니다. 예를 들어,한 미국 민권 운동가 계정의 경우, 혐오 발언(hate speech)에 대한 사회적 인식을 개선하기 위해 그가 벌인 활동을 실수로 삭제하지 않도록 크로스 체크를 실행했었습니다.

다만, Facebook의 게시물에 이중 검증이 이루어졌다고 해서 프로필이나 페이지, 콘텐츠가‘삭제’되지 않도록 완전히 보호 받는다는 의미는 아니라는 것을 꼭 말씀드리고 싶습니다. 이는 당사의 결정이 정확한지를  재확인하는 차원의 조치일 뿐입니다.

예를 들어 영국 극우정당Britain First의 페이지가 크로스 체크됐다고 해서 이곳의 콘텐츠가 보호받고 있다는 해석은 잘못된 것입니다. Britain First의Facebook 페이지의 경우, 페이지의 게시물들이 커뮤니티 규정을 계속 위반해 올3월 완전히 삭제 조치 했습니다.

미성년자의 계정 개설

Facebook에서는13세 미만의 미성년자는 계정을 개설할 수 없습니다. 해당 나이대의 미성년자가 계정을 개설하려고 한다는 사실이 보고되면,연령 확인을 위해 리뷰어가 이들의 프로필(텍스트와 사진)을 검토합니다. 13세 미만의 미성년자라고 판단되면, 당사자가 나이를 증빙할 때까지 계정 개설은 보류되고Facebook 이용도 차단됩니다.방송 보도 이후부터는, 계정 개설을 신청하는 이용자가 미성년자라고 볼 여지가 상당한 경우, 경우에 상관없이 리뷰어가 계정의 개설을 보류할 수 있도록 가이드라인을 업데이트하는 등 지속적인 노력을 기울이고 있습니다.


2018년 7월 16일:  

전 세계 사람들이 친구, 가족과 소통하고 다양한 아이디어와 의견을 공유하기 위해Facebook을 사용합니다.물론 이 모든 활동이 안전하다는 전제에서 말이죠. 때문에 우리는Facebook에서 해도 괜찮은 일에 대한 분명한 규칙과 이 규칙이 적용되는 프로세스를 만들었습니다. 여전히 더 나은 방식을 모색하고자 계속 노력하고 있지만, 늘 올바른 결정만 했다고 할 수는 없습니다.

더블린(Dublin)의Facebook 교육 세션을 담은 금주 Channel 4의 보도는 앞서 말한 정책과 프로세스에 대한 중요한 의문을 제기했습니다. 하지만, 방송의 나왔던 일부 내용이Facebook의 정책이나 가치를 다 반영하고 있는 것은 아니며, 저희가 기대했던 수준 높은 논의에도 미치지 못했습니다.

Facebook은 방송에 나온 내용을 매우 심각하게 받아들이며,취재진의 문제제기에도 감사를 표합니다. 같은 문제가 재발을 막기 위한 사건 경위 조사가 진행중입니다. 더블린 소재 모든 교육 담당자 모두를 즉시 재교육 조치했으며, 글로벌 차원에서도 같은 교육을 준비 중입니다. 또한 문제가 된 정책과 조치 내역를 검토해 과정에서 발견된 문제점들을 바로 잡았음을 알려드립니다.

Facebook은 관련한 모든 내용을Channel 4 보도팀에도 전달했습니다. 보도내용 중 동의할 수 없는 부분에 대한 의견도 전했습니다. Facebook 글로벌 정책 솔루션 부사장인Richard Allan이 해당 방송팀과 인터뷰를 진행했으며, 서면 답변인터뷰 스크립트 전문도 보실 수 있습니다.

유해 콘텐츠를 제거하지 않고 방치하는 것이 Facebook의 금전적 이익에 때문이라고 보도된 부분은 전혀 사실과 다릅니다. Facebook은 전 세계 모든 사람들이 정보를 공유하고 서로 연결될 수 있는 안전한 환경을 만드는 것을 성공의 핵심 가치로 삼고 있습니다. 우리 서비스가 안전하지 않다면, 사람들은 서로 정보를 공유하지 않을 것이고, 결국 쓰지 않게 될 것입니다. 광고주 역시 자사의 브랜드가 불안정하고 문제가 있는 콘텐츠와 연계되는 것을 결코 원하지 않습니다.

Facebook이 정책을 만들고 집행하는 방식

전 세계14억명 이상의 사람들이 매일Facebook을 사용하고 있습니다. 이들은 수십 가지 다양한 언어로 콘텐츠를 공유합니다.사진과 프로필 업데이트, 라이브 영상까지 다양한 콘텐츠가 게재됩니다. 어떤 콘텐츠가 게재 가능하고, 또 어떤 것이 삭제되어야 하는지 결정하기 위해서는 집단 괴롭힘, 혐오 발언, 테러와 전쟁범죄에 이르는 다양한 주제에 대해 복잡하고 어려운 판단을 거쳐야 합니다. 이를 위해 학계와NGO, 변호사 등 전 세계 전문가들의 도움으로 커뮤니티 규정을 구축했습니다. 올해5월, 유럽에서 세 차례 개최된Facebook 포럼을 통해 우리는 인권과 표현의 자유를 주장하는 운동가들, 테러 반대, 아동 안전 전문가들의 의견을 수렴했습니다. 이 커뮤니티 규정은 수년 동안 누구에게나 공개되어 있었고,올해는 저희 내부에서 사용하는 구체적인 가이드라인도 처음 공개했습니다.

현재 Facebook은 콘텐츠 관리와 검열을 위해, 방송에 나왔던 CPL을 비롯한 세계 여러 기업들과 함께 일하고 있습니다. 이들은 일주일 내내 수십 개의 언어로 된 보고 내용을24시간 검열하며, 특정 이슈와 개별 국가에 대한 심도 있는 전문성을 바탕으로 업무를 처리합니다.필요한 경우 Facebook 직원들에게 판단을 요청하며, 특히 아동학대 등 큰 문제가 되는 유형의 콘텐츠는 Facebook 직원들이 직접 게재 여부를 결정합니다.

신속하고 정확한 검토는Facebook 사용자들의 안전을 위한 필수요소입니다. Facebook은 올해 안전,보안 분야 직원 수를 기존의 두 배 가량인2만 명까지 늘려나가는 중입니다.이 중 콘텐츠 리뷰를 담당하는 인원은7천5백명이 넘습니다. 또한 플랫폼 상에서 문제가 되는 콘텐츠를 보다 효과적으로 해결하기 위한 기술 투자도 이어가고 있습니다. 예를 들어, 특정 분야의 콘텐츠를 분류해 전문성을 보유한 리뷰어에게 보고하거나, 중복 신고된 내용을 삭제하고, 테러리스트의 선전내용이나 아동성폭력 이미지를 사전에 발견해 제거하는 일 등에 다양한 기술을 사용합니다.

커뮤니티 규정의 개선과, 이 규정이 효과를 발휘할 수 있도록 하는 노력도 지속하고 있습니다. 복잡하고 어려운 일이지만,여전히 해야할 많은 일들이 남아있습니다. Facebook이 이용자들과 그들과 연결된 모든 사람들에게도 안전한 공간이 될 수 있도록, 그 일련의 노력이 올바르게 진행될 수 있도록 최선을 다하겠습니다.

다운로드: