Meta

커뮤니티 규정 내부 가이드라인 공개 및 이의 제기 절차 확대

Monika Bickert, VP of Global Product Management

Facebook이 가장 자주 접하는 질문 중 하나는 어떤 콘텐츠를 Facebook에서 허용할지 말지를 어떻게 결정하는가 입니다. 이것은 Facebook이 모두 각각 다른 생각을 자유롭게 표현할 수 있는 공간이자, 동시에 안전한 공간이 되도록 보장하는 그 어떤 의사결정보다도 중요한 결정입니다. 지난 수년간, Facebook은 커뮤니티 규정(Community Standards)을 통해 Facebook 플랫폼에서 허용되는, 혹은 허용되지 않는 콘텐츠가 무엇인지를 설명해 왔습니다. 오늘은 여기서 한 발 더 나아가, Facebook이 어떤 과정을 거쳐 이를 적용하는지에 대한 내부 가이드라인을 공개하고자 합니다. 아울러, 개별 게시물에 대한 커뮤니티 규정 적용이 잘못 됐다고 생각할 경우 이의를 제기할 수 있는 절차를 확대합니다.

이 내부 가이드라인을 공개하기로 결정한 데는 두 가지 이유가 있습니다. 첫째, Facebook이 의사 결정 과정에서 이슈의 맥락을 어떻게 고려하는지 여러분께 더 잘 설명하고, 둘째, 다양한 전문가를 포함한 보다 많은 분들의 피드백을 통해 Facebook 내부 가이드라인과 이에 기반한 결정과정의 개선점을 파악하기 위해서입니다.

정책 개발 과정

Facebook에는 커뮤니티 규정 개발을 전담하고 있는 콘텐츠 정책 팀(content policy team)이 있습니다. 해당 팀은 전 세계 11개 오피스에 상주하고 있으며, 혐오 발언, 아동 안전, 테러 등 각 분야의 전문가들로 이뤄져 있습니다. 이 팀의 구성원 대부분은 Facebook에 합류하기 오래 전부터 표현의 자유 및 이용자 안전에 대한 업무를 맡아 왔습니다. 저 역시 검사직을 수행하던 시절, 아동 안전부터 대테러에 이르기까지 많은 분야를 다뤘습니다. 다른 팀원들 또한 성폭력 상담전문가, 혐오 단체만 전문적으로 연구해온 학자, 인권 변호사, 교사 등 다양한 배경을 갖고 있습니다. 더불어, 매주 외부 전문가 및 기관들과 소통하며 조언을 통해, 표현의 자유와 이용자 안전에 대한 다양한 시각을 반영하고, Facebook의 정책이 전 세계 다양한 커뮤니티에 어떤 영향을 미치는지도 함께 살피고 있습니다.

이러한 외부의 피드백, 그리고 빠르게 변화하고 있는 사회적 가치와 언어 등을 바탕으로 Facebook의 규정 또한 시간에 따라 진화하고 있습니다. 하지만, 변하지 않는, 그리고 앞으로도 변하지 않을 단 하나의 원칙은 바로 모두가 안전하고 평등하게 자신의 목소리를 낼 수 있어야 한다는 점 입니다. 사람들과 대화를 시작하고, 교류하려면 우선 내가 안전한 환경에 있다는 생각이 들어야합니다. 동시에, Facebook은 자신과 반대되는 의견을 가진 사람들 사이에서도 생각을 자유롭게 표현하는 공간일 수 있어야 합니다. 물론 전 세계 사람들이 이용하는 서비스인 만큼, 모든 사람이 만족하는 환경을 만드는 것은 쉽지 않지만, 동일한 환경을 제공하는 것은 여전히 중요합니다. Facebook의 목표는 모든 커뮤니티와 문화권에 일관성 있는 규정을 적용하는 것 입니다. 이는, 커뮤니티 규정의 서문에 명확히 써 있으며, 각 규정에 대한 자세한 설명을 통해 Facebook의 목표를 보다 분명히 밝히고 있습니다.

규정의 적용

Facebook의 커뮤니티 규정은 제대로, 명확하게, 그리고 강력하게 적용 됐을 때 가장 큰 효과를 낼 수 있습니다. 물론, 저희가 규정을 적용하는 모든 과정이 언제나 완벽하다고 말씀 드릴 수는 없습니다.

Facebook이 마주하고 있는 어려움 중 하나는 커뮤니티 규정을 위배할 가능성이 있는 콘텐츠를 미리 파악하고 검토하는 것 입니다. Facebook은 인공지능과 이용자들의 신고 등 다양한 기술을 복합적으로 사용하고 있습니다. 이를 통해 Facebook에 게재되는 게시물, 사진 등이 커뮤니티 규정에 위배되는지 여부를 판단합니다. 접수된 신고는40개 이상의 언어로 24시간 콘텐츠를 살펴보는 커뮤니티 오퍼레이션(Community Operations)팀에 의해 검토됩니다. Facebook은 약 7,500명으로 이뤄진 커뮤니티 오퍼레이션 팀을 운용하고 있습니다. 현재의 팀 규모는 작년 동기 대비 40% 가량 증가한 수준입니다.

또 다른 어려움은 신고된 콘텐츠에 어떠한 규정을 적용할지 정확히 판단하는 것입니다. 때때로, Facebook의 커뮤니티 규정이 명확한 기준을 제시하지 못해 콘텐츠에 대한 판단에 실수가 생기기도 합니다. 규정과 현실의 격차를 줄이기 위해 노력하고 있지만, 최종적으로 사람의 손을 거쳐 마무리되는 과정인 만큼 잘못 판단할 수도 있다는 점을 잘 알고 있습니다.

이의 제기

이처럼, 커뮤니티 규정 적용의 정확도를 높이기 위해 노력하고 있음에도, 항상 맞는 결정만 내려지는 것은 아닙니다.  때문에, Facebook은 지금까지 프로필이나 페이지, 그룹 등이 삭제 됐을 때, 이용자가 이의를 제기할 수 있는 방법을 제공해 왔습니다. 오늘부터는, 나체 이미지, 성적 행위, 혐오 발언, 폭력 등으로 분류돼 삭제된 콘텐츠에 대해서도 이의를 제기할 수 있는 절차가 새롭게 도입됩니다. 과정은 아래와 같습니다.

위 이미지는 잘못된 결정으로 인해 삭제된 콘텐츠에 이의를 제기할 수 있는 옵션을 보여주는 예시입니다

또한, 신고한 분께도 해당 게시물이 커뮤니티 규정을 위반하지 않았다는 내용을 전달하는 기능을 연말까지 갖추려고 합니다.

참여와 피드백

커뮤니티 규정은 전 세계 다양한 이용자들의 도움이 있을 때 더 발전할 수 있습니다. 올해 5월, Facebook은 독일, 미국, 싱가포르, 영국, 인도, 프랑스 등의 국가에서 이용자의 목소리에 귀를 기울이는 공개 행사를 진행할 것 입니다. 이와 관련된 보다 많은 소식은 자세한 내용이 확정되면 다시 말씀 드리겠습니다.

Facebook의 CEO인 마크 저커버그는 올해 초, “모든 실수나 오용 사례를 사전에 다 막을 수는 없지만, 지금의 Facebook은 우리의 정책을 적용하고 Facebook의 오용을 막는 데 있어 너무나 많은 실수를 저지르고 있다”고 이야기했습니다. 오늘 내부 가이드라인의 발표, 그리고 이의 제기 절차의 확대 등에 대해 설명드리는 것은, 앞으로 저희가 어떤 방향으로 Facebook 플랫폼을 이끌어 갈지 좀 더 명확히 알려드리기 위함입니다. 결코 쉽게 해결할 수는 없겠지만, 날마다 더욱 나아질 수 있기를 기대해봅니다.