페이스북, 폭력 콘텐츠 걸러낼 새로운 규정 신설

페이스북, 폭력 콘텐츠 걸러낼 새로운 규정 신설

페이스북이 인류를 위협하는 폭력적인 콘텐츠에 맞설 규정을 만들었다.

22일(현지시각) 가디언이 입수한 자료에 따르면 페이스북은 중재자가 20억명에 이를 사용자 포스트를 검열할 때 사용하는 규정집을 만들었다고 밝혔다. 폭력이나 섹스, 증오, 논쟁이 있을 만한 콘텐츠가 검토 대상이다. 이는 이달 초 페이스북이 추가로 3000명의 모니터 요원을 고용할 것이라고 발표한 직후에 나온 보도다.

페이스북은 그동안 수천명 중재자를 고용해 잠재적으로 공격적인 포스트나 사망 비디오, 폭력적이거나 성적인 콘텐츠, 비방이나 위협적인 글 등을 모니터링해 왔다.

가디언에 따르면 페이스북 규정집에는 그간 중재자와 공유했던 수천장 사진 슬라이드가 담겼다. 많은 중재자는 페이스북 정책에 반하는 검열이 필요한 수많은 포스트에 피로감을 느낀 것으로 알려졌다. 중재자들은 10초에 한번 꼴로 사이트에서 해당 포스트를 삭제할지를 결정했다.

페이스북 모니터링 정책은 크게 네가지로 구분된다. △정신건강에 해로움을 줄 폭력적인 죽음 △아동학대 이미지 △동물학대 △정치적 인사에 대한 폭력적인 위협 등이다.

페이스북 관계자는 “20억명이 이용하는 서비스에서 공통적 의견을 찾기는 어렵다”면서 “어떤 것을 공유할지에 관한 문제는 관점 문제”라고 말했다.

이경민 기자 kmlee@etnews.com