▲ 페이스북 자료사진.

투데이코리아=이지현 기자 | 페이스북이 가짜 계정만 54억 개, 성인콘텐츠 8620만 건을 삭제·규제조치 했다고 밝혔다.
13일(현지시간) 페이스북이 공개한 ‘커뮤니티 규정 집행 보고서(Community Standards Enforcement Report)’에 따르면 페이스북은 1~9월간 54억 개의 가짜 계정을 제거하고 유해 콘텐츠를 조치했다고 밝혔다. 지난 해 삭제된 계정은 33억 건으로 올해는 더 늘었다.

보고서에 따르면 이슬람국가(IS)나 알카에다 등 테러조직을 지지하는 콘텐츠 1780만 건이 규정에 따라 조치됐다. 이어 아동을 성적으로 착취·이용하는 류의 콘텐츠는 2430만 건, 종교나 민족·성별 등에 대한 혐오발언 관련 콘텐츠는 1550만 건이 규제됐다.

특히 알몸사진을 포함해 규제를 어긴 성적 콘텐츠는 8360만 건으로 가장 많았다.

CNN에 따르면 마크 저커버그 최고경영자(CEO)는 계정 삭제 조치가 페이스북이 잘못된 정보와 해로운 게시물에 얼마나 예민하게 대처하고 있는지 보여준다고 밝혔다. 또 다른 소셜미디어(SNS) 기업도 이런 움직임에 동참해달라고 촉구했다.

페이스북은 “우리의 탐지기술은 하루 수백만 건의 가짜 계정 생성 시도를 막고 있다”며 “우리의 (폐쇄) 규모가 크다고 해서 페이스북에만 해로운 콘텐츠가 많다는 의미는 아니다. 우리가 이런 정보를 골라내기 위해 열심히 하고 있으며, 그래서 숫자가 큰 것”이라고 설명했다.

페이스북은 2016년 미국 대선 이후 콘텐츠 규제와 관련한 조치를 더 투명하게 하려고 노력하고 있다. 대선 당시 페이스북이 가짜 뉴스의 온상이 되면서 외부 세력의 선거 개입을 막는 데 실패했다는 비판이 제기됐기 때문이다.



저작권자 © 투데이코리아 무단전재 및 재배포 금지