세계적인 동영상 사이트 유튜브가 지난해 4분기 하루 9만건 가량의 폭력적, 외설적인 부적절한 동영상을 삭제한 된 것으로 나타났다.

유튜브는 24일(현지시간) 블로그를 통해 "지난해 10~12월 커뮤니티 규정을 위반한 동영상을 800만개 이상 삭제했다"고 밝혔다. 영국 파이낸셜타임스(FT) 등 외신은 월평균 9만 2천여건이 삭제된다고 전했다.

그동안 유튜브는 선정적이고 폭력적인 내용이 담긴 부적절한 영상이 나돌아다님에도 이를 효과적으로 차단하지 못했다는 비판을 받아 왔다. 이에 따라 규정 위반 동영상 처리 관련 통계를 처음으로 공개했다.

동영상 중 대부분은 스팸 영상이나 성인물이었고, 테러리즘과 인종 혐오 발언 및 미성년 어린이를 겨냥한 성적 표현이 담긴 내용이었다. 이는 80%이상 인공지능 머신러닝(기계학습)을 통해 제거됐다.

670만개 영상은 사람이 아닌 자체 시스템에 의해 플래그 지정(문제의 소지가 있는 동영상으로 분류)이 됐고, 이 중 76%는 조회수가 10회 미만일 때 삭제됐다.

2017년 초까지는 극단적인 폭력성을 띄고 있는 동영상 중 조회수 10회 미만에서 삭제된 비율은 8%에 그쳤다. 하지만 유튜브가 지난해 6월 '머신 러닝' 시스템을 도입한 이후 이 비율은 50% 이상으로 상승했다.

인공지능(AI)의 한 분야인 머신 러닝은 컴퓨터가 스스로 방대한 양의 데이터를 분석해 학습하는 시스템을 뜻한다.

유튜브는 "머신러닝에 많은 투자를 해왔기에 폭력적 극단주의 같은 치명적이고 위험한 동영상부터 스팸 광고와 같은 동영상에 이르기까지 차단할 수 있었다"며 "올해 말까지 1만 명의 전문 인력을 투입하겠다"고 밝혔다.

이를 위해 반극단주의·반테러리즘 전문가와 지역 전문가를 영입하고 있는 상황이다.

저작권자 © 월드투데이 무단전재 및 재배포 금지