*** 이 글은 스마트플레이스(www.smartplace.co.kr)에 오늘 포스팅한 글이며 중복을 막기 위해 올블과 이올린에 피딩하지 않습니다.
댓글 등도 스마트플레이스에서 해주시기 바랍니다.
"두려웠다.
독자들이 우리보다 힘이 생기는 것이 두려웠다.
일개 기업들이 우리를 깔보는 것이 기분 나빴다.
세상을 우리 힘으로 움직일 수 없다는 것이 불쾌하다."
언론들이 포털 서비스와 UCC에 대해 집중포화를 날리는 배경이 아닐까 싶습니다.
말은 다 동감하며 그 상황이나 정황 역시 이해합니다.
하지만 어제 왜 그만은 "잘들 논다. 음란물 찾기에 눈만 벌건 기자들"이란 포스트를 통해 화를 났을까요. 음란물 대책을 해당 사안으로 집중하지 못하고 문제를 확대시키고 침소봉대하면서 난리 치는 그들의 논리가 허무맹랑하며 그에 대한 정부와 업계의 대처가 지나치게 소극적이어서 그렇습니다.
어제는 분개를 하는 바람에 띄엄띄엄 내용을 건너 띄었지만 지금부터 왜 그만은 음란물 사건에 대해 화가 났었는지 구체적인 배경을 설명드리겠습니다.
그렇다면 음란물 감지 시스템이 존재하느냐.
현재도 있습니다. 자동으로 음란물을 인식할 수 있는 기술이 있습니다. 지란지교소프트의 경우 지금도 음란물 동영상을 재생시킬 수 없는 기술을 보유하고 있으며 일부 ISP를 통해 서비스하고 있습니다.
깜짝 놀라셨나요? 음란물 동영상을 인식하면 모든 포털업체들이 그 기술을 도입하면 되는 것 아니냐는 말씀도 하실 것 같군요.
하지만 분석 기법이 다릅니다.
지란지교소프트가 동영상 파일을 음란물인지 판단하는 기준은 해당 파일에 대한 패턴을 분석하는 것입니다. 원본 동영상(또는 인터넷으로 유통되고 있는 불법 동영상 포함)의 패턴은 파일의 정보를 갖고 있는 헤더 부분에서 읽어들입니다.
예를 들어 XXX 동영상의 경우 85.673MB이며 재생시간이 1시간 12분이고, 음성이 포함돼 있고 DivX avi로 인코딩 돼 있다는 등의 메타 정보와 패턴을 원본 동영상과 매칭시켜보면 이 파일이 음란 파일인지 판단해낼 수 있습니다.
지란지교소프트 역시 이 기술로 화면을 읽어들여 색깔을 분류해내는 식은 아니라고 설명합니다.
따라서 음란물인지 아닌지는 전적으로 원본과의 대조를 통해 이뤄져야 하는 것이죠.
문제는 이 음란물을 한 번만 다른 파일로 인코딩시키거나 변환, 또는 편집한다면 원본과의 매칭이 되지 않기 때문에 새로운 파일이 돼 버립니다.
일부 영상 안면 인식 기술을 말씀하시는 분들이 있습니다. 물론 IBM 연구소에서도 CCTV를 이용해 출입자의 동선을 파악하는 기술을 개발중이며, 국내 안면 인식 보안 업체들도 활발하게 기술을 개발진행중입니다. 하지만 안면 인식 기술은 동영상이 음란한지 여부를 판단하는 기술과는 근본적으로 차이가 있습니다.
현재 UCC 업체들은 음란물 검색 차단을 어떻게 하고 있을까?
판도라 측에서 보내온 자료와 업계의 필터링 기법은 거의 유사할 것으로 생각되어서 인용하겠습니다.
"판도라TV의 경우 하루에 약 5,500∼6,000개 업로드 되는 동영상을 키워드 차단과 모니터 요원을 이용한 2단계 동영상 필터링 방식을 통해 365일 24시간 모니터링을 실시하고 있다.
우선, 1차로 키워드 차단을 통해 대부분의 성인관련키워드의 검색을 차단하고, 2차로 모니터링 팀에서 사람이 직접 최종적으로 필터링 작업을 마무리한다. 모니터링 팀은 국내 30명과 중국 10명으로 구성되어 있으며 실시간 핫라인으로 서로 연계되어 업무의 효율을 높였다.
동영상의 속성상 모니터링 시스템 운영이 어렵지만, 32배속 고속 재생 기능을 이용하여 일일이 확인하고 있으며 24시간 3교대 모니터링을 지난 2006년 9월에 도입하여 지속 실시하고 있다. 모니터링 요원들은 신규 프로그램 리스트 페이지를 주말에도 쉬지 않고 24시간 감시하며 유해 동영상과 불법 동영상을 차단하고 있다."
우리의 상식선을 넘어선 기술은 아직 없습니다.
야후 야미 출범식이 있었던 날 그만은 야후에게 "동영상 검색은 매우 생소하다. 인터넷에서 동영상을 긁어온다는 것이 매우 위험한 발상 아닌가. 폭력, 음란, 유해 동영상이 노출될 경우도 있을텐데..."
야후는 이렇게 말했죠. "야후는 최고의 검색 기술 전문가들이 있다. 야후의 기술진은 동영상 자체를 분석하기는 힘들지만 동영상과 연결돼 있는 사이트의 패턴, 검색어와 해당 동영상 설명과의 매칭 등을 통해 기존의 음란물 사이트 차단 방식을 확장시킨다고 보면 된다."
그만은 음란 동영상을 유해한지 여부를 확인하기 위해 기술적인 모니터링이 필요하다는 것도 인정합니다.
하지만 그만도 다음, 엠파스, 네이트, 판도라TV, 엠군, 나우콤(아프리카), 다모임(엠앤캐스트) 등 관계자를 만날 때마다 물어봅니다. 유해 동영상 걸러낼 수 있느냐고.
'모니터링 강화' 이외에는 답이 없었습니다.
근데 대뜸 네이버가 "인종별로 사람의 피부색과 비슷한 이미지가 전체 몇% 이상을 차지할 경우 음란물로 판단해 자동 필터링 할 수 있는 기술"을 운운하며 기술적인 필터링 방법을 제시할 듯이 말하는 것에 화가 나더군요.
그 프로젝트가 실행되더라도 적어도 3년 안에는 나올 수 없는 기술일 겁니다.
그 기술이 나오더라도 갖가지 피해갈 수 있는 꼼수는 나올 수밖에 없습니다.
특히 UCC 동영상의 경우 사용자가 파일을 올리는 매순간 같은 파일이라도 다른 사용자가 올리면 인코딩 시간과 방식에 따라 전혀 다른 패턴을 갖는 경우가 생깁니다.
어떤 분은 1000개 동영상을 다 볼 수 없으니 기계로 500개를 걸러내고 이를 사람이 모니터링하면 좋은 거 아니냐고 말할 수도 있을 겁니다. 현재의 모니터링이 거의 그렇습니다. 금칙어, 검색어, 또는 연결성 등을 통해 걸러내고 나머지를 전량 조사하는 방법입니다.
근데 지금 문제가 된 것은 나머지 500개 가운데 1개 동영상일 경우입니다. 그 1개 때문에 500개를 눈 빠지게 봤던 모니터링 시스템은 완전 무가치해보이는 상황이 발생된 것입니다.
그리고 또 하나, 문제가 있는 서비스라면 내려야 정상입니다.
지금의 포털이 너무 많은 것을 혼자 소화하려니 이런 문제들이 생기는 것일 수도 있습니다.
2003년 9월 MSN은 채팅 서비스를 폐쇄한 적이 있습니다. 이 때는 어린이들이 채팅을 통해 사회적인 폭력에 노출되는 것을 방지해야 하는데 현실적으로 이를 막기 위해서는 채팅룸을 아예 서비스하지 않는 것이 낫다는 판단에서였다고 합니다.
MSN to close chat rooms[CNN, 2003. 9.]
야후가 야미 서비스에 사실상 중단 결정까지 내리면서 신중히 접근하려는 이유는 이러한 사회적인 책임과 기대에 대해 서비스 기업들이 어떻게 반응해야 하는지 알고 있기 때문입니다.
서비스 업계는 선택해야 합니다. 더 많은 비용을 들여 모니터링과 사용자 통제, 신고 대응 등 대처를 늘려가든가, 서비스를 접든가.
그런 면에서 네이버가 발빠르게 모니터 요원을 100여명 증원할 것이란 이야기에는 매우 고무적입니다. 살색 영상 모니터 기술 이야기만 빠졌어도 그만은 박수를 쳤을 것입니다.
언론이 오버한다고 서비스 기업들이 오버할 필요는 없죠. 냉정하게 현실을 설명하고 대처 방안에 대해 치밀하게 준비하는 것 이상은 별로 없다는 것입니다. 상상속의 기술을 미리부터 입밖으로 꺼내지 말았으면 좋겠습니다.
댓글 등도 스마트플레이스에서 해주시기 바랍니다.
"두려웠다.
독자들이 우리보다 힘이 생기는 것이 두려웠다.
일개 기업들이 우리를 깔보는 것이 기분 나빴다.
세상을 우리 힘으로 움직일 수 없다는 것이 불쾌하다."
언론들이 포털 서비스와 UCC에 대해 집중포화를 날리는 배경이 아닐까 싶습니다.
말은 다 동감하며 그 상황이나 정황 역시 이해합니다.
하지만 어제 왜 그만은 "잘들 논다. 음란물 찾기에 눈만 벌건 기자들"이란 포스트를 통해 화를 났을까요. 음란물 대책을 해당 사안으로 집중하지 못하고 문제를 확대시키고 침소봉대하면서 난리 치는 그들의 논리가 허무맹랑하며 그에 대한 정부와 업계의 대처가 지나치게 소극적이어서 그렇습니다.
어제는 분개를 하는 바람에 띄엄띄엄 내용을 건너 띄었지만 지금부터 왜 그만은 음란물 사건에 대해 화가 났었는지 구체적인 배경을 설명드리겠습니다.
그렇다면 음란물 감지 시스템이 존재하느냐.
현재도 있습니다. 자동으로 음란물을 인식할 수 있는 기술이 있습니다. 지란지교소프트의 경우 지금도 음란물 동영상을 재생시킬 수 없는 기술을 보유하고 있으며 일부 ISP를 통해 서비스하고 있습니다.
깜짝 놀라셨나요? 음란물 동영상을 인식하면 모든 포털업체들이 그 기술을 도입하면 되는 것 아니냐는 말씀도 하실 것 같군요.
하지만 분석 기법이 다릅니다.
지란지교소프트가 동영상 파일을 음란물인지 판단하는 기준은 해당 파일에 대한 패턴을 분석하는 것입니다. 원본 동영상(또는 인터넷으로 유통되고 있는 불법 동영상 포함)의 패턴은 파일의 정보를 갖고 있는 헤더 부분에서 읽어들입니다.
예를 들어 XXX 동영상의 경우 85.673MB이며 재생시간이 1시간 12분이고, 음성이 포함돼 있고 DivX avi로 인코딩 돼 있다는 등의 메타 정보와 패턴을 원본 동영상과 매칭시켜보면 이 파일이 음란 파일인지 판단해낼 수 있습니다.
지란지교소프트 역시 이 기술로 화면을 읽어들여 색깔을 분류해내는 식은 아니라고 설명합니다.
따라서 음란물인지 아닌지는 전적으로 원본과의 대조를 통해 이뤄져야 하는 것이죠.
문제는 이 음란물을 한 번만 다른 파일로 인코딩시키거나 변환, 또는 편집한다면 원본과의 매칭이 되지 않기 때문에 새로운 파일이 돼 버립니다.
일부 영상 안면 인식 기술을 말씀하시는 분들이 있습니다. 물론 IBM 연구소에서도 CCTV를 이용해 출입자의 동선을 파악하는 기술을 개발중이며, 국내 안면 인식 보안 업체들도 활발하게 기술을 개발진행중입니다. 하지만 안면 인식 기술은 동영상이 음란한지 여부를 판단하는 기술과는 근본적으로 차이가 있습니다.
현재 UCC 업체들은 음란물 검색 차단을 어떻게 하고 있을까?
판도라 측에서 보내온 자료와 업계의 필터링 기법은 거의 유사할 것으로 생각되어서 인용하겠습니다.
"판도라TV의 경우 하루에 약 5,500∼6,000개 업로드 되는 동영상을 키워드 차단과 모니터 요원을 이용한 2단계 동영상 필터링 방식을 통해 365일 24시간 모니터링을 실시하고 있다.
우선, 1차로 키워드 차단을 통해 대부분의 성인관련키워드의 검색을 차단하고, 2차로 모니터링 팀에서 사람이 직접 최종적으로 필터링 작업을 마무리한다. 모니터링 팀은 국내 30명과 중국 10명으로 구성되어 있으며 실시간 핫라인으로 서로 연계되어 업무의 효율을 높였다.
동영상의 속성상 모니터링 시스템 운영이 어렵지만, 32배속 고속 재생 기능을 이용하여 일일이 확인하고 있으며 24시간 3교대 모니터링을 지난 2006년 9월에 도입하여 지속 실시하고 있다. 모니터링 요원들은 신규 프로그램 리스트 페이지를 주말에도 쉬지 않고 24시간 감시하며 유해 동영상과 불법 동영상을 차단하고 있다."
우리의 상식선을 넘어선 기술은 아직 없습니다.
야후 야미 출범식이 있었던 날 그만은 야후에게 "동영상 검색은 매우 생소하다. 인터넷에서 동영상을 긁어온다는 것이 매우 위험한 발상 아닌가. 폭력, 음란, 유해 동영상이 노출될 경우도 있을텐데..."
야후는 이렇게 말했죠. "야후는 최고의 검색 기술 전문가들이 있다. 야후의 기술진은 동영상 자체를 분석하기는 힘들지만 동영상과 연결돼 있는 사이트의 패턴, 검색어와 해당 동영상 설명과의 매칭 등을 통해 기존의 음란물 사이트 차단 방식을 확장시킨다고 보면 된다."
그만은 음란 동영상을 유해한지 여부를 확인하기 위해 기술적인 모니터링이 필요하다는 것도 인정합니다.
하지만 그만도 다음, 엠파스, 네이트, 판도라TV, 엠군, 나우콤(아프리카), 다모임(엠앤캐스트) 등 관계자를 만날 때마다 물어봅니다. 유해 동영상 걸러낼 수 있느냐고.
'모니터링 강화' 이외에는 답이 없었습니다.
근데 대뜸 네이버가 "인종별로 사람의 피부색과 비슷한 이미지가 전체 몇% 이상을 차지할 경우 음란물로 판단해 자동 필터링 할 수 있는 기술"을 운운하며 기술적인 필터링 방법을 제시할 듯이 말하는 것에 화가 나더군요.
그 프로젝트가 실행되더라도 적어도 3년 안에는 나올 수 없는 기술일 겁니다.
그 기술이 나오더라도 갖가지 피해갈 수 있는 꼼수는 나올 수밖에 없습니다.
특히 UCC 동영상의 경우 사용자가 파일을 올리는 매순간 같은 파일이라도 다른 사용자가 올리면 인코딩 시간과 방식에 따라 전혀 다른 패턴을 갖는 경우가 생깁니다.
어떤 분은 1000개 동영상을 다 볼 수 없으니 기계로 500개를 걸러내고 이를 사람이 모니터링하면 좋은 거 아니냐고 말할 수도 있을 겁니다. 현재의 모니터링이 거의 그렇습니다. 금칙어, 검색어, 또는 연결성 등을 통해 걸러내고 나머지를 전량 조사하는 방법입니다.
근데 지금 문제가 된 것은 나머지 500개 가운데 1개 동영상일 경우입니다. 그 1개 때문에 500개를 눈 빠지게 봤던 모니터링 시스템은 완전 무가치해보이는 상황이 발생된 것입니다.
그리고 또 하나, 문제가 있는 서비스라면 내려야 정상입니다.
지금의 포털이 너무 많은 것을 혼자 소화하려니 이런 문제들이 생기는 것일 수도 있습니다.
2003년 9월 MSN은 채팅 서비스를 폐쇄한 적이 있습니다. 이 때는 어린이들이 채팅을 통해 사회적인 폭력에 노출되는 것을 방지해야 하는데 현실적으로 이를 막기 위해서는 채팅룸을 아예 서비스하지 않는 것이 낫다는 판단에서였다고 합니다.
MSN to close chat rooms[CNN, 2003. 9.]
야후가 야미 서비스에 사실상 중단 결정까지 내리면서 신중히 접근하려는 이유는 이러한 사회적인 책임과 기대에 대해 서비스 기업들이 어떻게 반응해야 하는지 알고 있기 때문입니다.
서비스 업계는 선택해야 합니다. 더 많은 비용을 들여 모니터링과 사용자 통제, 신고 대응 등 대처를 늘려가든가, 서비스를 접든가.
그런 면에서 네이버가 발빠르게 모니터 요원을 100여명 증원할 것이란 이야기에는 매우 고무적입니다. 살색 영상 모니터 기술 이야기만 빠졌어도 그만은 박수를 쳤을 것입니다.
언론이 오버한다고 서비스 기업들이 오버할 필요는 없죠. 냉정하게 현실을 설명하고 대처 방안에 대해 치밀하게 준비하는 것 이상은 별로 없다는 것입니다. 상상속의 기술을 미리부터 입밖으로 꺼내지 말았으면 좋겠습니다.
2007/03/23 11:00
2007/03/23 11:00