“딥페이크 신고하세요”…네이버, 조작 이미지 등 신고채널 공지

딥페이크 성범죄, 이렇게 대처하세요

네이버가 최근 커다란 사회적 문제로 떠오른 ‘딥페이크’ 사태와 관련해 신고 접수 등 대응에 나섰다.

네이버는 28일 고객센터 공지사항을 통해 “만약 딥페이크 기술을 사용해 성폭력처벌법 등 관련 법령을 위반하거나 제3자의 권리를 침해하는 이미지나 영상을 발견하셨다면 아래의 신고 채널을 통해 접수해 주시기 바란다”며 관련 링크를 안내했다.

네이버는 “딥페이크 기술을 악용한 범죄 행위는 심각한 법적 처벌을 받을 수 있다”며 “타인의 콘텐츠를 단순히 게시하거나 유통하더라도 해당 콘텐츠가 딥페이크나 생성형 AI(인공지능) 등을 이용한 경우 문제가 될 수 있기 때문에 각별한 주의가 필요하다”고 강조했다.

또 “딥페이크 기술을 악용한 디지털 성범죄와 관련해 네이버는 이용자 여러분의 안전과 개인정보 보호를 최우선으로 생각한다”고 밝혔다.

네이버는 고객센터뿐 아니라 게시물 신고센터, 그린UGC 공식 블로그를 통해서도 딥페이크 유포에 대한 주의 및 신고를 당부했다.

최근 여성의 얼굴에 음란물을 합성한 딥페이크 영상물이 텔레그램 단체 대화방 등을 통해 대거 유포돼 논란이 되고 있다.

6개 여대 총학 딥페이크 사태 규탄 “모두가 방관자·가해자”

서울 지역 6개 여대 총학생회 연대 성명 '우리는 어디서 살아가야 하는가'
서울 지역 6개 여대 총학생회 연대 성명 ‘우리는 어디서 살아가야 하는가’

[숙명여대 총학생회 비상대책위원회 인스타그램 게시물 캡처]

숙명여대 등 서울 지역 6개 여대 총학생회는 28일 최근 논란을 빚고 있는 ‘딥페이크 성범죄’ 사태와 관련해 “가부장제 사회 아래 뿌리 깊은 강간 문화와 여성혐오가 만들어낸 결과”라며 비판 성명을 냈다.

숙명여대 총학생회 비상대책위원회(이하 비대위)는 이날 성명을 통해 “본 사태는 여성 성착취 범죄가 근본적으로 해결되지도 근절되지도 않았기에 발생했다”며 “재발 방지 대책을 마련할 기회가 있었음에도 실질적인 대응을 하지 않은 모두가 방관자이자 가해자”라고 꼬집었다.

서명에는 숙명여대 내 60개 단체를 비롯해 성신여대·덕성여대·동덕여대·배화여대·한양여대 총학생회도 동참했다.

신영숙 여성가족부 차관은 28일 “딥페이크 사건이 여성이나 아동·청소년 등 일부 사회적 약자를 넘어서 모든 국민을 대상으로 피해가 번지고 있다”며 “일상의 안전이 위협받는 사회적 재난으로 볼 수 있는 상황에서 전 부처가 총력 대응에 나서야 할 때”라고 밝혔다.

신 차관은 이날 서울 중구 디지털성범죄피해자지원센터(디성센터)에서 강도현 과학기술정보통신부 제2차관과 함께 ‘이미지 합성 기술(딥페이크)’ 성범죄 피해 예방과 피해자 지원방안에 대해 긴급 점검한 자리에서 이같이 말했다.

뛰는 탐색 기술 위에 나는 생성 기술…”수사 공조 중요”

손쉽게 딥페이크 음란물을 만들 수 있는 생성형 인공지능(AI)의 발달은 빠르게 이뤄지고 있지만, 이를 통제하거나 피해자 지원을 도울 기술 발달의 속도는 이에 미치지 못하고 있다.

범죄자가 다크웹 등을 통해 유통한 딥페이크 음란물을 찾아내 삭제하는 기술 개발이 더디게 이뤄지며 당국이 신기술을 악용한 범죄의 범람에 대응하기에 역부족이라는 지적이다.

◇ “어둠의 유통 속수무책…기술보다 수사 공조가 빠를 것”

여성의 얼굴에 음란물을 합성한 딥페이크 영상물이 대거 유포된 경로에는 텔레그램 단체 대화방과 다크웹 등이 있다.

폐쇄적인 플랫폼으로 유명한 텔레그램에 정부는 그간 이메일로만 시정을 요청했지만, 최근 딥페이크 음란물이 사회 문제로 불거지자 협의체를 구성해 신속히 영상 삭제 조처를 하겠다고 나섰다.

다만, 텔레그램이 우리 당국 요청에 어느 정도로 협조할지는 미지수다.

텔레그램과 더불어 불법 음란물의 유통 경로로 꼽히는 것이 특정 방식으로만 접속할 수 있어 ‘인터넷의 암시장’이라고 불리는 다크웹이다.

글로벌 보안엡체 노드VPN이 올 초 다크웹 게시판을 분석한 결과 소셜미디어(SNS), 텔레그램 등을 통해 유출된 노출 사진이나 영상에 댓글이 평균 1천850개 달리는 등 딥페이크 영상물의 주요 확산 통로로 지목되고 있다.

한 보안업계 관계자는 “딥페이크 음란물이 떠돌아다녀도 폐쇄적인 다크웹 특성상 이를 파악하고 대처하기 기술적으로 쉽지 않다”며 “스토리지가 정해져 있지 않은 특성상 특정인의 사진·영상 등 이미지가 들어간 생성물을 검색(크롤링)해도 찾아내기 어렵기 때문”이라고 말했다.

보안당국 관계자도 “아직은 기술보다 국제 공조 등을 통한 수사력이 더 절실히 필요한 부분”이라고 언급했다.

영상 AI 설루션 스타트업 관계자는 “구글이나 메타 같은 빅테크도 미국 대통령 얼굴을 바꾼 딥페이크 영상을 제대로 찾아내지 못하는 것을 보면 판독 기술이 있더라도 실질적으로 적용하는 것은 쉽지 않다”고 말했다.

◇ “불법 영상물 탐지 기술 연구개발 중…확산 패턴도 본다”

생성형 AI를 쓴 딥페이크에는 가상 정보라는 표식(워터마크)을 넣게 하고 따르지 않았을 경우 콘텐츠를 유통하는 플랫폼 기업이 바로 삭제하도록 하는 법안이 국회에서 논의 중이지만, 범죄자가 작정하고 만들어 유포하는 생성물엔 워터마크가 애초부터 들어갈 수 없다는 한계가 존재한다.

악의적으로 변조된 콘텐츠 대응을 위해 딥페이크 탐지 고도화 및 생성 억제 기술을 과학기술정보통신부와 연구개발 중인 정수환 숭실대 AI융합연구원장은 “범죄자들은 워터마크 강제 법이 있어도 이를 따를 리 없다”고 지적한 뒤 “워터마크가 없는 불법 딥페이크 물을 탐지하는 기술도 연구되고 있다”고 말했다.

딥페이크 등 기술로 생성한 불법·음란 콘텐츠가 텔레그램 단체방 등을 통해 퍼질 때 나타나는 특정한 패턴을 포착해 확산을 차단하는 기술 등이 이 중 하나다. (사회부)