음성 생성 도구 ‘보이스 엔진’ 활용 가능성 실험한 사례 공개
“오용 위험성 잘 알아 당분간 출시 않을 것…담론 형성 기대”
오픈AI가 사람 음성을 학습해 모방 음성을 생성하는 인공지능(AI) 도구 ‘보이스 엔진'(Voice Engine)을 개발해 공개했다.
다만 오픈AI는 이 도구의 위험성을 고려해 본격적인 출시 여부에 대해서는 신중하게 접근한다는 입장이다.
연합뉴스에 따르면 오픈AI는 29일(현지시간) 자사 블로그에 “인조(Synthetic) 음성의 도전과 기회 탐색하기’란 제목으로 자사가 개발한 보이스 엔진의 사전 실험 결과를 공개했다.
회사 측은 15초 분량의 음성 샘플만 있으면 보이스 엔진을 이용해 원래 화자의 목소리와 비슷한 음성을 만들어 낼 수 있다고 밝혔다.
오픈AI는 2022년 말 보이스 엔진을 처음 개발했으며, 이를 챗GPT의 음성인식·읽어주기 기능과 텍스트-음성 변환 API(응용프로그램 인터페이스)에서 쓰이는 음성 기능 강화에 사용했다고 설명했다.
이어 이 기술의 잠재적인 활용 가능성을 알아보기 위해 지난해 말부터 신뢰할 만한 소규모 그룹과 함께 비공개 테스트를 시작했으며, 이 그룹이 개발한 애플리케이션에 깊은 인상을 받았다고 전했다.
실제로 이날 오픈AI가 공개한 실제 사람의 음성 샘플과 이를 이용해 보이스 엔진으로 생성한 음성은 거의 구분이 어려울 정도로 비슷했다.
오픈AI는 이 도구를 다양한 분야에서 긍정적인 기능으로 활용할 수 있다고 설명했다.
어린이 교육을 위한 음성 해설 콘텐츠나 실시간 개인 맞춤형 응답 생성 기능, 동영상과 팟캐스트 같은 콘텐츠를 여러 언어로 번역해 전 세계적으로 서비스하는 사례 등이다.
오픈AI가 이날 공개한 언어별 번역본 생성 음성은 화자의 기존 모국어 음성과 흡사하게 들렸다.
아울러 언어 기능에 영향을 주는 질환을 앓는 환자들을 위한 치료 애플리케이션이나 장애인을 위한 소통 기기에 지원된 사례도 있다고 오픈AI는 전했다.
하지만 오픈AI는 “인조 음성 기능의 오용 가능성 때문에 더 광범위한 출시에 대해서는 조심스럽게 접근하고 있다”며 “현재로서는 이 기술을 미리 보여주기(preview)만 하되 널리 출시하지는 않기로 했다”고 밝혔다.
회사 측은 “사람의 목소리를 닮은 음성을 생성하는 것은 심각한 위험을 야기하며, 선거가 있는 해에는 특히 더 그렇다는 것을 인지하고 있다”며 “우리는 미국과 해외의 정부, 미디어, 엔터테인먼트, 교육, 시민사회 등 다양한 분야와 협력해 그들의 피드백을 반영하기 위해 노력하고 있다”고 다짐했다.
또 “현재 보이스 엔진을 테스트 중인 파트너들은 당사자의 동의나 법적 권리 없이 개인이나 단체를 사칭하는 것을 금지하는 사용 정책에 동의했다”며 “보이스 엔진에서 생성된 모든 음성의 출처를 추적하기 위한 워터마킹 등 일련의 안전 조치를 구현했다”고 밝혔다.
아울러 음성 생성 기술이 더 발달할 것을 대비해 은행 계좌나 그 밖의 민감한 정보에 접근 권한을 주는 보안 조치에 음성 기반 인증 방식을 폐지할 것을 권고했다.
오픈AI는 “궁극적으로 우리가 이 기술을 널리 배포하든 그렇지 않든, 전 세계의 사람들이 이 기술이 어디로 향하고 있는지 이해하는 것은 중요하다”며 “우리는 정책 입안자와 연구자, 개발자 등과 함께 인조 음성의 도전과 기회에 대한 대화를 계속 이어 나가기를 기대한다”고 덧붙였다.
블룸버그 통신은 “오픈AI가 사람의 목소리를 흉내 낼 수 있는 기능을 공개하며 AI 기술의 새로운 지평을 열었다”며 “이는 딥페이크(AI로 만든 영상이나 이미지, 음성 조작물) 위험에 대한 불안감도 일으키고 있다”고 전했다.
앞서 지난 1월 미국에서는 뉴햄프셔주 프라이머리(예비경선)를 하루 앞두고 조 바이든 대통령을 사칭한 가짜 전화가 주민들에게 걸려 와 투표 거부를 독려하는 사건이 벌어지면서 음성 조작에 대한 공포가 현실화한 바 있다. (생활부)
<저작권자 ⓒ한인포스트, 무단 전재 및 재배포 금지. 인용시 사전허가>