‘댓글을 손석희 앵커 목소리로’ 다음카카오, 멀티미디어 기반 음성 합성 기술 공개
다음카카오가 자사의 한국어 음성 처리, 멀티미디어 검색, 대용량 데이터 처리 기술을 집약, 국내 최초로 멀티미디어 데이터를 이용한 음성 합성기를 선보였다.
미디어다음 JTBC 뉴스룸 ‘앵커브리핑’ 코너에서 손석희 앵커가 직접 작성한 댓글을 실제 목소리와 말투 그대로 반영된 생생한 음성으로 들려준다. 매번 댓글을 작성할 때마다 해당 문장을 녹음하는 것이 아니라, 작성된 댓글을 손석희 앵커의 음성으로 자동 합성하는 다음카카오의 기술이 반영된 결과다.
음성 합성이란 입력된 문자를 음성으로 변환하는 기술을 뜻한다. 통상의 음성 합성은, 녹음실 면적이나 녹음 장비의 위치까지 동일한 환경에서 완벽하게 설계된 문장을 전문 성우가 하루 2~3시간씩, 적게는 수십시간에서 많게는 수백시간 녹음한 음성 데이터를 기반으로 한다.
하지만 이번 시도는 통제된 녹음 환경을 거치지 않고, 이미 온라인에 공개된 지난 1년간의 JTBC 뉴스룸 영상에서 데이터를 추출한 것이 특징이다. 손석희 앵커가 참여한 JTBC뉴스룸의 하루 평균 방송 시간을 1시간이라고 볼 때, 1년 간 약 300시간의 영상에서 여러 과정을 거쳐 확보된 최종 10시간 분량의 음성 데이터를 통해 손석희 앵커의 음색과 말투를 학습한 것이다.
다음카카오 관계자는 “다음카카오는 음성 인식 엔진 ‘뉴톤’과 음성 합성 엔진 ‘뉴톤 톡’으로 한국어 음성 처리 분야에서 선도적 위치를 확보하고 있지만, 한 발 더 나아가 대중이 좀 더 친숙하고 흥미롭게 받아들일 수 있도록 유명인의 음성 합성을 고민해왔다”며 “일정한 녹음 환경과 충분한 녹음 기간을 확보할 수 없는 것이 가장 문제였기때문에, 다음카카오의 다양한 기술개발 분야 담당자들과 적극 논의한 끝에 이미 온라인에 공개된 멀티미디어 데이터에서 양질의 음성 데이터를 확보해보기로 한 것”이라고 밝혔다.
합성된 음성의 자연스러운 정도를 누구나 이해할 수 있도록, 전국민적인 인지도를 지닌 앵커 손석희를 첫 번째 대상으로 정했다. ‘멀티미디어 데이터 검색 기술’을 이용해 온라인 상의 JTBC 뉴스룸 영상들을 수집하고, 한 데 모인 ‘대용량 데이터를 분산 처리 기술’로 정리한 후 ‘화자 인식 기술’을 이용, 여러 출연진들 중 손석희 앵커의 음성만을 골라냈다. 음성 합성기 개발을 위해서는 음성과 그에 상응하는 문장이 모두 있어야 하기 때문에, 선별된 음성을 문자로 변환하는 ‘음성 인식 기술’을 적용해 내용을 파악했다. 이 중 잡음이 섞이거나 음색이 불분명한 데이터들은 ‘자동 검증 기술’을 통해 걸러냈다. 이렇게 만들어진 데이터를 ‘통계적 음성 합성 기술’에 적용, 손석희 음성의 음향 및 운율 특징을 자동으로 학습한 음성 합성기로 완성됐다.
이번 시도는 대량의 데이터를 다루는 검색부터 음성 처리까지 모든 분야에 자체 기술과 노하우를 가지고 있는 다음카카오라 가능했다. 단순히 유명인의 음성을 합성한 데 그친 것이 아니라, 잘 설계된 데이터 없이도 일정 분량의 멀티미디어 데이터만 있으면 누구의 음성으로든 합성기를 만들 수 있다는 가능성을 보여준다. 예를 들어, 세상을 떠난 연예인의 목소리로 팬들에게 메시지를 전하거나, 유명 아나운서의 목소리로 모바일 뉴스를 읽어주고, 심야 라디오 DJ 목소리로 시를 낭송해주는 등 활용 방법은 무궁무진하다.
다음카카오는 앵커브리핑을 시작으로, 특정인의 음성을 활용한 서비스들을 만들어내는 한편, 다양한 기술들을 유기적으로 통합 및 자동화하며 기술과 환경의 한계를 넘는 혁신적 시도를 지속할 계획이다.