2020년 일상에 다가올 5가지 인공지능 봇 트렌드
‘4차 산업 혁명의 핵심’이라는 추상적인 개념에서 우리의 일상에 점점 더 깊숙이 파고들고 있는 인공지능. 사람들은 이제 시리를 시켜 전화를 걸거나 문자를 보내고, 아이들은 모르는 영어 단어 뜻을 알기 위해 AI 스피커를 먼저 찾는다.
AI 서비스 기획 회사 젠틀파이가 선정한 5가지의 주요 AI 트렌드는 소리로 대화하는 기기들, 앱을 대체하는 봇, 봇 사업의 수익화와 효율성 모색, 사람에 더 가까워지는 봇, 답변 생성의 자동화로 요약된다.
트렌드 #1 : 소리로 대화하는 기기들
언제부턴가 사람들이 주변 기기와 말로 커뮤니케이션을 하기 시작했다. 이른바 히어러블 마켓 (Hearables Market)이 빠르게 성장하고 있다. 히어러블 마켓은 AI 어시스턴트의 주력 플랫폼 중 하나로 꼽힌다. 미국의 AI 어시스턴트 사용률은 이미 36.6%에 육박하며, 시리로 제어할 수 있는 에어팟을 포함한 히어러블 마켓은 2020년 2.3억대로 커질 것으로 전망된다.
국내에서도 기가지니가 350만 대 이상 보급되면서, 국내 AI 스피커 중 가장 높은 보급률을 보이고 있다. 삼성 빅스비는 갤럭시폰, 가전제품을 포함, 약 1억 6천만대에 탑재되어 있다고 한다. 스마트폰, 스피커, 노트북, 자동차 등 음성제어가 가능한 기기가 일상화되면서 음성인식 서비스도 대중화되고 있다. LINE AI는 전화응대서비스 ‘LINE AiCall’의 실증 테스트를 진행 중이다. ‘LINE AiCall’은 네이버·라인의 AI가 실제 사람처럼 말을 하며 예약을 돕는 프로그램으로, 음성인식 및 합성기술, 자연어처리 기술이 결합된 서비스다. 이러한 서비스가 상용화되면서, 고객이 전화 상담에서 콜봇을 더 자주 만나게 될 것으로 보인다.
트렌드 #2: 앱을 대체하는 봇
지금까지의 AI봇은 대화로 할 수 있는 검색엔진과 유사했다. 답을 주기보다는 답을 찾을 수 있게 도와주는 기능으로, 사용자의 질문에 AI봇이 직접 답을 주지 않는 경우도 많았다. 고도화에 진입한 AI 봇들은 모든 것을 봇이 해결해줄 수 있도록 봇안에 앱의 기능을 포함해가고 있다. 기본적인 조회 기능은 물론, 봇을 통해 오는 요구 사항은 봇안에서 처리할 수 있는 것을 목표로, 봇 자체 성능을 업그레이드하고 있는 추세다. 이는 앱과 봇 등 서로 다른 채널에서도 동일한 수준의 서비스를 원하는 고객의 요구를 반영한 흐름이다.
단편적이고 깊숙한 구조라 단절된 경험을 부여하는 앱과 달리, 사용자는 AI 대화봇으로 본인이 원하는 정보만을 얻고, 연결된 맥락상에서 콘텐츠를 소비할 수 있다. 기존 앱의 단점을 보완하면서도 앱의 기능을 포함해가는 봇이 더욱 많아지면서, 앱과 봇의 중간지점과 같은 하이브리드성 앱도 늘어날 것이다. 이러한 트렌드에 힘입어 봇이 앱의 더 많은 기능을 대체할 것으로 보인다.
트렌드 #3: 봇 사업의 수익화와 효율성 모색
인터콤 (Intercom)이 500명의 비즈니스 리더를 대상으로 한 설문 결과에 따르면, 고객 대기 시간 단축 (4배 단축)과 고객 만족도 상승에 따른 비용절감이 대화형 봇 운영의 가장 큰 효과로 언급됐다. 하지만, 이제 기업들은 고객 지원 분야 외에도 봇 적용을 적극적으로 검토하고 있다.
현재 봇은 주로 세일즈(41%), 고객지원(37%), 마케팅(17%) 분야에 활용되고 있으며, 고객지원 부분에 비해 세일즈/마케팅 분야는 더 적극적인 수익성 강조가 필요한 상황이다. 이는 ‘봇 전용 서비스나 봇 전용 상품’의 출시로 이어지고 있다. 카카오톡에서 부담 없이 개설할 수 있는 금융상품이나 봇만 제공하는 개인화된 서비스 등, 봇의 주요 사용자층에게 대화형 인터페이스로 호응을 얻을 수 있는 서비스 제공이 관건이다. 이로 인해, 전용 프로모션, 리테일 연계, 전용 상품 등 세일즈 견인을 위한 다양한 시도와 함께 공격적인 봇 사업 수익화를 모색하는 시도가 더욱 늘어날 것으로 보인다.
트렌드 #4: 사람에 더 가까워지는 봇
네이버 클로바 서비스에는 배우 유인나의 목소리, 삼성 빅스비에서는 성우 서유리의 목소리를 들을 수 있다. 300문장만 녹음하면 기가지니에 자신의 목소리를 음성 합성할 수 있다. 하지만, AI는 단순히 사람처럼 발음하는 것 뿐 아니라, 사람과 같은 감정을 표현해내기도 한다.
아마존 알렉사의 기본 음성 톤을 기준으로 삼고, 흥분 (고강도), 흥분 (낮은 강도), 실망 (고강도), 실망 (낮은 강도)을 들어보면, 감정에 따른 음성 차이를 확연히 느낄 수 있다. 알렉사에게 스포츠 경기 결과를 물어보면, 응원한 팀이 이겼을 때는 공감의 목소리로, 진 경기에는 실망한 목소리로 응답을 할 정도다. 뉴스 앵커의 뉴스와 DJ의 음악 소개가 다르듯, 음악방송용 톤과 뉴스용 톤을 각기 다르게 설정할 수 있다. 알렉사가 감정에 맞게 발성했을 때 사용자의 서비스 경험 만족도가 이전보다 30 % 증가했다고 한다.
감정을 담은 음성과 함께, 텍스트에서는 이모티콘, 휴먼 패셔니스타처럼 인스타그램을 운영하는 미구엘라 등, 시청각적으로 봇에 감정을 입히는 방법이 점점 더 빠르게 발전하고 있다. 특히, 외부 변화 외에도, 날씨, 시간대, 유저의 상황 등 다양한 컨텍스트를 통해 심도 있는 대화를 이어나갈 수 있다면, 봇이 인간처럼 사람과 커뮤니케이션 할 수 있는 시대가 멀지 않았다.
트렌드 #5: 답변 생성의 자동화
지금의 인공지능은 사실 인공지능답지 않게 노동집약적이다. AI 봇의 답변도 사람들이 미리 설계한 답변을 읽어주거나, 날씨처럼 날씨 데이터를 결합, 문장을 조합해 내는 수준에 머물러 있었다. 따라서 정보가 업데이트되면 답변도 지속적으로 사람이 직접 업데이트 하는 방식으로, 봇 운영조직의 부담을 가중시켜왔다. 특히 복잡하고 방대한 정보를 소수의 운영 인력이 처리해야 하는 금융권이나 IT업계의 경우, 이런 서비스 형태로는 지속적인 운영이 힘들다.
따라서 구글에서 발표한 BERT처럼 문서든 매뉴얼이든 상품소개서든 문장을 AI가 학습하고 그 안에서 질문에 대한 답변을 도출해내는 기계독해 기술 도입에 관심이 갈 수 밖에 없다. AI 기술의 문제라기보다는 결국 학습데이터의 문제라는 의견이 다수지만, 지식그래프 (Knowledge graph)를 통해 다각적인 답변을 연결해 내는 동시에 구글 BERT 등 새로운 딥러닝 알고리즘을 활용한다면, 운영자와 사용자 모두 좀 더 효율적인 답변을 얻을 수 있을 것으로 기대된다.