
지금, 인공지능이라는 거대한 물줄기가 기술과 사회와 산업의 경계를 넘나들며 빠르게 흐르고 있다. 모두가 그 방향에 촉각을 곤두세우고 있을 때, 누군가는 우리가 세워야 할 제방의 높이와 모양에 대한 깊은 질문을 던져야 했다.
스타트업얼라이언스가 발간한 ‘이슈페이퍼(AI 기본법, 산업 발전의 토대인가? 규제의 시작인가?)’는 내년 1월부터 시행될 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」(일명 ‘AI 기본법’)의 시행령을 앞두고 우리가 진지하게 고민해야 할 문제들을 포착해냈다.
“악마는 디테일에 있다”
이 보고서는 시행령이라는 ‘디테일’에 숨어 있는 ‘악마’를 찾아내려는 의도적인 노력이다. EU의 AI Act에 이어 세계에서 두 번째로 제정된 주요 AI 관련 법률인 우리의 ‘AI 기본법’이 산업 발전의 디딤돌이 될지, 아니면 혁신의 발목을 붙잡는 쇠사슬이 될지는 결국 시행령의 내용에 달려 있다.
어쩌면 우리는 혁신과 규제 사이의 아슬아슬한 줄타기를 목격하고 있는지도 모른다. 한쪽에는 기술 발전과 산업 혁신이라는 이상이, 다른 한쪽에는 안전과 신뢰라는 가치가 줄의 양 끝을 잡아당기고 있다. 그리고 그 줄 위에서 우리 AI 산업의 미래가 위태롭게 서 있다.
‘고영향 AI’라는 불분명한 지도
보고서는 첫 번째 쟁점으로 ‘고영향 AI’의 모호한 기준을 지적한다. 아이러니하게도 ‘고영향’이라는 단어 자체가 우리에게 ‘고영향’을 미치고 있다. 법률은 이를 “사람의 생명, 신체 안전 또는 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 인공지능시스템으로서 일정 영역에서 활용되는 것”이라고 정의하고 있다.
하지만 이런 정의는 마치 안개 속에서 길을 찾으려는 시도와 같다. ‘중대한 영향’이나 ‘위험’의 수준이 무엇인지, 의료 영상 판독 AI가 단순히 참고자료를 제공하는 경우와 질병 유무에 대한 판정을 직접 내리는 경우의 법적 경계는 어디인지 알 수 없다. 이런 불확실성 속에서 기업들은 자신들이 개발하는 AI가 어떤 범주에 속하는지 가늠하기 어려워진다.
의사의 진단을 보조하는 AI가 과연 ‘고영향 AI’인지, 아니면 채용과정에서 단순히 이력서를 분류하는 AI는 어떤지, 우리는 스스로에게 질문하지만 명확한 답을 찾기 어렵다. 마치 훈련받지 않은 사람에게 모호한 지도를 건네주고 길을 찾으라고 하는 것과 다를 바 없다.
생성형 AI, 창작의 자유를 억압하는가?
두 번째 쟁점은 생성형 AI에 대한 표시 의무다. 법은 AI가 만들어낸 결과물에 “AI가 생성했습니다”라는 딱지를 붙이도록 요구한다. 얼핏 보면 합리적인 요구처럼 보이지만, 그 경계가 모호해질 때 문제가 발생한다.
웹툰 작가가 배경을 그릴 때 AI의 도움을 받았다면, 그 웹툰 전체에 “AI 생성물”이라는 낙인을 찍어야 할까? 영화 후반작업에서 색보정을 위해 AI 기술을 활용했다면, 그 영화는 AI가 만든 작품이 되는 걸까?
이런 강제적 표시 의무는 마치 과거 예술가들이 보조화가를 두고 그림을 그렸을 때, 모든 작품에 “보조화가의 도움을 받았습니다”라는 문구를 새겨야 한다고 요구하는 것과 다를 바 없다. 창작의 과정은 항상 다양한 도구와 영감의 원천을 활용해왔다. AI도 그중 하나일 뿐이다.
EU의 AI Act도 콘텐츠 분야에서는 이용자가 오해할 가능성이 있는 경우나 딥페이크 등 위험이 존재하는 경우로 한정해 규제를 적용하고 있다. 창작의 자유와 표현의 다양성을 존중하는 접근법이다.
법의 중첩, 같은 강물에 두 개의 다리
세 번째 쟁점은 기존 법령과의 충돌 가능성이다. 이미 개인정보 보호법, 전자금융거래법, 방송통신위원회의 인공지능 이용자 보호법 등 각 분야별로 규제 체계가 작동하고 있다. 여기에 AI 기본법이 추가되면 어떻게 될까?
금융권에서는 이미 2021년부터 ‘금융분야 AI 활용 가이드라인’을 통해 신용평가와 대출심사에 AI를 적용할 때의 기준과 절차를 명확히 하고 있다. 그런데 AI 기본법이 이를 또다시 ‘고영향 AI’로 분류해 규제한다면, 금융기관들은 두 개의 서로 다른 다리를 동시에 건너야 하는 난관에 봉착하게 된다.
“어느 법률을 우선적으로 따라야 할지 모르겠다”, “기존 가이드라인과 다른 방식으로 규제를 받게 되면 혼란이 클 것”이라는 산업계의 목소리가 들려온다. 이는 마치 한 조각의 땅에 두 개의 다른 지도가 있어서, 어떤 지도를 따라야 할지 결정해야 하는 혼란스러운 상황과 같다.
사실조사, 무기가 될 것인가 도구가 될 것인가?
네 번째 쟁점은 사실조사 권한의 남용 가능성이다. AI 기본법은 과학기술정보통신부 장관에게 AI 서비스 제공자에 대한 사실조사 권한을 부여하고 있다. 그런데 조사 착수 요건이 ‘법 위반 혐의 발견’ 또는 ‘민원·신고 접수’ 등으로 지나치게 광범위하게 설정되어 있다.
경쟁사 간 갈등, 악의적 민원, 비공식적 신고 등을 통해 사실조사가 시작될 수 있고, 이 과정에서 기업의 핵심 기술이나 알고리즘, 데이터 자산, 경영 전략 등이 외부로 유출될 위험성이 크다.
정부는 “사실조사는 목적 달성을 위한 필요·최소한의 범위 내에서 시행될 것”이라고 약속하지만, 그 약속이 제도적 안전장치로 구체화되지 않는다면 단지 공허한 메아리에 불과할 뿐이다.
검·인증의 권력, 누구의 손에 쥐어질 것인가?
마지막 쟁점은 AI 검·인증 권한의 독점 문제다. 민간 단체의 자율적인 검·인증 활동을 정부가 지원할 수 있도록 한 조항은 표면적으로는 민간 주도의 생태계를 존중하는 접근법처럼 보인다. 하지만 현실에서는 특정 협회나 단체가 이 권한을 독점할 가능성이 있다.
이미 대한변호사협회는 협회가 별도로 인증하지 않은 법률 AI 서비스에 대해서는 광고를 사실상 금지하는 조치를 취했다. 이는 마치 특정 문지기가 시장 진입의 관문을 통제하는 것과 같다. 기존 세력이 새로운 도전자들의 진입을 방해하는 수단으로 검·인증 제도가 악용될 수 있다는 우려를 증폭시키는 사례다.
AI는 분야마다 기술적 특성과 사회적 영향력이 다르다. 따라서 검·인증 체계도 획일적이 아닌 다원적이고 개방적인 구조로 설계되어야 한다. 다양한 관점과 전문성이 균형을 이루는 생태계가 필요하다.
균형점을 찾아서
이 이슈페이퍼가 우리에게 던지는 메시지는 명확하다. AI 기본법이 선언적 원칙에 머무르지 않고, 산업의 언어로 해석되며 현장에서 작동하는 실행 규범으로 자리 잡을 때, 비로소 ‘기본법’으로서의 실질적 기능을 수행할 수 있다는 것이다.
이제 공은 정부와 산업계 모두에게 넘어갔다. 정부는 단순히 규제의 틀을 세우는 데 그치지 않고, 그 틀 안에서 혁신이 숨 쉴 수 있는 공간을 마련해야 한다. 산업계는 단지 규제에 대한 반대만 외치는 것이 아니라, 구체적이고 건설적인 대안을 제시하며 정책 형성에 적극적으로 참여해야 한다.
물줄기가 흐르는 방향을 바꾸기는 어렵다. 하지만 우리는 그 물줄기가 흘러가는 강둑을 어떻게 설계할지, 어떤 다리를 놓을지 결정할 수 있다. AI 기본법 시행령은 그 설계도면과 같다. 이 설계도가 한국 AI 산업의 미래를 어떻게 그려나갈지, 우리 모두가 주목해야 할 때다.
기술 혁신과 사회적 가치, 산업 발전과 위험 관리 사이의 균형점을 찾는 일은 결코 쉽지 않다. 하지만 이 균형을 찾지 못한다면, 우리는 혁신의 기회를 놓치거나 예상치 못한 위험에 노출될 수 있다. 이 보고서가 제기한 문제들은 그런 의미에서 단순한 우려가 아닌, 우리가 함께 고민하고 해결해 나가야 할 과제들이다.
강물은 이미 흐르기 시작했다. 이제 우리에게 필요한 것은 그 물줄기를 막는 댐이 아니라, 그 힘을 활용해 새로운 가능성의 바퀴를 돌릴 수 있는 지혜로운 수로의 설계다. AI 기본법 시행령이 그런 지혜의 결정체가 될 수 있기를 기대한다.
Leave a Comment