EU는 ‘데이터부터 차단’, 미국은 ‘이념 논쟁’…한국 AI 기본법엔 빠진 것

AI 기본법 시행령 입법예고가 22일 마감됐다. 2026년 1월 22일 시행까지 한 달. 시행령은 투명성·안전성 의무를 구체화했지만, AI 편향에 대한 직접 규율은 여전히 없다. AI가 정치·젠더 갈등을 키운다는 우려가 커지는 가운데, 정부는 ‘최소한의 규제’를 강조하고 스타트업 98%는 ‘준비 안 됐다’고 호소한다.
AI 편향, 어디까지 왔나
한국지능정보사회진흥원(NIA)이 최근 발간한 ‘AI 편향으로 인한 사회적 갈등과 정책적 대응’ 보고서는 AI 편향이 필터버블과 에코챔버를 거쳐 사회 갈등으로 번지고 있다고 진단했다.
보고서에 따르면, 2025년 6월 발표된 연구에서 ChatGPT는 퓨리서치센터의 정치 유형 설문에서 미국인 평균보다 73% 더 진보적인 성향을 보였다. 19개 주제 중 13개(68%)에서 진보적 성향이 두드러졌다. AI가 특정 관점을 증폭하는 ‘앰프’ 역할을 할 수 있다는 뜻이다.
코넬대 연구팀 실험에서는 AI 챗봇과의 짧은 대화만으로 유권자의 후보·정책 선호도가 기존 정치 광고보다 크게 바뀌었다. 영국 실험에서는 야당 지지자의 태도 변화가 최대 25%p까지 관찰됐다.
한국도 예외가 아니다. 한국언론진흥재단 조사에 따르면 국민 72%가 ‘뉴스 회피’를 경험했고, 1순위 이유는 ‘정치적으로 편향돼서’였다. 유튜브 알고리즘 추천이 가치관 편향을 낳을 것이라는 우려에 동의한 비율도 46.7%에 달했다.
정치적 편향만이 아니다. 중국 도우인(틱톡 중국판) 연구에서는 여성 계정 추천 콘텐츠의 84%가 가정·패션에 편중된 반면, 남성 계정은 72%가 엔터테인먼트·물질주의 콘텐츠로 채워졌다. AI가 만든 동화를 분석한 연구에서는 여자 주인공일 때 외모 묘사가 55.26% 더 많았다. 알고리즘이 성별 고정관념을 강화하는 방향으로 작동한 것이다.
해외는 어떻게 대응하나
주요국은 AI 편향에 각기 다른 방식으로 대응하고 있다.
EU AI Act 제10조는 가장 직접적이다. 고위험 AI 시스템의 훈련·검증·테스트 데이터가 ‘대표성’과 ‘완전성’을 갖추도록 요구하고, 편향 가능성을 사전에 검토해 감지·방지·완화할 것을 의무화했다. AI 개발 단계에서 편향의 근본 원인을 차단하겠다는 접근이다.
미국은 다른 방향으로 움직였다. 트럼프 행정부는 2025년 7월 ‘WOKE AI 방지’ 행정명령을 발표해, 정부가 ‘이념적 편향이 없는’ AI 업체와만 계약하도록 했다. DEI(다양성·형평성·포용성) 같은 사회적 아젠다가 AI 출력에 영향을 주면 안 된다는 내용이다. AI 편향이 기술적 검증 대상에서 정치적 논쟁으로 전환된 셈이다.
영국은 5가지 원칙(안전성, 투명성, 공정성, 책임성, 이의제기 및 구제)을 제시하고 각 규제기관이 자율 적용하도록 했다. 공정성 원칙에서 ‘AI 시스템은 부당한 차별을 발생시켜서는 안 된다’고 명시했다.
| 구분 | EU | 미국 | 영국 |
|---|---|---|---|
| 접근방식 | 사전 규제 | 자율+행정명령 | 원칙 기반 |
| 편향 대응 | 데이터 대표성 의무화 | 이념적 편향 제거 | 공정성 원칙 제시 |
| 특징 | 권리 보호, 예방적 | 정치화·논쟁화 | 유연성과 자율성 |
한국 AI 기본법은 왜 편향을 안 다루나
한국 AI 기본법도 EU처럼 ‘고영향 AI’를 별도 규율한다. 생명·신체·기본권에 중대한 영향을 미치는 AI 시스템이 대상이다. 그런데 EU AI Act가 고위험 AI에 데이터 편향 방지를 의무화한 것과 달리, 한국 기본법과 시행령에는 편향을 직접 규율하는 조항이 없다.
시행령이 구체화한 건 투명성과 안전성이다. 생성형 AI는 표시 방식을 ‘사람 인식’과 ‘기계 판독(C2PA 등)’ 방식으로 이원화했다. 고영향 AI는 사업자가 해당 여부를 과기정통부에 확인 신청할 수 있고, 정부는 60일 내 회신해야 한다. 대규모 AI 모델(10²⁶ FLOPs 이상, GPT-4급)은 위험관리 체계 구축이 의무화됐다.
하지만 투명성은 ‘AI가 만들었다’는 사실의 공개이고, 안전성은 시스템 위험관리다. AI가 ‘어떤 관점으로’ 정보를 걸러내고 추천하는지는 다른 문제다.
배경훈 부총리 겸 과학기술정보통신부 장관은 15일 송년 기자간담회에서 “방어적 규제가 아니라 기준 설정”이라는 점을 거듭 강조했다. “고영향 AI에 대한 우려의 목소리도 있는 것은 사실”이라면서도 “AI 대전환을 통한 경제 성장을 최대한 지원하면서도 AI 오남용에 대한 최소한의 규제에 집중할 것”이라고 밝혔다.
스타트업은 ‘기준 모호’ 호소
정작 법을 적용받을 기업들은 어떨까. 스타트업얼라이언스가 101개 AI 스타트업을 대상으로 설문한 결과, ‘대응 계획을 수립하고 준비 중’이라고 답한 기업은 2%에 불과했다. 나머지 98%는 ‘인지하지만 대응 미흡'(48.5%) 또는 ‘내용도 모르고 준비도 안 됨'(48.5%)이었다.
가장 부담되는 항목은 신뢰성·안전성 인증제(27.7%), 데이터셋 투명성 요구(23.8%), 고위험 AI 지정·검증 의무(17.8%) 순이었다. 공통적으로 지적된 건 ‘기준의 불명확성’이다. 고지 범위, 생성형 AI 정의, 고영향 AI 지정 기준 등에서 모호함이 실무 대응을 어렵게 한다는 것이다.
스타트업얼라이언스는 시행령 확정 전 네 가지 재검토를 제안했다. 고영향 AI의 구체적 기준 마련, 생성형 AI 표시 의무의 매체별·위험도별 차등 적용, 연산능력 기준의 ‘AI 모델’ 적용, 사실조사 착수 요건 명확화 등이다.
편향, 누가 다룰 것인가
NIA 보고서는 EU·미국·영국 모두 ‘기술적·규제적 접근에 집중하면서 사용자 경험과 정보 격차 문제는 미흡하다’고 지적했다. 그러면서 ‘기술·데이터 – 플랫폼 – 사용자 – 거버넌스’ 4개 층위를 아우르는 통합 관리 체계를 제안했다.
데이터 수집 가이드라인과 편향 진단 도구 개발, 플랫폼의 추천 알고리즘 매개변수 공개, 연령별·집단별 AI 리터러시 교육 확대, 독립적 편향 평가 기구 설립 등이다.
현행 AI 기본법과 시행령은 이 중 기술·데이터 층위 일부만 다루고 있다. 플랫폼 알고리즘 투명성, 사용자 리터러시, 독립 평가 기구는 제도권 밖이다. AI 기본법이 다뤄야 할 영역인지, 별도 법률이 필요한 영역인지는 아직 논의되지 않았다.
정부는 법 시행 후 1년 이상 계도 기간을 운영한다는 방침이다. 하지만 AI 서비스는 한 번 출시되면 아키텍처 수정에 막대한 비용이 든다. ‘규제보다 진흥’이라는 기조가 ‘편향은 나중에’를 의미하는 건 아닐 것이다. 편향을 누가, 어느 법에서 다룰지가 다음 과제로 남았다.
참고자료: NIA ‘AI 편향으로 인한 사회적 갈등과 정책적 대응‘ (2025.12.22), 스타트업얼라이언스 ‘AI 기본법과 스타트업: AI 스타트업이 겪는 현실 (2025.12.3)







댓글 남기기