글로벌

중국 AI 스타트업 ‘딥시크’, 세계 최고 수준 언어모델 무료 배포

중국 인공지능 스타트업 DeepSeek(딥시크)가 2025년 5월 28일 새로운 대형 언어 모델 ‘DeepSeek-R1-0528’을 Hugging Face(허깅페이스) 플랫폼에 오픈소스로 공개했다. 이 모델은 MIT 라이선스 하에 배포되어 상업적 이용이 가능하며, 개발자들이 자유롭게 다운로드하여 활용할 수 있다.

Live CodeBench에 따르면, DeepSeek-R1-0528은 5월 29일 기준 Pass@1 점수 73.1을 기록하며 4위를 차지했다. 이는 OpenAI의 O3 모델(75.8점)과 O4-Mini 모델(80.2점)에 이은 수준으로, 오픈소스 모델로서는 높은 성과로 평가된다.

개발자들이 실시한 비교 테스트에서도 주목할 만한 결과가 나타났다. 3D 시뮬레이션 생성 작업에서 DeepSeek-R1-0528은 728줄의 코드를 생성한 반면, Anthropic의 Claude-4는 542줄을 작성했다. 또한 게임 개발 과제에서는 기본 요구사항 외에 추가 기능을 자동으로 포함시키는 모습을 보였다고 테스터들이 보고했다.

DeepSeek-R1-0528은 MoE(Mixture-of-Experts, 전문가 혼합) 아키텍처를 기반으로 구축되었다. 전체 파라미터는 약 670억~685억 개이지만, 추론 시에는 약 370억 개의 활성 파라미터만 사용하여 효율성을 높였다.

이번 버전의 주요 개선사항 중 하나는 맥락 창의 확장이다. 모델은 최대 128K 토큰(일부 테스트에서는 164K 토큰)까지 처리할 수 있어, 대용량 문서나 복잡한 코드베이스를 한 번에 분석할 수 있다.

사용자 테스트 결과에 따르면, R1-0528은 코딩 외에도 추론과 텍스트 생성 능력에서 개선을 보였다. 32K 토큰 맥락에서의 정확도가 이전 버전 대비 향상되었으며, 60K 토큰과 같은 극대 맥락에서는 정확도가 다소 감소하지만 여전히 실용적 수준을 유지한다고 평가되었다.

일부 사용자들은 이전 버전에서 나타났던 부적절한 내용 삽입 문제가 해결되었다고 보고했으며, 전반적으로 더 일관성 있는 출력을 생성한다고 평가했다.

DeepSeek는 이번 모델을 공식 보도자료나 상세한 기술 문서 없이 공개했다. 회사는 커뮤니티 그룹을 통해 “소규모 버전 업그레이드”가 완료되었다고 간단히 알렸을 뿐이다. 이는 2025년 3월 DeepSeek-V3-0324 모델 공개 때와 유사한 패턴이다.

업계 관계자들은 DeepSeek가 이 모델을 ‘R2’가 아닌 R1의 업데이트 버전으로 명명한 점에 주목하고 있다. 일부는 핵심 아키텍처의 근본적 변화가 없었기 때문일 것으로 분석하며, 다른 일부는 경쟁 압력과 기대 관리 차원에서 R1 명칭을 유지했을 가능성을 제기했다.

DeepSeek-R1-0528의 공개는 오픈소스와 폐쇄형 AI 모델 간의 성능 격차가 줄어들고 있음을 시사한다. MIT 라이선스 적용으로 기업들이 상업적 목적으로 활용할 수 있게 되면서, 다양한 응용 서비스 개발이 촉진될 것으로 예상된다.

현재 전 세계 개발자들이 이 모델을 다운로드하여 테스트하고 있으며, 관련 활용 가이드와 예제 코드가 커뮤니티를 통해 공유되고 있다. DeepSeek는 향후 R2 모델에 대한 구체적인 일정이나 세부사항을 공개하지 않은 상태다.

플래텀 중국 연구소 소장 / 불편부당(不偏不黨)한 시선으로 중국 현황을 관찰하고 전달합니다.

댓글

Leave a Comment


관련 기사

글로벌 트렌드

딥시크가 흔든 AI 생태계, 우리는 어디에 서 있나

투자

HOMI AI, 실리콘밸리 VC로부터 SAFE 투자 유치

스타트업

카카오모빌리티가 구글 ‘I/O 2025’서 발표한 하이브리드 AI 도입 사례

이벤트 스타트업

AI 골든타임 놓치면 한국, AI 문맹국으로 추락할 것