스타트업

트릴리온랩스, 독자 개발 LLM ‘트리-21B’ 오픈소스 공개

From-Scratch 사전학습으로 학습비용 1/12 절감…글로벌 모델급 성능 구현

트릴리온랩스가 독자적인 사전학습 방식으로 개발한 대규모 언어모델(LLM) ‘트리(Tri)-21B’를 오픈소스로 공개했다.

트리-21B는 단순한 텍스트 생성을 넘어 고차원적 언어 이해와 복잡한 문제 해결을 동시에 수행할 수 있도록 설계된 LLM이다. 전작인 트릴리온-7B 대비 파라미터 수를 3배 이상 확장한 약 210억 개 규모로 성능을 대폭 끌어올리면서도 1대의 GPU에서 원활하게 작동할 수 있는 경량성을 확보했다.

이번 모델의 핵심은 트릴리온랩스가 자체 개발한 ‘언어 간 상호학습 시스템(XLDA, Cross-lingual Document Attention)’이다. XLDA는 영어 기반 지식을 한국어 및 일본어와 같은 저자원 언어로 효과적으로 전이하는 데이터 학습 방법론으로, 기존 대비 1/12 수준으로 학습 비용을 절감했다.

이를 통해 데이터가 부족한 산업 분야에서도 LLM 활용도를 획기적으로 끌어올릴 수 있는 기반을 마련했다. 또한 한국어뿐 아니라 일본어와 같은 동북아 언어권에서도 더욱 자연스럽고 정확한 문장 생성이 가능하다.

트리-21B는 종합지식(MMLU), 한국어 언어 이해(KMMLU), 수학(MATH), 코딩(MBPP Plus) 등 고난도 추론 중심 벤치마크에서 알리바바 Qwen 3, 메타 LLaMA 3, 구글 Gemma 3 등 글로벌 대표 중형 모델과 견줄만한 성능을 보였다.

특히 추론능력 검증(MMLU)에서 77.93점(CoT 적용시 85점), 수학(MATH)에서 77.89점, 코딩 영역(MBPP Plus)에서 75.4점의 정확도를 기록했다.

주요 한국어 벤치마크에서도 두각을 나타냈다. 한국문화의 이해도를 측정하는 해례(Hae-Rae)에서 86.62점, 한국어 지식과 추론능력(KMMLU)에서 62점(CoT 적용시 70점)을 기록해 글로벌 모델 대비 월등히 높은 점수를 달성했다.

신재민 트릴리온랩스 대표는 “트리-21B는 플라이휠 구조를 통해 70B급 대형 모델의 성능을 21B에 효과적으로 전이해 모델 사이즈와 비용, 성능 간 균형에서 현존하는 가장 이상적인 구조를 구현했다”고 설명했다.

신 대표는 “바닥부터 사전학습으로 개발한 고성능 LLM을 통해 비용 효율성과 성능 개선을 빠르게 달성하여 한국 AI 기술력의 완성도를 높이고, 향후 공개될 트리-70B와 함께 풀사이즈 LLM 포트폴리오를 완성해 나가겠다”고 밝혔다.

2024년 8월 설립된 트릴리온랩스는 한국어 중심 LLM을 독자적으로 설계하고 사전 학습부터 진행해온 스타트업이다. 2024년 9월 580만달러(약 90억원) 규모의 프리-시드 투자를 유치했으며, 2025년 3월 선공개모델 트릴리온-7B를 오픈소스로 공개한 바 있다.

새롭게 등장하고 변화하는 스타트업 비즈니스의 현장을 생생하게 전달합니다.

댓글

Leave a Comment


관련 기사

스타트업

미리디, 3000만건 학습한 디자인 AI 엔진 ‘미리클넷’ 출시

스타트업

크라우드웍스, 대형은행 AI 프로젝트에 ‘워크스테이지’ 공급

스타트업

머스크가 반응한 한국 AI, 업스테이지 ‘Solar Pro 2’ 글로벌 12위 진입

스타트업

와탭랩스, AI 인프라 최적화 위한 GPU 모니터링 서비스 공개