본문 바로가기

AI 소식/오픈소스 AI 모델

중국 텐센트 LLM ‘Hunyuan-A13B-Instruct’ 소개 | 오픈소스 AI |

안녕하세요,

영상 생성 기술로 주목받아 온 중국의 대표 IT 대기업 텐센트(Tencent)가 이번에는 대규모 언어 모델(LLM)을 오픈소스로 공개했습니다. 이번에 선보인 Hunyuan-A13B-Instruct는 텐센트의 최신 AI 연구 성과를 집약한 모델로, 고성능과 효율성을 동시에 갖춘 것이 특징입니다.

이번 포스팅에서는 이 모델의 주요 특징과 성능, 그리고 활용 가능성에 대해 자세히 살펴보겠습니다.


반응형

Hunyuan-A13B-Instruct 모델

2025년 6월 27일, 중국 IT 기업 텐센트에서 대규모 언어 모델 "Hunyuan-A13B-Instruct" 를 공개했습니다. 이 모델은 MoE 아키텍처를 기반으로 전체 약 800억 개 파라미터 중 일부만 활성화하여 연산 효율을 높였으며, 최대 256K 토큰의 초장문 컨텍스트 처리와 지침(Instruct) 튜닝을 통해 정밀한 질의응답과 다양한 작업 수행에 최적화되었습니다. 또한 빠른 응답 모드와 심층 추론 모드를 모두 지원하고, 에이전트 벤치마크 및 도구 호출 환경에서도 우수한 성능을 발휘합니다.

 

 

tencent/Hunyuan-A13B-Instruct · Hugging Face

🤗 Hugging Face  |   🖥️ Official Website  |   🕖 HunyuanAPI  |   🕹️ Demo  |   🤖 ModelScope Technical Report | GITHUB | cnb.cool | LICENSE | WeChat | Discord Welcome to the official repository of Hunyuan-A13B, an innova

huggingface.co

 

[모델 정보 요약]

항목 내용
모델명 Hunyuan-A13B-Instruct
아키텍처 MoE 방식, 80B 전체 / 13B 활성 파라미터
파라미터 수 800 억개 (80B)
개발사 텐센트 (Tencent)
출시일 2025년 6월 27일 (현지 시간)
컨텍스트 길이 최대 256,000 토큰
특징 GQA, CLA, 양자화 지원 (FP8, GPTQ 등)
라이선스 Tencent Hunyuan Community License Agreement (유럽 연합, 영국, 한국을 제외한 상업적 사용 가능)

 

 

주요 특징

1. 하이브리드 추론 모드

  • Fast 모드: 지연 시간을 최소화하여 빠른 응답 제공
  • Slow 모드: 체인 오브 사고(CoT, Chain-of-Thought) 방식을 활용한 고난도 추론 지원

2. 초장문 컨텍스트 처리

  • 최대 256,000 토큰까지 입력 이해 가능
  • 장문 자료 분석 및 대규모 문서 처리에 강점

3. 에이전트 및 도구 호출 대응

  • BFCL-v3, τ-Bench, C3-Bench 등 에이전트 벤치마크에서 최상위 성능 달성
  • vLLM, TensorRT-LLM, SGLang 등 다양한 프레임워크에서 도구 호출과 에이전트 워크플로우 지원

4. 효율적인 추론 및 양자화 지원

  • Grouped Query Attention(GQA), KV 캐시 압축, Cross-Layer Attention(CLA) 등 최적화 기술로 메모리와 연산 효율 개선
  • FP8, GPTQ 등 다양한 양자화 포맷 지원 → 경량 GPU 환경에서도 고성능 추론 가능

5. 탁월한 벤치마크 성능

  • MMLU, BBH, EvalPlus, MBPP, GSM8k 등 주요 언어·추론 벤치마크에서 Qwen3-A22B와 대등하거나 우수한 성능 기록

 

 

벤치마크 성능

Hunyuan-A13B-Instruct전반적인 언어 이해와 추론, 수학, 코딩, 지침 수행 등 다양한 영역에서 안정적인 성능을 보입니다. MMLU, MATH, GSM8k와 같은 핵심 언어·수학 벤치마크에서 경쟁 모델과 대등한 결과를 기록하며, GPQA와 같은 과학 지식 평가에서도 일정 수준 이상의 성능을 유지합니다. 코딩 분야의 Livecodebench에서는 Qwen3-A22B보다는 낮지만 DeepSeek R1과 유사한 수준을 보이며, 지침 수행을 평가하는 IF-Eval에서는 세 모델 모두 근접한 성능을 보입니다. 이러한 결과는 Hunyuan-A13B-Instruct가 다양한 작업에서 균형 잡힌 성능을 제공함을 보여줍니다.

Hunyuan-A13B-Instruct는 오픈소스 모델로 잘 알려진 DeepSeek와 신흥 강자인 Qwen3 모델과도 대등한 벤치마크 수치를 보여준다는 점에서 의미가 큽니다. 이는 해당 모델이 단순히 효율적인 구조를 넘어, 실제 활용 가능한 경쟁력을 갖추었음을 시사합니다.

벤치마크 Hunyuan-A13B-Instruct DeepSeek R1 Qwen3-A22B
MMLU 88.17 - 87.81
MATH 72.35 - 71.84
GSM8k 91.83 - 94.39
GPQA 49.12 - 47.47
Livecodebench 63.90 65.90 70.70
IF-Eval 83.40 88.30 83.40
데이터 출처: 텐센트 허깅페이스 (Hunyuan-A13B-Instruct)

 

 

라이선스

Hunyuan-A13B-Instruct는 Tencent Hunyuan Community License Agreement에 따라 배포되며, 라이선스 조건을 준수하는 경우 상업적 사용이 가능합니다. 다만, 유럽연합, 영국, 대한민국에서는 사용이 허용되지 않으며, 월간 활성 사용자 수가 1억 명 이상인 서비스에서 활용하려면 별도의 상업 라이선스를 취득해야 합니다. 또한 모델이나 생성물을 다른 AI 모델의 학습에 사용하는 것은 금지되어 있으며, 배포 시에는 라이선스 사본과 ‘Powered by Tencent Hunyuan’ 문구를 포함해야 합니다.

라이선스 정보: Hunyuan-A13B-Instruct 라이선스

 

 

Hunyuan-A13B-Instruct 체험하기

Hunyuan-A13B-Instruct 모델은 허깅페이스를 통해 오픈소스로 공개되어 있어 로컬 환경에 다운로드하여 직접 설치·실행할 수 있습니다. 또한 텐센트에서 제공하는 공식 플랫폼을 통해 별도의 설치 없이 온라인으로 바로 체험할 수도 있습니다.

다만, 허깅페이스에 업로드된 전체 모델 용량이 약 160GB에 달하기 때문에 로컬에서 구동하려면 대규모 메모리를 갖춘 고사양 GPU 환경이 필요합니다. 따라서 개인 PC에서 실행하기보다는 양자화된 모델 버전을 활용하거나, 아래 텐센트 플랫폼에서 사용하는 것을 권장합니다.

 

[관련 링크]

 


 

Hunyuan-A13B-Instruct는 텐센트가 글로벌 AI 경쟁에 본격적으로 뛰어들었음을 보여주는 대표적인 사례입니다. 이러한 변화는 전 세계 AI 시장에서 각국이 기술력과 경쟁력을 확보하기 위해 치열하게 경쟁하고 있음을 시사합니다.

한편, 한국 역시 이제 본격적으로 AI 시장을 개척하고 있습니다. 국내 기업인 네이버와 업스테이지가 개발한 AI 모델이 글로벌 모델들과 경쟁하며 AI 벤치마크 사이트에 이름을 올려 그 가능성을 입증했습니다. 후발주자로서 기술력을 신속하게 발전시켜 글로벌 무대에서 경쟁력을 확보하기를 기대합니다.

 

감사합니다. 😊

 

 

 

반응형