본문 바로가기

AI 소식/오픈소스 AI 모델

[오픈소스 AI] 중국 Z.ai의 초강력 오픈소스 LLM, 'GLM-4.5'를 소개합니다.

안녕하세요,

최근 오픈소스 대규모 언어모델(LLM)의 발전 속도가 눈에 띄게 빨라지고 있습니다. 특히 중국을 중심으로 공개되는 모델들은 기술적 완성도와 실제 성능 면에서 글로벌 상용 모델에 견줄 만큼 높은 수준을 보여주고 있습니다. 그중 Z.ai에서 발표한 GLM‑4.5는 뛰어난 추론 능력과 코드 생성, 에이전트 기능까지 아우르는 다재다능한 모델로 주목받고 있으며, MIT 라이선스를 통해 누구나 자유롭게 활용할 수 있도록 공개되었습니다.

이번 글에서는 GLM‑4.5 모델의 구성과 성능, 활용 가능성에 대해 간략히 살펴보고자 합니다.


반응형

GLM-4.5란

GLM‑4.5는 중국 Z.ai에서 2025년 7월에 공개한 오픈소스 인공지능 언어모델입니다. 복잡한 질문에 대한 추론, 코딩 작업, 에이전트 기능까지 모두 처리할 수 있도록 설계된 것이 특징이며, 대형 모델과 경량 모델 두 가지 버전으로 제공됩니다. 여러 작업을 동시에 처리할 수 있는 구조와 높은 효율성, 그리고 다양한 도구와의 연동 기능을 갖추고 있어, 실용성과 확장성이 뛰어난 최신 AI 모델로 소개되고 있습니다.

 

 

[모델 정보 요약]

항목 내용
모델명 GLM‑4.5 / GLM‑4.5‑Air
파라미터 수 - GLM‑4.5 : 전체 355B, 활성 32B
- GLM‑4.5‑Air : 전체 106B, 활성 12B
개발사 Zhipu AI (현 Z.ai)
출시일 2025년 7월 28일
Expert 수 - GLM‑4.5 : 총 128개
- GLM‑4.5‑Air : 총 64개
활성 Expert 수 - GLM‑4.5 : 8개
- GLM‑4.5‑Air : 4개
컨텍스트 길이 최대 128K
학습 방식 3단계 학습: 일반 사전학습(15조 토큰) → 도메인 특화 미세조정(8조 토큰) → 강화학습(RL)
특징 사고/비사고 하이브리드 추론, 멀티태스킹 최적화, Agent 기능 통합, 높은 효율성
라이선스 MIT License (상업적 사용 가능)

 

 

 

주요 특징

  • Agent 통합 AI : GLM‑4.5는 하나의 모델로 복잡한 추론(reasoning), 고급 코드 생성(coding), 에이전트 태스크(agentic task)를 모두 처리할 수 있도록 설계된 통합형 언어모델입니다. 다양한 플러그인 및 도구 호출 기능과 멀티태스크 수행 능력을 공식적으로 지원합니다.
  • 효율 높은 파라미터 활용 : MoE(Mixture of Experts) 구조를 채택하여, 활성화 파라미터 수(예: 32B, Air는 12B)를 줄이면서도 동급 대형 모델(DeepSeek‑R1, Moonshot, Kimi 등)과 유사하거나 더 높은 성능을 기록합니다. 공개된 비교 자료에서도 적은 자원으로 우수한 성능을 발휘하는 효율성이 입증되었습니다.
  • 3단계 학습 프로세스:
    1. 대규모 일반 데이터(수십~수백 조 토큰)를 활용한 사전학습
    2. 코드, 추론, 에이전트 태스크 등 특화 도메인 데이터를 통한 추가 학습 (약 8조 토큰 규모)
    3. RLHF(강화학습 기반 피드백)를 통한 미세조정
      모델마다 학습 토큰 수에는 차이가 있지만, 세 단계 학습 구조는 일관되게 적용됩니다.
  • 풍부한 Agent 도구 호출 : Claude Code나 Roo Code와 유사하게 함수 호출, 웹 검색, 구조화 출력(JSON) 등 다양한 인터페이스를 지원합니다. 공식 문서에는 Web Search, 외부 API 연동, 프롬프트 기반 JSON 출력 등의 사용 예시가 포함되어 있습니다.
  • 스트리밍 출력 및 캐시 최적화 : 실시간 스트리밍 응답, 대화 맥락 저장(캐싱), 긴 대화에서도 일관된 출력 유지, 코드 작업 연속성 보장 등 대화형 모델로서의 완성도도 높게 유지되고 있습니다.

 

 

GLM‑4.5 모델군 버전별 특징

현재 허깅페이스에는 GLM‑4.5 모델이 총 6가지 버전으로 공개되어 있습니다. 각 버전은 파라미터 규모, 양자화 방식, 학습 범위에 따라 구분되며, 다음과 같은 특징을 가지고 있습니다.

FP8 버전은 성능 저하 없이 VRAM 사용량과 추론 속도를 개선할 수 있어, 로컬 환경이나 비용 절감이 중요한 상황에서 유용하게 활용할 수 있습니다. Base 버전은 instruction tuning이 적용되지 않은 사전학습 전용 모델로, 사용자 목적에 맞게 파인튜닝하거나 커스터마이징할 때 적합합니다. Air 버전은 GLM‑4.5의 경량화 모델로, 경량 고효율 추론이 필요한 환경을 고려해 설계되었습니다.

모델명 파라미터 규모 양자화 용도/특징
GLM‑4.5 355B (활성 32B) FP16 기본 풀사이즈 버전으로 최고 성능 제공
GLM‑4.5‑FP8 355B (활성 32B) FP8 동일한 성능을 유지하면서도 메모리 사용량 및 속도 개선
GLM‑4.5‑Air 110B (활성 12B) FP16 경량화 버전, 효율적인 추론과 속도 중심
GLM‑4.5‑Air‑FP8 110B (활성 12B) FP8 경량 모델의 FP8 양자화 버전, 저비용 환경에 적합
GLM‑4.5‑Base 355B FP16 사전학습(pretrained)만 수행된 버전, 자체 파인튜닝 용도
GLM‑4.5‑Air‑Base 110B FP16 Air 모델의 사전학습 전용 버전, 미세조정 대상에 적합

 

 

벤치마크 성능

GLM‑4.5는 다양한 언어 모델 벤치마크에서 고른 성능을 보이며, 상위권에 위치한 모델입니다. 종합 성능에서는 63.2점을 기록하여, 오픈소스 모델 가운데 가장 높은 점수를 나타냅니다.

에이전트 태스크에서는 58.1점을 기록하였으며, 실시간 도구 사용이나 명령 실행 등 복합 작업 수행에서도 우수한 결과를 보였습니다. 추론 성능은 68.8점으로, 사고력을 요하는 문제에서도 안정적인 성능을 발휘합니다.

코딩 성능은 50.9점으로, 코드 생성과 수정 등 실제 개발 업무에 필요한 능력에서도 높은 점수를 받았습니다. GLM‑4.5는 추론, 코딩, 에이전트 기능을 모두 아우르며, 전반적으로 균형 잡힌 성능을 갖춘 모델로 평가되고 있습니다.

출처 : BigModel - GLM-4.5 (클릭시 이미지 확대)

관련 링크 : BigModel (GLM-4.5)

 

 

라이선스

GLM‑4.5는 MIT 라이선스로 공개된 오픈소스 모델입니다. MIT 라이선스는 사용, 수정, 배포에 대한 제약이 거의 없으며, 상업적 이용도 자유롭게 허용됩니다. 이를 통해 기업이나 개발자는 GLM‑4.5를 기반으로 한 제품 개발이나 서비스 운영에 별도의 라이선스 계약 없이 활용할 수 있습니다. 또한 2차 저작물 생성 및 커스터마이징도 자유롭게 진행할 수 있어, 다양한 응용 환경에 유연하게 적용할 수 있는 것이 특징입니다.

 


 

최근 중국에서 오픈소스로 공개되는 대규모 언어 모델들이 글로벌 시장에서도 매우 인상적인 성능을 보여주고 있습니다. 특히 Z.ai에서 발표한 GLM‑4.5 시리즈는 자체 벤치마크 결과 기준으로, 현재 최상위권에 속하는 Grok‑4, OpenAI의 o4‑mini, Google의 Gemini 2.5 Pro와 견줄 수 있는 수준의 성능을 보이고 있습니다. 오픈소스 모델임에도 불구하고, 상용 모델과 유사한 추론 능력과 코드 생성 성능, 그리고 에이전트 태스크 처리 능력을 갖추고 있다는 점에서 기술적 완성도가 매우 높다고 생각됩니다.

 

이처럼 뛰어난 성능의 모델이 MIT 라이선스로 공개된 것은 개발자와 연구자 모두에게 매우 매력적인 기회입니다. 실제로 로컬 환경에서 직접 활용해 보고 싶었으나, 가장 경량화된 양자화 버전인 GLM‑4.5‑Air‑FP8 버전 조차 모델 파일 크기가 약 100GB에 달해 고성능 GPU와 시스템 자원이 요구되었습니다. 개인 환경에서는 이를 감당하기 어려워 직접 실험해보지 못한 점이 아쉬웠습니다.

 

중국의 사례처럼, 오픈소스 기반의 고성능 LLM 개발이 활성화되는 것은 글로벌 AI 생태계의 다양성과 기술 확장을 가속하는 데 중요한 역할을 하고 있습니다. 앞으로 한국에서도 이와 같은 수준의 대형 언어모델이 활발히 개발되어, 글로벌 경쟁력을 갖춘 K‑LLM이 더욱 많이 등장하길 기대합니다.

 

반응형