본문 바로가기

AI 소식/오픈소스 AI 모델

Z.AI GLM-4.6 공개 | Claude Sonnet 4를 능가한 차세대 오픈소스 LLM

안녕하세요,

최근 중국 기업 Z.AI에서 새로운 대형 언어 모델 GLM-4.6을 공개하였습니다. 이 모델은 Claude Sonnet 4와 견줄 만큼 뛰어난 성능을 보이면서도, 훨씬 더 합리적인 비용 구조를 제시해 전 세계 AI 업계의 주목을 받고 있습니다. 특히 효율적인 추론 능력과 안정적인 응답 품질을 기반으로, 연구·개발은 물론 실제 서비스 환경에서도 활용 가능성이 높게 평가되고 있습니다.

이번 포스팅에서는 GLM-4.6의 핵심 특징과 실제 성능을 중심으로 자세히 알아보겠습니다.


반응형
 

GLM-4.6

2025년 9월 30일, GLM-4.6은 중국 기업 Z.AI가 선보인 최신 대형 언어 모델로, GLM 시리즈의 최신 버전입니다. 이 모델은 코딩, 추론, 에이전트 응용, 긴 문맥 처리 등 다양한 영역에서 성능 향상을 목표로 설계되었으며, 텍스트 입력과 출력만을 다루는 언어 모델 구조입니다. 또한, 기존 GLM 시리즈 대비 문맥 창 크기를 확장하고 여러 측면에서 효율성을 개선한 것이 특징입니다.

 

 

GLM-4.6 - Z.AI DEVELOPER DOCUMENT

Responses are generated using AI and may contain mistakes.

docs.z.ai

 

[모델 정보 요약]

항목 내용
모델명 GLM-4.6
파라미터 수 활성 파라미터 32B / 전체 파라미터 355B
개발사 Z.AI (Zhipu AI)
아키텍처 Transformer 기반 Mixture-of-Experts 구조
학습 프레임워크 대규모 분산 학습 + 긴 문맥 최적화 학습 (최대 200K 토큰 지원)
특징 Claude Sonnet 4에 근접한 성능, 저비용 구조, 긴 문맥 처리(200K), 향상된 코딩 및 추론 능력, 에이전트 활용 최적화
라이선스 MIT 라이선스

 

GLM-4.6 모델은 다양한 플랫폼에서 제공되고 있습니다.

이용 가능한 플랫폼

 

 

주요 특징

  • 긴 문맥 처리 : 문맥(window) 길이가 기존 128K 토큰에서 200K 토큰으로 확대되어, 더 긴 대화나 복합 업무 수행이 가능해졌습니다.
  • 코딩 역량 강화 : 74개의 실사용 코딩 테스트를 통해 평가했으며, Claude Sonnet 4 및 국내외 여러 모델을 능가하는 성과를 보였습니다. 또한 GLM-4.5 대비 토큰 소비 효율이 약 30% 이상 개선되어, 비용과 효율 측면에서도 유리합니다.
  • 추론 및 도구 호출 성능 향상 : 추론 성능이 개선되었고, 추론 과정에서 외부 도구 호출이나 에이전트와의 연계 활용이 원활하게 지원됩니다.
  • 에이전트 역량 강화 : 도구 사용, 검색 기반 에이전트 운영 등 에이전트 프레임워크 통합 측면에서 보다 강해졌다는 평가를 받고 있습니다.
  • 문체와 표현의 정제 : 인간의 선호도에 맞춘 스타일 정렬과 역할 기반 대화, 복합 표현 등에서 자연스러운 응답이 가능하도록 개선되었습니다.
  • 다양한 활용 영역 : 코딩, 스마트 오피스, 번역, 콘텐츠 생성, 가상 캐릭터, 지능형 검색 등 다양한 업무 및 서비스 환경에서 활용을 고려하고 있습니다.

 

 

벤치마크 성능

GLM-4.6은 추론(Reasoning), 코딩(Coding), 에이전트 도구 활용(Agentic) 분야에서 전반적으로 우수한 성능을 보입니다. 특히 AIME-25, LiveCodeBench,  BrowseComp 등 고난도 벤치마크에서 Claude Sonnet 4.5를 상회하는 수준의 결과를 기록하였으며, GLM-4.5 대비 전반적인 성능 향상과 툴 활용 능력 강화가 확인되었습니다.

 

아래 표는 주요 벤치마크별 성능 비교를 요약한 것입니다. (단위: 점수 / 높을수록 우수)

벤치마크 (평가 항목) GLM-4.6 GLM-4.5 Claude
Sonnet 4
Claude
Sonnet 4.5
AIME-25
고등수학 및 논리 추론
93.9 85.4 74.3 87.0
GPQA
대학원급 과학·추론 문제
81.0 79.9 77.7 83.4
LiveCodeBench v6
코딩·프로그램 이해 능력
82.8 63.3 48.9 57.7
HLE
복합 논리 추론·고난도 문제 해결
17.2 14.4 9.6 17.3
BrowseComp
도구 활용 및 웹 탐색 능력
45.1 26.4 14.7 19.6
SWE-bench Verified
에이전트 코딩·버그 수정
68.0 64.2 72.5 77.2
Terminal-Bench
명령줄 환경 문제 해결
40.5 37.5 35.5 50.0
τ²-Bench (Weighted)
복합 추론·일반 지능 종합평가
75.9 67.5 66.0 88.1
출처 : Z.ai GLM-4.6 공식 블로그

 

 

사용 비용

GLM-4.6 모델은 현재 Z.AI 공식 플랫폼을 통해 무료로 체험 및 사용할 수 있습니다. 사용자는 웹 인터페이스를 통해 모델의 성능을 직접 테스트할 수 있으며, 별도의 설치 과정 없이 손쉽게 접근할 수 있습니다. 또한 Z.AI는 개발자와 기업 사용자를 위해 API 형태의 유료 서비스도 함께 제공합니다.

API 이용 시의 비용은 아래와 같습니다.

 

[GLM-4.6 API 요금 구조]

항목 설명 가격 (1M tokens 기준)
Input 새롭게 입력되는 프롬프트(요청 데이터) $0.6
Cached Input 이전에 처리된 입력을 캐시에서 재사용하는 경우 $0.11
Cached Input Storage 캐시 데이터 저장 비용 한시적 무료 (Limited-time Free)
Output 모델이 생성한 출력 결과 $2.2
출처 : Z.ai API 가이드

 

 

라이선스

GLM-4.6은 MIT 라이선스로 공개된 오픈소스 대형 언어 모델입니다. MIT 라이선스는 상업적 활용, 수정, 재배포가 모두 허용되는 가장 자유로운 형태의 오픈 라이선스로, 사용자는 모델을 로컬 환경이나 자체 서버에 구축하여 상업 서비스에 통합할 수 있습니다. 단, 저작권 고지와 라이선스 명시는 반드시 포함해야 합니다.

다만, Z.AI가 직접 운영하는 공식 API 서비스 및 구독형 상품(GLM Coding Plan 등)은 별도의 상업 서비스로 분류되며, 해당 인프라 이용에는 유료 정책과 이용약관이 적용됩니다. 즉, 모델의 소스와 파라미터는 자유롭게 사용할 수 있으나, Z.AI의 클라우드 API를 재판매하거나 상업적으로 대행 제공하는 행위는 제한될 수 있습니다.

 


간단한 사용 예시

GLM-4.6 모델은 현재 Z.AI 공식 웹 플랫폼허깅페이스에서 모두 무료로 이용할 수 있습니다. Z.AI 플랫폼에서는 회원가입 없이도 모델을 즉시 사용할 수 있으며, 일정량의 무료 체험 한도도 제공됩니다. 웹사이트에 접속한 뒤, 우측 상단에서 모델을 선택하고 “GLM-4.6”을 지정하면 바로 질문이나 명령을 입력해 응답을 받을 수 있습니다. 짧은 질의부터 복잡한 추론, 코딩, 에이전트 작업까지 실시간으로 테스트할 수 있으며, 최근 여러 벤치마크 평가에서 입증된 높은 성능을 직접 체험할 수 있습니다.

출처: Z.AI 웹 플랫폼 (클릭시 이미지 확대)

 

허깅페이스에서 제공되는 GLM-4.6 모델은 직접 다운로드하여 로컬 환경에서도 실행이 가능합니다. 다만 모델의 전체 용량이 약 714GB에 달하기 때문에, 일반적인 개인용 PC에서는 구동이 어렵습니다. 따라서 간단한 테스트나 성능 체험을 원하신다면 Z.AI 웹 플랫폼을 통한 온라인 이용을 권장드립니다.

 

zai-org/GLM-4.6 at main

 

huggingface.co

 


 

이번 포스팅에서는 Z.AI의 최신 대형 언어 모델, GLM-4.6의 주요 특징과 성능, 그리고 실제 사용 방법까지 살펴보았습니다. GLM-4.6은 Claude Sonnet 4에 견줄 만큼의 성능을 보여주면서도, 더 저렴한 비용과 높은 효율성으로 주목받는 모델입니다. 특히 추론·코딩·에이전트 활용 능력에서의 균형 잡힌 발전은, 연구자뿐만 아니라 실무 개발자에게도 매우 매력적인 선택지가 될 것입니다.

 

AI 모델의 활용이 점점 다양해지는 지금, GLM-4.6은 그 변화의 흐름 속에서 성능과 실용성을 모두 갖춘 차세대 모델로 자리매김하고 있습니다. 직접 사용해보며 그 강력한 성능을 경험해 보시기 바랍니다.

 

 

감사합니다. 😊

 

반응형