안녕하세요,
최근 중국 기업 Z.AI에서 새로운 대형 언어 모델 GLM-4.6을 공개하였습니다. 이 모델은 Claude Sonnet 4와 견줄 만큼 뛰어난 성능을 보이면서도, 훨씬 더 합리적인 비용 구조를 제시해 전 세계 AI 업계의 주목을 받고 있습니다. 특히 효율적인 추론 능력과 안정적인 응답 품질을 기반으로, 연구·개발은 물론 실제 서비스 환경에서도 활용 가능성이 높게 평가되고 있습니다.
이번 포스팅에서는 GLM-4.6의 핵심 특징과 실제 성능을 중심으로 자세히 알아보겠습니다.
GLM-4.6
2025년 9월 30일, GLM-4.6은 중국 기업 Z.AI가 선보인 최신 대형 언어 모델로, GLM 시리즈의 최신 버전입니다. 이 모델은 코딩, 추론, 에이전트 응용, 긴 문맥 처리 등 다양한 영역에서 성능 향상을 목표로 설계되었으며, 텍스트 입력과 출력만을 다루는 언어 모델 구조입니다. 또한, 기존 GLM 시리즈 대비 문맥 창 크기를 확장하고 여러 측면에서 효율성을 개선한 것이 특징입니다.
- GLM-4.6 공식 블로그 : https://z.ai/blog/glm-4.6
GLM-4.6 - Z.AI DEVELOPER DOCUMENT
Responses are generated using AI and may contain mistakes.
docs.z.ai
[모델 정보 요약]
항목 | 내용 |
모델명 | GLM-4.6 |
파라미터 수 | 활성 파라미터 32B / 전체 파라미터 355B |
개발사 | Z.AI (Zhipu AI) |
아키텍처 | Transformer 기반 Mixture-of-Experts 구조 |
학습 프레임워크 | 대규모 분산 학습 + 긴 문맥 최적화 학습 (최대 200K 토큰 지원) |
특징 | Claude Sonnet 4에 근접한 성능, 저비용 구조, 긴 문맥 처리(200K), 향상된 코딩 및 추론 능력, 에이전트 활용 최적화 |
라이선스 | MIT 라이선스 |
GLM-4.6 모델은 다양한 플랫폼에서 제공되고 있습니다.
이용 가능한 플랫폼
- Z.ai 플랫폼 : https://claude.ai/new
- Z.ai API : https://console.anthropic.com/dashboard
- 허깅페이스 : https://huggingface.co/zai-org/GLM-4.6
주요 특징
- 긴 문맥 처리 : 문맥(window) 길이가 기존 128K 토큰에서 200K 토큰으로 확대되어, 더 긴 대화나 복합 업무 수행이 가능해졌습니다.
- 코딩 역량 강화 : 74개의 실사용 코딩 테스트를 통해 평가했으며, Claude Sonnet 4 및 국내외 여러 모델을 능가하는 성과를 보였습니다. 또한 GLM-4.5 대비 토큰 소비 효율이 약 30% 이상 개선되어, 비용과 효율 측면에서도 유리합니다.
- 추론 및 도구 호출 성능 향상 : 추론 성능이 개선되었고, 추론 과정에서 외부 도구 호출이나 에이전트와의 연계 활용이 원활하게 지원됩니다.
- 에이전트 역량 강화 : 도구 사용, 검색 기반 에이전트 운영 등 에이전트 프레임워크 통합 측면에서 보다 강해졌다는 평가를 받고 있습니다.
- 문체와 표현의 정제 : 인간의 선호도에 맞춘 스타일 정렬과 역할 기반 대화, 복합 표현 등에서 자연스러운 응답이 가능하도록 개선되었습니다.
- 다양한 활용 영역 : 코딩, 스마트 오피스, 번역, 콘텐츠 생성, 가상 캐릭터, 지능형 검색 등 다양한 업무 및 서비스 환경에서 활용을 고려하고 있습니다.
벤치마크 성능
GLM-4.6은 추론(Reasoning), 코딩(Coding), 에이전트 도구 활용(Agentic) 분야에서 전반적으로 우수한 성능을 보입니다. 특히 AIME-25, LiveCodeBench, BrowseComp 등 고난도 벤치마크에서 Claude Sonnet 4.5를 상회하는 수준의 결과를 기록하였으며, GLM-4.5 대비 전반적인 성능 향상과 툴 활용 능력 강화가 확인되었습니다.
아래 표는 주요 벤치마크별 성능 비교를 요약한 것입니다. (단위: 점수 / 높을수록 우수)
벤치마크 (평가 항목) | GLM-4.6 | GLM-4.5 | Claude Sonnet 4 |
Claude Sonnet 4.5 |
AIME-25 고등수학 및 논리 추론 |
93.9 | 85.4 | 74.3 | 87.0 |
GPQA 대학원급 과학·추론 문제 |
81.0 | 79.9 | 77.7 | 83.4 |
LiveCodeBench v6 코딩·프로그램 이해 능력 |
82.8 | 63.3 | 48.9 | 57.7 |
HLE 복합 논리 추론·고난도 문제 해결 |
17.2 | 14.4 | 9.6 | 17.3 |
BrowseComp 도구 활용 및 웹 탐색 능력 |
45.1 | 26.4 | 14.7 | 19.6 |
SWE-bench Verified 에이전트 코딩·버그 수정 |
68.0 | 64.2 | 72.5 | 77.2 |
Terminal-Bench 명령줄 환경 문제 해결 |
40.5 | 37.5 | 35.5 | 50.0 |
τ²-Bench (Weighted) 복합 추론·일반 지능 종합평가 |
75.9 | 67.5 | 66.0 | 88.1 |
출처 : Z.ai GLM-4.6 공식 블로그
사용 비용
GLM-4.6 모델은 현재 Z.AI 공식 플랫폼을 통해 무료로 체험 및 사용할 수 있습니다. 사용자는 웹 인터페이스를 통해 모델의 성능을 직접 테스트할 수 있으며, 별도의 설치 과정 없이 손쉽게 접근할 수 있습니다. 또한 Z.AI는 개발자와 기업 사용자를 위해 API 형태의 유료 서비스도 함께 제공합니다.
API 이용 시의 비용은 아래와 같습니다.
[GLM-4.6 API 요금 구조]
항목 | 설명 | 가격 (1M tokens 기준) |
Input | 새롭게 입력되는 프롬프트(요청 데이터) | $0.6 |
Cached Input | 이전에 처리된 입력을 캐시에서 재사용하는 경우 | $0.11 |
Cached Input Storage | 캐시 데이터 저장 비용 | 한시적 무료 (Limited-time Free) |
Output | 모델이 생성한 출력 결과 | $2.2 |
출처 : Z.ai API 가이드
라이선스
GLM-4.6은 MIT 라이선스로 공개된 오픈소스 대형 언어 모델입니다. MIT 라이선스는 상업적 활용, 수정, 재배포가 모두 허용되는 가장 자유로운 형태의 오픈 라이선스로, 사용자는 모델을 로컬 환경이나 자체 서버에 구축하여 상업 서비스에 통합할 수 있습니다. 단, 저작권 고지와 라이선스 명시는 반드시 포함해야 합니다.
다만, Z.AI가 직접 운영하는 공식 API 서비스 및 구독형 상품(GLM Coding Plan 등)은 별도의 상업 서비스로 분류되며, 해당 인프라 이용에는 유료 정책과 이용약관이 적용됩니다. 즉, 모델의 소스와 파라미터는 자유롭게 사용할 수 있으나, Z.AI의 클라우드 API를 재판매하거나 상업적으로 대행 제공하는 행위는 제한될 수 있습니다.
간단한 사용 예시
GLM-4.6 모델은 현재 Z.AI 공식 웹 플랫폼과 허깅페이스에서 모두 무료로 이용할 수 있습니다. Z.AI 플랫폼에서는 회원가입 없이도 모델을 즉시 사용할 수 있으며, 일정량의 무료 체험 한도도 제공됩니다. 웹사이트에 접속한 뒤, 우측 상단에서 모델을 선택하고 “GLM-4.6”을 지정하면 바로 질문이나 명령을 입력해 응답을 받을 수 있습니다. 짧은 질의부터 복잡한 추론, 코딩, 에이전트 작업까지 실시간으로 테스트할 수 있으며, 최근 여러 벤치마크 평가에서 입증된 높은 성능을 직접 체험할 수 있습니다.
- Z.AI 웹 플랫폼: https://chat.z.ai/
허깅페이스에서 제공되는 GLM-4.6 모델은 직접 다운로드하여 로컬 환경에서도 실행이 가능합니다. 다만 모델의 전체 용량이 약 714GB에 달하기 때문에, 일반적인 개인용 PC에서는 구동이 어렵습니다. 따라서 간단한 테스트나 성능 체험을 원하신다면 Z.AI 웹 플랫폼을 통한 온라인 이용을 권장드립니다.
- 허깅페이스 모델 페이지: https://huggingface.co/zai-org/GLM-4.6/tree/main
zai-org/GLM-4.6 at main
huggingface.co
이번 포스팅에서는 Z.AI의 최신 대형 언어 모델, GLM-4.6의 주요 특징과 성능, 그리고 실제 사용 방법까지 살펴보았습니다. GLM-4.6은 Claude Sonnet 4에 견줄 만큼의 성능을 보여주면서도, 더 저렴한 비용과 높은 효율성으로 주목받는 모델입니다. 특히 추론·코딩·에이전트 활용 능력에서의 균형 잡힌 발전은, 연구자뿐만 아니라 실무 개발자에게도 매우 매력적인 선택지가 될 것입니다.
AI 모델의 활용이 점점 다양해지는 지금, GLM-4.6은 그 변화의 흐름 속에서 성능과 실용성을 모두 갖춘 차세대 모델로 자리매김하고 있습니다. 직접 사용해보며 그 강력한 성능을 경험해 보시기 바랍니다.
감사합니다. 😊
'AI 소식 > 오픈소스 AI 모델' 카테고리의 다른 글
[오픈소스 AI] 멀티모달 AI 끝판왕? Qwen3-Omni-30B-A3B 기능·성능 총정리 (0) | 2025.09.30 |
---|---|
[오픈소스 AI] 알리바바 최신 언어 모델 Qwen3-Next 공개 – 학습비용 90% 절감, 추론 속도 10배↑ (1) | 2025.09.24 |
[오픈소스 AI] 맥북에서 실행 가능한 초경량 LLM – Qwen3-4B-MLX-4bit 모델을 소개합니다. (0) | 2025.09.22 |
AI 에이전트 최적화 모델, GUI-Owl 소개|오픈소스 VLM (1) | 2025.09.11 |
[음성 생성 AI] 마이크로소프트 VibeVoice TTS 모델 소개 및 사용 가이드 (ComfyUI 활용) (4) | 2025.09.09 |