안녕하세요,
최근 중국에서 또 한 번 주목할 만한 오픈소스 대규모 언어 모델(LLM)인 XBai-o4가 공개되었습니다. 이 모델은 뛰어난 추론 능력과 빠른 응답 속도를 바탕으로 공개 직후부터 AI 커뮤니티와 업계의 관심을 받고 있으며, 복잡한 문제 해결과 프로그래밍 과제에서도 우수한 성능을 보인다는 평가를 받고 있습니다.
이번 포스팅에서는 XBai-o4의 주요 특징과 성능에 대해 알아보겠습니다.
Xbai-o4 모델
XBai-o4는 2025년 8월 1일 중국 기업 MetaStone AI에서 공개한 4세대 오픈소스 대규모 언어 모델입니다. 이 모델은 복잡한 추론 작업에서 OpenAI의 o3-mini를 능가하는 성능을 보이며, 오픈소스 생태계에서 주목을 받고 있습니다. GitHub와 Hugging Face를 통해 코드와 가중치를 자유롭게 내려받아 활용할 수 있습니다. PRMs(추론 경로 평가 모델)과 정책 모델을 동일한 백본 네트워크에서 공유하여 PRMs의 추론 비용을 약 99% 절감하였으며, 이를 통해 응답 속도와 결과 품질이 함께 향상되었습니다. 모델의 규모는 약 328억 개의 파라미터를 보유하고 있습니다.
- MetaStone 허깅페이스 : https://huggingface.co/MetaStoneTec/XBai-o4
MetaStoneTec/XBai-o4 · Hugging Face
News 2025.08.01: We release XBai o4, where o=open, and o4 represents our fourth-generation open-source large model technology. XBai o4 excels in complex reasoning capabilities and has now completely surpassed OpenAI-o3-mini in Medium mode. View Github to g
huggingface.co
[모델 정보 요약]
항목 | 내용 |
모델명 | XBai-o4 |
아키텍처 | Reflective Generative Form 기반, Long-CoT Reinforcement Learning + Process Reward Learning 결합 |
파라미터 수 | 328억 (32.8B) |
개발사 | MetaStone AI |
출시일 | 2025년 8월 1일 |
특징 | 복잡한 추론 성능 우수, PRMs와 정책 모델 백본 공유로 추론 비용 99% 절감, 다양한 양자화 지원 |
라이선스 | Apache-2.0 (상업적 사용 가능) |
주요 특징
1. 복잡한 추론 능력 및 고성능
- AIME24, AIME25, LiveCodeBench v5, C-EVAL 등 다양한 벤치마크에서 OpenAI‑o3‑mini‑medium을 포함한 여러 모델을 뛰어넘는 성능을 보여줍니다. (예: XBai o4‑medium이 C‑EVAL에서 89.5, XBai o4‑high는 89.7을 기록)
2. 효율적인 추론 구조
- PRMs와 정책 모델의 백본 공유로 추론 비용 99% 절감, 빠르고 품질 높은 응답을 제공합니다.
3. 반사적 생성 모델 (Reflective Generative Model)
- 추론 과정 자체를 구조화하여 모델이 단계별 사고(Chain‑of‑Thought)를 강화하고, 그 중에서도 높은 질의 경로를 선택하도록 학습합니다.
4. 다양한 양자화 지원
- GGUF 포맷 (Q2, Q4, Q6, Q8 등 다양한 비트 수준)
- MLX 포맷 (4비트, 6비트, 8비트 등)
벤치마크 성능
XBai-o4는 다양한 벤치마크에서 OpenAI o3-mini를 안정적으로 앞서는 성능을 보여줍니다.
- Medium 모드 : AIME24에서 85.4점을 기록해 o3-mini(79.6점)보다 5.8점 높았으며, AIME25에서도 77.6점으로 o3-mini(74.8점)를 상회했습니다. LiveCodeBench v5에서는 67.0점을 받아 o3-mini(66.3점)보다 우수한 결과를 냈습니다.
- Low 모드 : AIME24에서 82.4점으로 o3-mini(60.0점) 대비 큰 격차를 보였고, AIME25와 LiveCodeBench v5 역시 각각 74.8점, 66.6점으로 o3-mini보다 높은 성능을 기록했습니다. 이러한 결과는 PRM과 정책 모델의 백본 공유 구조를 통한 추론 비용 절감과 효율적인 아키텍처 설계가 성능 향상에 기여했음을 보여줍니다.
라이선스
XBai-o4는 Apache License 2.0에 따라 배포되며, 라이선스 조건을 준수하는 경우 누구나 상업적 목적으로 자유롭게 사용할 수 있습니다. 이 라이선스는 모델의 사용, 수정, 재배포를 허용하며, 2차 저작물에도 동일한 라이선스를 적용할 수 있습니다. 다만, 배포 시에는 원 저작권 및 라이선스 고지를 포함해야 하며, 보증이 제공되지 않는다는 점을 명시해야 합니다. 또한 상표권 사용은 별도로 허가를 받아야 하며, 모델이나 생성물의 사용으로 발생하는 법적 책임은 전적으로 사용자에게 있습니다.
XBai-o4 모델은 오픈소스임에도 불구하고 우수한 성능과 빠른 응답 속도, 그리고 투명한 공개 방식으로 공개 직후부터 AI 커뮤니티와 업계의 큰 관심을 받았습니다. 특히 복잡한 추론과 프로그래밍 과제에서 뛰어난 결과를 보여주며, 차세대 오픈소스 LLM의 가능성을 입증했다는 평가를 받았습니다.
그러나 신생 기업에서 개발한 모델이라는 특성상, 벤치마크 결과의 신뢰성이나 과장된 마케팅 여부를 지적하는 목소리도 존재합니다. 또한 허깅페이스에 공개된 모델 전체 용량이 약 65GB에 달해, 고사양 GPU 환경이 아닌 개인용 컴퓨터에서 직접 구동하기에는 현실적인 제약이 따릅니다. 그럼에도 불구하고, 오픈소스라는 특성상 시간이 지남에 따라 다양한 연구자와 개발자 커뮤니티를 통해 성능과 안정성이 검증되고, 더 최적화된 배포 버전이나 경량화 모델이 등장할 가능성이 큽니다.
앞으로도 다양한 오픈소스 소식을 지속적으로 전해드리겠습니다.
읽어주셔서 감사합니다. 😊
'AI 소식 > 오픈소스 AI 모델' 카테고리의 다른 글
[오픈소스 AI] LFM2-VL 모델 소개 | 온디바이스 최적화 멀티모달 비전-언어 모델 (1) | 2025.08.20 |
---|---|
[오픈소스 AI] 1GB 이하 초소형 AI, 구글 Gemma 3 270M 모델 실행 가이드 (2) | 2025.08.18 |
중국 텐센트 LLM ‘Hunyuan-A13B-Instruct’ 소개 | 오픈소스 AI | (6) | 2025.08.14 |
[오픈소스 AI] 엔비디아 무료 추론 AI 모델, OpenReasoning-Nemotron(Qwen2.5 기반) 소개 및 로컬 실행 가이드 (3) | 2025.08.12 |
GPT‑OSS, OpenAI의 오픈소스 AI 모델을 로컬에서 실행해보세요 | Ollama 활용법 | 오픈소스 AI (6) | 2025.08.07 |