안녕하세요,
프랑스의 Mistral AI가 최근 공개한 Mistral 3에 이어, 이번에는 한 단계 더 발전한 에이전트형 코드 특화 모델 ‘Devstral 2’를 선보였습니다. 이 모델은 단순한 코드 생성 기능을 넘어, 실제 개발 워크플로를 이해하고 자동화할 수 있도록 설계된 차세대 언어 모델입니다.
이번 글에서는 Devstral 2의 개요, 주요 특징, 실행 방식, 그리고 활용 가능성에 대해 살펴보겠습니다.
Devstral 2 이란
2025년 12월 9일, 프랑스 기업 Mistral AI는 소프트웨어 엔지니어링 작업을 위해 설계된 대규모 언어 모델 Devstral 2를 공개했습니다. 이 모델은 코드 생성, 코드베이스 탐색, 다중 파일 편집 등 복잡한 코딩 워크플로우를 자동화하기 위한 인스트럭션 기반 모델입니다.
Devstral 2는 FP8 정밀도의 대규모 모델로, 에이전트형 코딩 작업을 수행할 수 있도록 설계되었습니다. 도구 호출, 코드 구조 파악, 다중 파일 수정 등 실제 개발 과정에서 요구되는 일련의 작업을 하나의 모델 내에서 처리할 수 있는 것이 특징입니다. 또한 GitHub 이슈를 해결하는 데이터로 학습되어, 단순한 코드 완성 수준을 넘어 버그 수정·리팩터링·테스트 추가 등 실무 중심의 개발 능력을 갖추고 있습니다. 이러한 구조를 통해 Devstral 2는 단순한 코딩 어시스턴트가 아니라 개발 워크플로 전체를 자동화하는 에이전트용 모델로 자리매김하고 있습니다.
- Mistral 공식블로그 : https://mistral.ai/news/devstral-2-vibe-cli
Introducing: Devstral 2 and Mistral Vibe CLI. | Mistral AI
State-of-the-art, open-source agentic coding models and CLI agent.
mistral.ai
[모델 정보 요약]
| 항목 | 모델명 | |
| 모델 버전 | Devstral-2-123B | Devstral-Small-2-24B |
| 파라미터 수 | 123B | 24B |
| 개발사 | Mistral AI | Mistral AI |
| 아키텍처 | Dense Transformer | Dense Transformer |
| 컨텍스트 길이 | 256K | 256K |
| 특징 | - SWE-Bench Verified 72.2% - 고정밀 FP8 - 대규모 코드베이스 이해 및 수정 - 에이전트형 코딩 모델 |
- SWE-Bench Verified 68.0% - 로컬 실행 가능 - 빠른 추론 및 온디바이스 최적화 |
| 사용 환경 | 데이터센터급 GPU (최소 H100 ×4) | 소비자용 GPU 및 CPU 환경, 단일 GPU 실행 가능 |
| 라이선스 | 수정된 MIT License | Apache 2.0 |
| 모델 경로 (허깅페이스) |
Hugging Face 페이지 | Hugging Face 페이지 |
주요 특징
- 대규모 코드베이스 이해 및 추론 강화 : 수십만 줄 규모의 프로젝트 전반을 분석할 수 있는 256K 컨텍스트 윈도우를 지원하며, 코드 간 인과관계 추론과 다중 파일 종속성 분석을 수행합니다. 이를 통해 단일 함수 수준을 넘어 전체 코드 구조를 이해하고 수정할 수 있는 능력을 갖추고 있습니다.
- 에이전트형 코딩 및 도구 연동 기능 : ‘Code Agent’ 아키텍처를 기반으로 도구 호출, 리팩터링, 테스트 추가 등 실제 개발 워크플로를 자동화합니다. Vibe CLI 및 Cline 환경과 연동되어 IDE 확장형 에이전트로 활용이 가능하며, 외부 리포지토리나 API 호출을 통한 실시간 코드 조작을 지원합니다.
- 실제 개발 데이터 기반 학습 : GitHub 이슈·PR·버그 수정 내역을 포함한 실제 개발 데이터를 학습하여, 버그 수정·리팩터링·테스트 생성 등 실무 중심의 문제 해결 능력을 강화하였습니다.
- 고효율 추론 및 배포 유연성 : FP8 정밀도 기반 최적화를 적용해 연산 효율을 높였으며, Devstral-2-123B는 데이터센터급 GPU 환경, Devstral-Small-2-24B는 단일 GPU 또는 로컬 환경에서도 실행할 수 있도록 설계되었습니다.
- 오픈소스 및 확장성 중심 설계 : Apache 2.0 및 수정된 MIT 라이선스로 공개되어 연구·상업적 활용이 모두 가능하며, 다양한 오픈소스 에이전트 프레임워크(MCP, vLLM 등)와의 통합을 지원합니다.
벤치마크 성능
이번 벤치마크 결과는 SWE-Bench Verified 기준으로 주요 코드 특화 모델의 실제 개발 문제 해결 능력을 비교한 것입니다.
Mistral의 Devstral-2-123B는 오픈소스 모델 중 가장 높은 72.2%의 정확도를 기록하며, 상용 모델과 대등한 수준의 성능을 보였습니다. 또한 경량 버전인 Devstral-Small-2-24B 역시 68.0%로, 로컬 환경에서도 우수한 코드 추론 능력을 발휘했습니다.
| 구분 | 모델명 | 파라미터 수 | SWE-Bench Verified(%) |
주요 특징 |
| 오픈 소스 |
Devstral-2-123B | 123B | 72.2 | 오픈소스 모델 중 최고 성능, 대규모 코드베이스 추론에 강점 |
| Devstral-Small-2-24B | 24B | 68.0 | 경량화 버전, 로컬 환경에서도 실행 가능 | |
| gpt-oss-120B | 120B | 62.4 | 대형 오픈모델, 코드 해석 중심 성능 | |
| DeepSeek v3.2 | 685B | 73.1 | 상용 모델, 균형 잡힌 코드 처리 능력 | |
| 상용 모델 |
Grok Code Fast 1 | – | 70.8 | 고속 코드 추론에 최적화된 모델 |
출처 : Mistral 공식블로그
라이선스
Devstral 시리즈는 오픈소스 친화적 라이선스 정책을 기반으로 공개되었습니다.
- Devstral-2-123B 모델은 수정된 MIT 라이선스(Modified MIT License) 로 배포되어, 연구 및 상업적 활용이 모두 가능합니다. 단, 모델 사용 시 출처 명시 및 재배포 조건을 준수해야 합니다.
- Devstral-Small-2-24B 모델은 Apache 2.0 라이선스를 적용받으며, 자유로운 수정·배포·상업 이용이 허용됩니다. Apache 2.0 조항에 따라 저작권 고지 및 면책 조항을 명시해야 합니다.
이러한 이중 라이선스 구조는 연구 확장성과 기업 활용성의 균형을 고려한 설계로, 개인 연구자부터 상용 개발자까지 폭넓게 활용할 수 있는 환경을 제공합니다.
간단한 사용 예시
Devstral 모델은 완전한 오픈소스 형태로 공개된 코드 특화 언어 모델로, 활용 목적에 따라 다양한 방식으로 사용할 수 있습니다. 모델 파일을 직접 다운로드해 로컬 환경에서 독립적으로 실행하거나, Mistral이 제공하는 API를 통해 외부 서비스나 애플리케이션에 통합하는 방식으로 운용할 수 있습니다.
1. 로컬 환경 (오픈소스 실행)
- 목적: 독립된 환경에서 모델을 커스터마이징하거나 연구·실험 목적으로 활용
- 방법: Mistral 허깅페이스에서 모델 파일(.safetensors 등) 다운로드
- 사용 방식: transformers, vLLM, llama.cpp 등의 프레임워크를 통해 GPU 기반 로컬 환경에서 실행
- 특징: 인터넷 연결이 불필요하며, 데이터 프라이버시를 보장함. 연구자와 개발자에게 적합한 방식
- 허깅페이스 경로: https://huggingface.co/collections/mistralai/devstral-2


2. API 플랫폼 (개발자 중심)
- 목적: 외부 서비스나 애플리케이션에 Devstral 모델을 통합
- 방법: Mistral API 키를 발급받아 REST API 형태로 호출
- 사용 방식: Python, cURL 등으로 엔드포인트 요청 및 응답 처리
- 비용: Mistral API를 사용하면 과금 적용
- Devstral 2: $0.40 (입력) / $2.00 (출력) per million tokens
- Devstral Small 2: $0.10 / $0.30 per million tokens
- 특징: 서버 애플리케이션 통합과 자동화에 적합하며, 커스터마이징이 용이함
- API Doc: https://docs.mistral.ai/models/devstral-2-25-12
3. CLI 실행
- 목적: 명령줄 기반의 간단한 실행 및 테스트
- 방법: "uv tool install mistral-vibe" 명령을 통해 CLI 도구 설치
- 사용 방식: mistral-vibe chat 명령을 통해 로컬 환경에서 Devstral 모델과 대화하거나 코드 보조 기능을 수행
- 비용: 로컬 모델 파일을 이용할 경우 무료이며, Mistral API를 사용할 경우 사용량에 따라 과금 적용
- Devstral 2: $0.40 (입력) / $2.00 (출력) per million tokens
- Devstral Small 2: $0.10 / $0.30 per million tokens
- 특징: 설치 과정이 간단하고, 로컬 환경에서 빠르게 테스트 가능하며 인터넷 연결 없이 독립적으로 실행할 수 있음

Devstral 시리즈는 단순한 코드 보조 모델을 넘어, 실제 개발 워크플로를 이해하고 자동화할 수 있는 에이전트형 LLM으로 발전하였습니다. 대규모 코드베이스를 분석하고 수정할 수 있는 능력, 그리고 로컬·클라우드 환경을 모두 지원하는 유연한 구조를 통해 개발자에게 새로운 형태의 생산성을 제공합니다.
앞으로 이러한 오픈소스 기반의 코드 특화 모델이 확산되면서, 인공지능이 개발 과정 전반에 깊이 통합되는 흐름이 더욱 가속화될 것으로 보입니다. Devstral과 같이 오픈소스로 공개된 모델들이 앞으로 더 많이 등장하여, 개발자와 연구자가 자유롭게 혁신을 이어갈 수 있는 환경이 지속적으로 확대되기를 바랍니다.
감사합니다. 😊
'AI 소식 > 오픈소스 AI 모델' 카테고리의 다른 글
| [오픈소스 AI] AllenAI의 완전 공개 언어 모델, Olmo-3.1을 소개합니다. (0) | 2025.12.22 |
|---|---|
| [오픈소스 AI] Essential AI가 공개한 차세대 언어 모델, Rnj-1 소개 (1) | 2025.12.11 |
| [오픈소스 AI] Mistral 3 시리즈 공개, 로컬에서도 비전 인식이 가능한 오픈소스 AI 모델 (0) | 2025.12.09 |
| [오픈소스 AI] 국내 수퍼톤이 공개한 초고속 온디바이스 TTS 모델, Supertonic을 소개합니다. (0) | 2025.11.23 |
| [오픈소스 AI] 중국 바이두의 비전 인식 모델, ERNIE 4.5 VL 모델 소개 (0) | 2025.11.17 |