본문 바로가기

AI 소식/오픈소스 AI 모델

[오픈소스 AI] ChatGPT처럼 '생각하는' 추론 모델, Magistral을 소개합니다. | Ollama | 로컬환경

안녕하세요,

2025년 6월, 프랑스의 AI 스타트업 미스트럴(Mistral)이 새로운 대형 언어 모델인 Magistral을 공개했습니다. 이 모델은 미스트럴이 처음 선보이는 추론(Reasoning) 특화 AI 모델로, 단순한 텍스트 생성이 아니라 복잡한 문제를 단계적으로 사고하며 해결하는 능력에 초점을 맞추고 있습니다.

특히 주목할 점은, 이 모델 중 Magistral Small 버전이 오픈소스로 공개되었다는 것입니다. 누구나 자유롭게 다운로드하고, 수정 및 재활용할 수 있어 AI에 관심 있는 개발자나 연구자에게 매우 매력적인 선택지로 떠오르고 있습니다.

이번 포스팅에서는 Magistral 모델의 주요 특징을 간단히 소개하고, 누구나 쉽게 따라 할 수 있도록 Ollama를 활용해 로컬 환경에서 직접 실행해보는 방법을 단계별로 안내해 드리겠습니다.


반응형

Magistral란

Magistral은 프랑스 AI 스타트업 미스트럴(Mistral)이 2025년 6월 10일에 공개한 최초의 추론(reasoning) 특화 대형 언어 모델(LLM)입니다. 이 모델은 단순히 텍스트를 생성하는 데 그치지 않고, 복잡한 문제를 단계적으로 논리적으로 해결하는 '사고의 연쇄(Chain-of-Thought)' 방식을 중심으로 설계된 것이 가장 큰 특징입니다.

기존의 일반적인 LLM과 달리 Magistral은 여러 단계를 거쳐 스스로 '생각하는' 방식으로 응답을 생성합니다. 이로 인해 법률, 의료, 금융 등 복잡한 도메인에서 발생하는 문제도 효과적으로 처리할 수 있으며, 각 단계에서의 추론 과정을 명확하게 추적할 수 있다는 점이 강점입니다.

 

출처: Magistral 소개페이지 (클릭시 페이지 이동)

 

 

주요 특징

  1. 추론 특화 : 기존 LLM이 단순히 다음 단어를 예측하는 데 중점을 두었다면, Magistral은 복잡한 문제를 단계별로 체계적으로 풀어내는 추론 능력에 초점을 맞췄습니다. 사용자가 요청한 언어로 사고 과정을 투명하게 보여주며, 각 단계의 논리적 근거를 명확히 추적할 수 있습니다.
  2. 다국어 지원 : 영어, 프랑스어, 독일어, 그리스어, 힌디어, 인도네시아어, 이탈리아어, 일본어, 한국어, 말레이어, 네팔어, 폴란드어, 포르투갈어, 루마니아어, 러시아어, 세르비아어, 스페인어, 터키어, 우크라이나어, 베트남어, 아랍어, 벵골어, 중국어, 페르시아어 등 다양한 언어에서 일관된 추론 성능을 제공합니다.
  3. 투명성과 감사 가능성 : 모든 결론에 대해 단계별 사고 흐름을 명확히 설명함으로써, 법률·금융·헬스케어 등 고신뢰가 요구되는 분야에서 필요한 투명성과 감사 가능성을 충족시킵니다.
  4. 빠른 응답 속도 : 미스트럴의 챗봇 플랫폼 Le Chat에 통합되어, 경쟁 모델 대비 최대 10배 빠른 응답 처리 속도를 제공합니다. 이는 실시간 피드백이 중요한 환경에서 큰 강점으로 작용합니다.

 

 

경쟁모델 성능 비교

Magistral은 추론 중심 언어 모델로서 정확도, 응답 속도, 다국어 대응력 등에서 뛰어난 성능을 보여주며, 실제 업무 환경에서 가장 실용적인 선택지 중 하나로 평가받고 있습니다. 특히, 미스트럴의 챗봇 플랫폼 Le Chat에 적용된 Think 모드와 Flash Answers 기능을 활용하면, 응답 속도가 경쟁 모델 대비 최대 10배 빠르게 향상되어 사용자 경험이 크게 개선됩니다.

 

Magistral-Medium은 전반적인 벤치마크에서 Mistral-Medium 3 및 Deepseek-V3보다 뚜렷한 성능 우위를 보였으며, 특히 수학적 추론(AIME)과 논리적 문제 해결(GPQA) 항목에서 탁월한 강점을 나타냈습니다. Deepseek-R1이 일부 항목에서 근소하게 더 높은 수치를 기록하기도 했지만, Magistral-Medium은 대부분의 항목에서 보다 안정적이고 일관된 고성능을 유지했습니다.

 

출처: Magistral 소개페이지 (클릭시 이미지 확대)

 

 

라이선스

Magistral Small은 Apache 2.0 라이선스를 따릅니다. 이 라이선스는 사용, 수정, 배포, 재배포가 모두 자유로우며, 상업적 사용도 허용됩니다. 따라서 기업, 개인, 연구자 누구나 제한 없이 사용할 수 있습니다.

Magistral은 현재 두 가지 버전으로 제공됩니다. 오픈소스 버전인 Magistral Small(24B)은 누구나 사용 가능하며, Magistral Medium은 비공개 모델로, 기업용 API 및 플랫폼(Le Chat 등)을 통해 제공됩니다.

버전 파라미터 수 라이선스 특징
Magistral Small 24B 오픈소스 (Apache 2.0) 연구, 교육, 개발용으로 누구나 사용 가능
Magistral Medium 비공개 엔터프라이즈 기업용, 실시간 추론 최적화, 고성능

 

 

사전 준비 사항

이번 포스팅에서는 Magistral Small 모델을 Ollama를 활용해 로컬 환경에서 실행하는 방법을 소개합니다. 이를 위해 먼저 Ollama 프로그램이 설치되어 있어야 합니다. Ollama에서 제공하는 모델은 양자화(Quantization)된 형태로 제공되므로, 비교적 적은 리소스로도 효율적으로 실행할 수 있어 로컬 환경에서 매우 실용적입니다.

목차
1. 실행 환경
2. 모델 다운로드
3. 모델 실행

 


1. 실행 환경

  • 운영체제 : Windows 11
  • ollama : 0.7.0
  • GPU : NVIDIA GeForce RTX 4060 Ti (VRAM 16 GB)

 

 

2. 모델 다운로드

Magistral Small 모델은 Ollama를 통해 간편하게 다운로드할 수 있습니다. 아래 명령어는 Windows PowerShell에서 모델을 실행하는 명령어이며, 해당 모델이 로컬에 없을 경우 자동으로 다운로드가 진행됩니다.

# Windows PowerShell
ollama run Magistral    # Magistral Small 모델 설치 및 실행

※ ollama run 명령어는 모델이 이미 설치되어 있으면 즉시 실행하고, 없을 경우 Ollama가 자동으로 다운로드한 후 실행합니다.

 

 

3. 모델 실행

간단하게 아래와 같이 프롬프트를 입력하고 답변을 받았습니다.

  • 사용 프롬프트 : 가이드로써 외국인 여행객에게 설명해주는 것처럼서울에 대해 한국어로 알려줘.
  • 사용 VRAM : 15.7GB
  • 생성 시간 : 약 1분

Magistral Small은 24B 파라미터로 구성된 모델로 비교적 작은 모델은 아니지만, Ollama에서는 무리 없이 실행되었습니다. 추론 중심 모델답게 AI가 사고(Think)하는 과정과 응답을 생성하는 흐름이 자연스럽게 표현되었으며, 한국어로 질문하면 한국어로 논리적인 응답을 제공하는 점이 인상적이었습니다.

다만, 한국어 응답 중간에 간헐적으로 영어가 섞이는 현상이 있었는데, 이는 비교적 작은 규모의 Magistral Small 모델 특성상 발생하는 문제로 보입니다.

Magistral Small 실행 결과

 


 

이번 포스팅에서는 Magistral Small 모델을 Ollama를 통해 로컬 환경에서 실행하는 방법과 그 성능을 간단히 살펴보았습니다.
Magistral은 복잡한 추론 문제에 특화된 모델로, 비교적 적은 리소스로도 실행이 가능하면서 다국어 대응과 논리적인 응답 생성 능력까지 갖춘 점이 매우 인상적입니다.

특히 Apache 2.0 라이선스를 기반으로 자유롭게 활용할 수 있는 오픈소스 모델이라는 점에서, 개인 개발자나 연구자에게도 훌륭한 선택지가 될 수 있습니다. 한국어 처리 성능에서도 준수한 결과를 보여준 만큼, 향후 다양한 프로젝트에 직접 적용해보며 실사용 가능성을 더 확인해볼 수 있을 것입니다.

 

감사합니다. 😊

 

반응형