본문 바로가기

AI 소식/오픈소스 AI 모델

[오픈소스 AI] GPT-5에 맞서는 오픈소스 AI, DeepSeek-V3.1 공개

안녕하세요,

오픈소스 AI 생태계에 프론티어급 대형 언어 모델 시대의 개막을 알리며 강력한 변화를 이끌어낸 DeepSeek에서 새로운 모델 DeepSeek-V3.1을 공개했습니다. 이번 모델은 전작인 V3를 기반으로 성능과 효율성을 한층 강화했으며, 추론 모드와 일반 모드를 모두 지원하는 하이브리드 구조를 통해 활용 범위를 크게 넓혔습니다.

이번 포스팅에서는 DeepSeek-V3.1의 개요와 주요 특징을 살펴보고, 어떤 점에서 발전이 있었는지, 그리고 실제로 어떤 방식으로 활용할 수 있는지 자세히 소개해드리겠습니다.


반응형

DeepSeek-V3.1 모델이란

2025년 8월 19일(현지 시각), DeepSeek은 전작 V3를 기반으로 성능과 효율성을 한층 강화한 차세대 오픈소스 언어 모델 DeepSeek-V3.1을 공개했습니다. 이 모델은 방대한 데이터를 이해하고 정밀한 추론을 수행할 수 있도록 설계되었으며, 다양한 환경에서 안정적으로 활용할 수 있도록 최적화가 이루어졌습니다. 연구와 개발은 물론 실제 서비스와 응용 분야에서도 폭넓게 적용할 수 있어, 오픈소스 AI 모델의 새로운 기준으로 평가되고 있습니다.

 
출처: DeepSeek 공식 API 페이지 (클릭시 페이지 이동)

 

[모델 정보 요약]

항목 내용
모델명 DeepSeek-V3.1
파라미터 수 전체 파라미터 : 6710억 개 (671B) / 활성화 파라미터 : 370억 개 (37B)
개발사 DeepSeek
출시일 2025년 8월 19일
컨텍스트 길이 최대 128K 토큰
학습 방식 하이브리드 아키텍처 (Think / Non-Think 지원)
특징 성능·효율성 강화, 툴 활용 및 에이전트 기능 개선
라이선스 MIT License (상업적 사용 가능)

 

 

주요 특징

DeepSeek-V3.1 모델의 주요 기능은 다음과 같습니다.

  • 하이브리드 추론 아키텍처: 상황에 따라 Think 모드(복잡한 문제 해결)와 Non-Think 모드(빠른 응답)를 선택할 수 있어 유연한 활용이 가능합니다.
  • Mixture-of-Experts(MoE): 전체 파라미터 중 일부만 활성화해 높은 성능을 유지하면서도 계산 효율과 비용 절감을 동시에 달성합니다.
  • 128K 컨텍스트 윈도우: 방대한 문서나 코드 등 대규모 데이터를 한 번에 처리하고 요약할 수 있습니다.
  • 실무 지향 최적화: 외부 도구 연동, 다단계 에이전트 워크플로, 수학·코딩 성능이 개선되어 실제 개발과 연구에 효과적으로 적용됩니다.
  • 다양한 활용 분야: 교육, 연구, 개발, 콘텐츠 제작 등 여러 산업 영역에서 폭넓게 응용할 수 있습니다.

 

 

 

벤치마크 성능

DeepSeek V3.1전작인 V3 대비 전반적인 성능이 눈에 띄게 향상되었습니다. 특히 MMLU-Redux, MMLU-Pro, GPQA-Diamond와 같은 지식·추론 지표에서 꾸준히 높은 점수를 기록하며, 복잡한 문제 해결 능력이 강화되었습니다. 코드 관련 벤치마크에서는 LiveCodeBench와 Aider-Polyglot에서 큰 폭의 개선이 확인되어, 실제 프로그래밍 문제 해결과 다언어 코딩 능력에서 경쟁 모델과 견줄 만한 성과를 보여주었습니다. 또한 수학 벤치마크인 AIME 2024/2025, HMMT 2025에서도 전작보다 월등히 높은 수치를 기록해, 복잡한 계산과 추론 능력이 크게 향상되었음을 알 수 있습니다.

정리하면, DeepSeek V3.1은 지식 이해, 코드 작성, 수학적 추론 등 핵심 분야에서 고르게 성능을 끌어올리며, 연구·개발뿐만 아니라 실무 환경에서도 활용도가 한층 강화된 차세대 오픈소스 모델로 평가됩니다.

벤치마크 DeepSeek V3.1
Non-Thinking
DeepSeek V3
0324
DeepSeek V3.1
Thinking
DeepSeek R1
0528
MMLU-Redux (EM) 91.8 90.5 93.7 93.4
MMLU-Pro (EM) 83.7 81.2 84.8 85.0
GPQA-Diamond (Pass@1) 74.9 68.4 80.1 81.0
LiveCodeBench (Pass@1) 56.4 43.0 74.8 73.3
Aider-Polyglot (Acc.) 68.4 55.1 76.3 71.6
AIME 2024 (Pass@1) 66.3 59.4 93.1 91.4
AIME 2025 (Pass@1) 49.8 51.3 88.4 87.5
HMMT 2025 (Pass@1) 33.5 29.2 84.2 79.4

 

[벤치마크 지표 해설]

  • MMLU-Redux : 여러 학문 분야 문제를 풀어 일반 지식 이해력을 평가하는 지표
  • MMLU-Pro : 난이도를 높인 확장판으로, 복잡한 문제 해결과 심화 지식 활용 능력을 측정
  • GPQA-Diamond : 전문가 수준의 고난도 질문에 답하는 정확한 추론 능력을 평가
  • LiveCodeBench : 실제 코딩 문제를 풀어 프로그래밍 실무 능력을 확인
  • Aider-Polyglot : 여러 프로그래밍 언어를 다루며 다언어 코드 작성 정확도를 평가
  • AIME : 수학 경시대회 문제 기반으로 고급 수학 문제 해결 능력을 검증
  • HMMT : 대학 수준의 수학 문제 풀이를 통해 심화 수학적 추론 능력을 평가

 

 

라이선스

DeepSeek V3.1은 MIT 라이선스로 공개되었습니다. MIT 라이선스는 가장 자유도가 높은 오픈소스 라이선스 중 하나로, 누구나 모델을 자유롭게 사용·수정·배포할 수 있으며 상업적 활용도 가능합니다. 따라서 연구자는 물론 기업에서도 제약 없이 서비스를 개발하거나 제품에 적용할 수 있다는 점이 큰 장점입니다.

DeepSeek V3.1 라이선스 : https://huggingface.co/datasets/choosealicense/licenses/blob/main/markdown/mit.md

 


DeepSeek V3.1 체험

DeepSeek V3.1은 공식 허깅페이스를 통해 공개된 모델입니다. 다만 전체 용량이 약 700GB에 달할 정도로 매우 크기 때문에, 개인용 PC에서 직접 실행하기는 사실상 어렵습니다. 대신 DeepSeek은 자사 플랫폼을 통해 누구나 무료로 이 모델을 체험할 수 있는 환경을 제공하고 있습니다. 현재 플랫폼에서 제공되는 모델은 바로 DeepSeek V3.1이며, 사용자는 질문을 입력해 모델의 성능을 직접 확인할 수 있습니다.

출처: DeepSeek 플랫폼 (클릭시 페이지 이동)

 


 

DeepSeek V3.1은 뛰어난 성능과 효율성을 갖추면서도 오픈소스로 공개되어, AI 활용에 필요한 비용과 진입 장벽을 크게 낮추었습니다. 그 결과 연구자와 개발자는 물론 기업과 일반 사용자까지도 최신 AI 기술에 더욱 쉽게 접근할 수 있게 되었으며, 이는 더 많은 사람들이 AI를 자유롭게 활용할 수 있는 길을 열어주고 있습니다.

 

앞으로 한국에서도 이와 같은 흐름에 발맞추어 다양한 오픈소스 K-AI 모델들이 등장하길 기대합니다.

 

읽어주셔서 감사합니다. 😊

 

반응형