본문 바로가기

AI 소식/오픈소스 AI 모델

KT가 만든 한국어 AI, Midm 2.0 소개 | 오픈소스 AI | 국산 AI

안녕하세요,

최근 국내에서도 AI에 대한 개발 성과가 하나둘씩 모습을 드러내고 있습니다. 카카오의 Kanana, 네이버의 HyperCLOVA에 이어, 이제는 KT에서도 자체 개발한 오픈소스 AI 모델을 공개하며 본격적으로 경쟁에 합류했습니다. 특히 KT가 선보인 믿:음 2.0(Midm 2.0)은 한국어 환경에 최적화된 언어모델로, 국내에서 개발된 만큼 한국어 표현력과 문화적 이해도에 강점을 가지고 있습니다.

이번 글에서는 KT가 공개한 Midm 2.0 모델의 특징과 실제 사용 경험을 중심으로, 해당 모델이 어떤 가능성을 보여주는지 함께 살펴보겠습니다.


반응형

믿:음 2.0 (Mi:dm 2.0) 이란

2025년 7월 3일, 대한민국 대표 통신사인 KT는 자체 개발한 한국형 초거대 언어모델(LLM)인 믿:음 2.0(Mi:dm 2.0)을 공개했습니다. 이 모델은 한국어와 영어를 모두 지원하며, 특히 한국의 문화와 사회적 맥락을 깊이 이해하고 반영할 수 있도록 설계된 것이 가장 큰 특징입니다.

출처: KT 믿:음 2.0 소개페이지 (클릭시 페이지 이동)

 

믿:음 2.0은 총 3가지 버전으로 개발되었으며, 현재 아래 2개 버전은 공개되어 누구나 사용할 수 있습니다.

  • Mi:dm-2.0-Base : 115억 파라미터 규모의 모델로, 범용성과 성능의 균형을 중시한 버전
  • Mi:dm-2.0-Mini : 약 23억 파라미터의 경량화 모델로, 온디바이스 또는 저사양 환경에 적합한 버전

향후, 보다 고성능의 Pro 버전도 공개될 예정입니다.

 

 

주요 특징

  1. 다양한 모델 라인업
    • Mi:dm 2.0 Mini: 약 23억 파라미터 규모, 경량화된 On‑device 실행에 최적화
    • Mi:dm 2.0 Base: 115억 파라미터로 성능과 효율의 균형 추구
    • Mi:dm 2.0 Pro (예정): 410억 파라미터 이상 Frontier급 고성능 모델 준비 중
  2. 한국어에 최적화된 처리
    • 한국어 특화 Tokenizer 적용 : 고유 토크나이저로 한국어 문장의 압축률을 높이고 추론 효율성을 개선
    • 고품질의 한국어 학습 데이터 기반 학습 : 저작권 문제가 없는 한국어 데이터만 사용하여, 문화·사회적 맥락을 반영한 자연스러운 응답 제공
  3. 글로벌 수준 성능 달성
    • 벤치마크 우수성 : Ko‑Sovereign, KMMLU, HAERAE 등 주요 평가에서 국내외 오픈소스 모델보다 뛰어난 성과 기록
    • 국산 AI 반도체 최적화 : 리벨리온(Rivelion)과 협력해 국내 칩 환경에 맞춘 최적화 수행 
  4. 투명하고 안전한 AI
    • AI 윤리·영향평가 체계화 : 국내외 가이드라인 기반으로 전문가 검토를 거친 AI 영향 평가 체계 도입 
    • 유해 정보 필터링 포함 : 욕설이나 비속어 검출 등 안전성을 고려한 필터링 시스템 제공 

 

 

라이선스

믿:음 2.0은 MIT 라이선스로 제공되어 누구나 자유롭게 사용할 수 있습니다. MIT 라이선스는 가장 개방적인 오픈소스 라이선스 중 하나로, 복제, 수정, 배포는 물론 상업적 이용까지 허용됩니다. KT는 기반 모델인 Base와 Mini 버전을 허깅페이스에 공개하였으며, 이를 통해 개발자와 기업은 모델을 자유롭게 활용하고 다양한 서비스에 적용할 수 있습니다.

 

 

모델 활용 가이드

KT가 허깅페이스에 공개한 예제를 활용하여 간단한 사용 테스트를 진행해보겠습니다. 이번 테스트에서는 온디바이스 환경에 최적화된 Midm-2.0-Mini-Instruct 모델을 활용할 예정입니다.

 

[실행 환경]

  • 운영체제 : Windows 11
  • python : 3.10.11
  • torch : 2.6.0+cu126
  • transformers : 4.53.1
  • GPU : NVIDIA GeForce RTX 4060 Ti

 

 

[모델 다운로드]

아래 링크를 통해 KT 허깅페이스에서 Midm-2.0-Mini-Instruct 모델을 다운로드하실 수 있습니다. 아래 이미지에 표시된 파일을 모두 다운로드하여 동일한 디렉토리에 저장합니다.

출처: KT 허깅페이스 (클릭시 이미지 확대)

 

[패키지 설치]

아래 명령어를 통해 해당 모델을 실행하는 데 필요한 패키지를 설치합니다.

# Windows PowerShell
pip install torch==2.6.0 --index-url https://download.pytorch.org/whl/cu126
pip install transformers accelerate

 

[코드 작성]

필요한 패키지 설치가 완료되면, 아래와 같이 모델을 실행하기 위한 코드를 작성합니다.

# Python
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig

model_name = "/Path/to/midm_2.0"  # 사용자 경로에 맞게 수정

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.bfloat16,
    trust_remote_code=True,
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
generation_config = GenerationConfig.from_pretrained(model_name)

prompt = "외국인 관광객에게 소개하듯, 서울에 대해 설명해줘."  # 입력 프롬프트

# message for inference
messages = [
    {"role": "system", 
     "content": "Mi:dm(믿:음)은 KT에서 개발한 AI 기반 어시스턴트이다."},
    {"role": "user", "content": prompt}
]

input_ids = tokenizer.apply_chat_template(
    messages,
    tokenize=True,
    add_generation_prompt=True,
    return_tensors="pt"
)

output = model.generate(
    input_ids.to("cuda"),
    generation_config=generation_config,
    eos_token_id=tokenizer.eos_token_id,
    max_new_tokens=640,
    do_sample=False,
)
print(tokenizer.decode(output[0]))

 

[실행 결과]

모델 준비가 완료되면, 아래 프롬프트를 사용하여 실행을 진행합니다.

  • 입력 프롬프트 : "외국인 관광객에게 소개하듯, 서울에 대해 설명해줘."

Midm-2.0-Mini-Instruct 모델은 약 6.1GB의 VRAM을 사용하였으며, 응답 생성에는 약 30초가 소요되었습니다. 출력된 문장의 분량은 다소 적은 편이었지만, 한국어 표현은 매우 자연스러웠고 문법적인 어색함도 없었습니다. 한국 문화에 대한 설명도 구체적이고 정확하게 전달되었습니다.

다만, 며칠 전 포스팅에서 다뤘던 Gemma 3n 모델과 비교했을 때는 아쉬운 부분이 일부 있었습니다. 유사한 프롬프트로 테스트한 Gemma 3n 모델은 약 8.3GB의 VRAM을 사용하였으며, 20초 내외로 응답을 생성했습니다. 출력된 문장의 분량도 Midm 모델보다 약 두 배 정도 더 많았습니다.

전반적으로 볼 때, Midm-2.0-Mini-Instruct 모델은 한국어에 특화된 강점이 분명하지만, 글로벌 수준의 최신 AI 모델들과 비교하면 아직 개선이 필요할 것으로 보입니다.

Midm-2.0-Mini-Instruct 실행 결과

 


 

Midm-2.0-Mini-Instruct는 한국어와 한국 문화에 특화된 국산 AI 모델로, 비교적 적은 리소스로도 안정적인 결과를 보여준 점이 인상적입니다. 특히 자연스러운 문장 구성과 문화적 맥락에 대한 이해는 한국어 특화 모델로서의 가능성을 충분히 보여주었습니다. 물론, 출력 속도나 응답 분량, 전반적인 퍼포먼스 측면에서는 아직 글로벌 AI 모델과의 격차가 존재하는 것도 사실입니다.

 

앞으로 성능 개선과 고도화가 지속적으로 이루어진다면, 국내 AI 생태계에서 더욱 중요한 역할을 할 수 있으리라 기대됩니다.

 

읽어주셔서 감사합니다. 😊

 

 

반응형