본문 바로가기

AI 소식/오픈소스 AI 모델

국산 오픈소스 AI 모델 A.X 3.1 출시! SKT가 만든 한국어 특화 LLM

안녕하세요,

국내에서도 한국어에 특화된 고성능 AI 모델 개발이 활발히 이루어지고 있는 가운데, SK텔레콤이 자사 언어모델 시리즈인 A.X(A.DotX)의 최신 버전인 A.X 3.1을 공개했습니다. 이 모델은 경량 구조임에도 불구하고 한국어 처리 성능에서 매우 우수한 평가를 받고 있어 많은 관심을 모으고 있습니다.

이번 글에서는 A.X 3.1의 주요 특징과 성능 지표를 살펴보고, 직접 로컬에서 사용하는 방법에 대해 알아보겠습니다.


반응형

에이닷X 3.1란

최근 SK텔레콤은 자체 개발한 대규모 언어모델(LLM) ‘에이닷X 3.1(A.X 3.1)’을 공개하며, 국산 AI 기술의 새로운 가능성을 제시했습니다. 이전까지 SK텔레콤은 외부 모델(Qwen 2.5)을 기반으로 재학습한 형태의 모델을 활용해왔으나, 이번에 공개된 에이닷X 3.1은 모델 설계부터 데이터 수집, 학습, 인프라 구축까지 모든 과정을 SK텔레콤이 직접 수행한 완전한 독자 모델이라는 점에서 큰 의미가 있습니다.

 

 

SKT, 독자 구축 LLM 에이닷 엑스 3.1 선보여 | SK텔레콤 뉴스룸

– 11일, 오픈소스 커뮤니티 허깅페이스 통해 ‘A.X 3.1 라이트’ 모델 전격 공개 – 다양한 사양의 모바일 기기에서 최적의 서비스 품질 구현 가능한 경량 모델 – 순수 자체개발 A.X 3 모델과

news.sktelecom.com

 

 

주요 특징

  1. 완전한 자체 개발 모델 : 모델 설계부터 데이터 수집, 학습, 인프라 운영까지 모든 과정을 SK텔레콤이 독자적으로 수행한 국산 LLM입니다. 외부 기술에 의존하지 않고, 자체 슈퍼컴퓨터 ‘TITAN’에서 학습을 진행했습니다.

  2. 한국어에 특화된 성능
    • KMMLU(한국어 언어이해): 61.7점
    • KoBALT-700(한국어 고급 언어): 27.43점
    • CLIcK(한국 문화·언어 이해): 71.22점
      동일 규모의 다른 모델보다 한국어 성능에서 우위를 보이는 결과를 기록했습니다.
  3. 높은 효율성과 경량화
    • 70억 개 파라미터 기반 경량 모델로, 모바일 등 저사양 환경에서도 사용 가능
    • GPT-4o 대비 약 67% 적은 토큰 사용으로 같은 입력을 처리할 수 있어 비용과 연산 효율 모두 우수
  4. 긴 문맥 이해 능력 : 최대 32,768토큰까지 처리 가능한 긴 컨텍스트 창을 지원하여, 긴 문서나 대화도 자연스럽게 이해하고 이어갈 수 있습니다.

 

 

A.X 3.1 Light 성능 비교

현재 " A.X 3.1 Light" 모델이 허깅페이스에서 벤치마크 성능이 공개되었습니다. 이 내용을 분석해보자면, A.X 3.1 Light는 한국어에 특화된 성능을 중심으로 주요 오픈소스 모델들과 비교해 우수한 평가를 받고 있습니다.

 

한국어 이해 능력을 평가하는 대표적인 지표인 KMMLU에서 A.X 3.1 Light는 61.70점을 기록하였으며, 동일한 규모의 국산 경량 모델 중에서 가장 뛰어난 성과를 보였습니다. 한국 문화와 언어에 대한 이해도를 측정하는 CLIcK에서는 71.22점을 받아 비교된 모델 가운데 가장 높은 점수를 나타냈습니다. 또한, 고급 수준의 한국어 문장을 처리하는 능력을 평가하는 KoBALT 지표에서는 27.43점을 기록하여, 한국어 특화 성능 면에서 뚜렷한 강점을 확인할 수 있습니다.

 

전반적인 지식과 문제 해결 능력을 평가하는 MMLU 항목에서는 66.95점을 기록하였습니다. 이 점수는 대형 모델인 Qwen3-8B보다는 낮은 수준이지만, Qwen2.5-7B나 EXAONE-3.5-7.8B와 같은 동급 모델과 비교했을 때는 충분히 경쟁력 있는 수치로 볼 수 있습니다. 한국어 기반의 대화 품질을 평가하는 Ko-MT-Bench에서는 78.56점을 기록하여, EXAONE에 이어 높은 수준을 유지하고 있습니다.

 

이러한 결과를 종합적으로 볼 때, A.X 3.1 Light는 한국어 특화 성능에서 가장 우수한 경량 모델 중 하나로 평가되며, 전체적인 벤치마크 결과에서도 7B 모델 범주에서 균형 잡힌 성능을 갖춘 모델로 판단할 수 있습니다.

출처: A.X-3.1-Light 허깅페이스 (클릭시 페이지 이동)

 

 

라이선스

A.X 3.1 Light는 아파치 2.0(Apache License 2.0) 라이선스로 공개된 오픈소스 언어모델입니다. 이 라이선스는 상업적 이용이 가능하며, 사용자가 모델을 자유롭게 수정하거나 재배포할 수 있도록 허용합니다. 사용 시 별도의 비용이 발생하지 않으며, 코드 또는 모델을 활용해 파생 제품을 만들어 배포하는 것도 가능합니다. 다만, 배포 시에는 원저작자에 대한 저작권 고지 및 라이선스 전문을 포함해야 하며, 변경 사항이 있을 경우 이를 명시해야 합니다.

 

 

모델 활용 가이드

A.X-3.1-Light 허깅페이스에 공개된 예제를 활용하여 간단한 사용 테스트를 진행해보겠습니다.

 

[실행 환경]

  • 운영체제 : Windows 11
  • python : 3.10.11
  • torch : 2.6.0+cu126
  • transformers : 4.53.1
  • GPU : NVIDIA GeForce RTX 4060 Ti

 

 

[모델 다운로드]

아래 SKT 허깅페이스에서 A.X-3.1-Light 모델을 다운로드하실 수 있습니다. 아래 이미지에 표시된 파일을 모두 다운로드하여 동일한 디렉토리에 저장합니다.

출처: SKT 허깅페이스 (클릭시 이미지 확대)

 

[패키지 설치]

아래 명령어를 통해 해당 모델을 실행하는 데 필요한 패키지를 설치합니다.

# Windows PowerShell
pip install torch==2.6.0 --index-url https://download.pytorch.org/whl/cu126
pip install transformers accelerate

 

[코드 작성]

필요한 패키지 설치가 완료되면, 아래와 같이 모델을 실행하기 위한 코드를 작성합니다.

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "E:/ai_model/skt/a.x-3.1-light"  # 사용자 환경에 맞게 수정

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.bfloat16,
    device_map="auto",
)
model.eval()
tokenizer = AutoTokenizer.from_pretrained(model_name)

messages = [
    {"role": "system", "content": "당신은 사용자가 제공하는 영어 문장들을 한국어로 번역하는 AI 전문가입니다."},
    {
        "role": "user", 
        "content": "Yesterday, I woke up early and made myself a cup of coffee. I sat by the window and watched the sun rise, enjoying the peaceful morning. Then, I decided to go for a short walk in the park near my house. It was a lovely start to the day."
    },  # content에 사용자 프롬프트 입력
]
input_ids = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt").to(model.device)

with torch.no_grad():
    output = model.generate(
        input_ids,
        max_new_tokens=128,
        do_sample=False,
    )

len_input_prompt = len(input_ids[0])
response = tokenizer.decode(output[0][len_input_prompt:], skip_special_tokens=True)
print(response)

 

[실행 결과]

한국어 성능에 특화된 모델인 만큼, 이번에는 영어 문장을 번역하는 기능을 테스트해보았습니다. 비교를 위해 LLM인 Gemini-2.5-flash 모델을 함께 활용하여 동일한 프롬프트에 대한 번역 결과를 살펴보았습니다. 물론 대규모 모델인 Gemini-2.5-flash가 번역 성능에서는 우수할 것으로 예상되지만, A.X-3.1-Light는 70억 파라미터 수준의 경량 모델이라는 점을 감안하여 비교해보시길 바랍니다.

구분 입력 프롬프트 A.X-3.1-Light Gemini-2.5-flash
일상적인 문장 1 Yesterday, I woke up early and made myself a cup of coffee. I sat by the window and watched the sun rise, enjoying the peaceful morning. Then, I decided to go for a short walk in the park near my house. It was a lovely start to the day. 어제 일찍 일어나서 커피를 만들었어요. 창가에 앉아 해가 떠오르는 걸 바라보며 평화로운 아침을 즐겼습니다. 그 후, 집 근처 공원으로 짧은 산책을 나갔어요. 정말 좋은 하루의 시작이었어요. 어제 저는 일찍 일어나서 커피를 한 잔 만들었어요. 창가에 앉아 해가 뜨는 것을 보며 평화로운 아침을 즐겼죠. 그러고 나서 집 근처 공원으로 짧게 산책을 다녀오기로 했어요. 정말 기분 좋은 하루의 시작이었답니다.
일상적인 문장 2 This morning, I initiated my day with a comprehensive review of the pending tasks on my agenda. Subsequently, I allocated dedicated time for strategic planning, prioritizing high-impact initiatives. This structured approach facilitates optimized workflow and ensures maximum productivity throughout the operational hours. 오늘 아침, 저는 제 일정에 있는 미처리 작업들을 종합적으로 검토하는 것으로 하루를 시작했습니다. 그 후, 전략적 계획을 위해 시간을 따로 할애하여 높은 영향력을 가진 프로젝트들을 우선순위에 두었습니다. 이러한 체계적인 접근 방식은 작업 흐름을 최적화하고, 운영 시간 동안 최대한의 생산성을 보장합니다. 오늘 아침, 저는 보류 중인 안건들을 포괄적으로 검토하며 하루를 시작했습니다. 이어서, 저는 전략적 계획 수립을 위한 시간을 할애하여, 영향력이 큰 주요 업무들을 우선순위로 정했습니다. 이러한 체계적인 접근 방식은 업무 흐름을 최적화하고 운영 시간 동안 최고의 생산성을 보장합니다.
시적인
표현
The first light of dawn gently kissed the sleeping world, painting the sky with hues of rose and gold. A soft breeze, like a forgotten melody, whispered through the trees, carrying secrets from distant dreams. The morning dew, strung like tiny pearls on every blade of grass, shimmered with the promise of a new day. 새벽의 첫 빛이 잠자는 세계를 살며시 어루만지며, 하늘을 장미색과 금빛의 색조로 물들이었다. 마치 잊혀진 멜로디처럼 부드러운 바람이 나무 사이로 스치며, 먼 꿈들의 비밀을 실어 나르고 있었다. 아침 이슬이 잔디 위에 작은 진주처럼 매달려, 새로운 날의 희망을 반짝이고 있었다. 새벽의 첫 빛은 잠든 세상을 부드럽게 어루만지며, 하늘을 장밋빛과 금빛으로 물들였습니다. 잊힌 멜로디처럼 부드러운 바람이 나무들 사이를 속삭이며, 머나먼 꿈의 비밀을 실어 날랐습니다. 풀잎마다 작은 진주처럼 맺힌 아침 이슬은 새로운 날의 약속과 함께 반짝였습니다.
전공 지식 It is important to appreciate that the interpretation of mathematical probability as a measure of plausibility, that is as a 'degree of belief', is not the only way of conceptualizing probability. Indeed, in mathematics probability theory is usually developed axiomatically, starting with the rules of probability as 'given'. Probability theory can also be developed from a 'frequentist' point of view, with probabilities interpreted as the fraction of events for which a particular proposition is true in series of cases over time, or within a collection or population of cases. 수학적 확률을 '가능성' 또는 '신념의 정도'로 해석하는 것은 확률을 이해하는 여러 방법 중 하나일 뿐입니다. 실제로, 수학에서 확률 이론은 주로 공리적으로 발전됩니다. 즉, 확률의 기본 규칙들이 '주어진' 것으로 간주되어 시작됩니다. 또한, 확률은 '빈도주의' 관점에서도 해석될 수 있습니다. 이 관점에서는 확률이 특정 명제가 참인 사건의 비율을 나타내며, 이는 시간이 지남에 따라 또는 특정 집단이나 모집단 내에서 반복적으로 관찰된 사건의 빈도로 이해됩니다. 수학적 확률을 개연성, 즉 '믿음의 정도'로 해석하는 것이 확률을 개념화하는 유일한 방법이 아니라는 점을 이해하는 것이 중요합니다. 실제로 수학에서 확률론은 일반적으로 공리적(axiomatic)으로 발전하며, 확률의 규칙을 '주어진 것'으로 시작합니다. 확률론은 또한 '빈도주의적(frequentist)' 관점에서도 발전할 수 있는데, 이 경우 확률은 시간 경과에 따른 일련의 사례나 사례들의 집합 또는 모집단 내에서 특정 명제가 참인 사건의 비율로 해석됩니다.

 

모델을 실행하는 데에는 약 14~15GB의 VRAM이 사용되었으며, 응답 생성 시간은 평균적으로 10초 내외였습니다. 전체적인 시스템 반응 속도와 자원 사용량 측면에서도 가벼운 모델로서 준수한 성능을 보였습니다.

 

번역 품질 면에서는, 특히 일상적인 문장에서 원문의 의미를 비교적 정확하게 전달하며 직관적이고 기능적인 번역 결과를 보여줍니다. 이러한 특징은 시적인 표현이나 전공 지식처럼 더 복잡한 문장을 번역할 때 뚜렷히 드러납니다. 시적인 문장에서는 일부 표현이 다소 딱딱하거나 부자연스럽게 느껴질 수 있으며, 전공 지식 문장의 경우 핵심 개념은 잘 전달되지만 문장 구조나 어휘 선택이 평면적으로 다가올 수 있습니다.

 

그럼에도 불구하고, 해당 모델이 온디바이스 환경을 고려한 경량 모델이라는 점을 감안하면, 전반적인 번역 정확도와 품질은 충분히 우수한 수준이라고 생각됩니다.


 

A.X-3.1-Light 모델은 경량 구조임에도 불구하고, 한국어에 최적화된 정확도 높은 번역 성능과 온디바이스 환경에 적합한 경량 설계 등 여러 강점을 바탕으로 인상적인 성능을 보여주었습니다.

이러한 성과는 SK텔레콤을 비롯한 국내 기업들의 언어모델 기술력이 빠르게 고도화되고 있음을 보여주는 좋은 사례라 할 수 있습니다. 앞으로도 A.X-3.1-Light와 같은 모델이 다양한 산업 현장에서 실질적으로 활용될 수 있을 것으로 기대되며, 국내 기업들이 글로벌 AI 경쟁 속에서 기술적 주도권을 더욱 강화해 나가기를 기대합니다.

 

감사합니다. 😊

 

반응형