본문 바로가기

AI 소식/유용한 AI 도구

GPT-5급 성능의 오픈소스 추론 모델, 메이투안 LongCat-Flash 소개

안녕하세요,

최근 중국의 대표적인 테크 기업 메이투안(Meituan)이 차세대 프론티어급 모델인 GPT-5에 견줄 만한 새로운 AI 추론 모델을 공개하였습니다. 이 모델은 LongCat-Flash 시리즈로, 단순한 언어 생성 능력을 넘어 수학, 논리, 프로그래밍, 정형 증명 등 복잡한 추론 과제까지 처리할 수 있는 강력한 성능을 지니고 있습니다. 더욱 주목할 점은 이 모델이 오픈소스로 공개되어 연구자와 개발자뿐 아니라 누구나 직접 사용해볼 수 있다는 것입니다.

이번 글에서는 LongCat-Flash 모델의 개요와 주요 특징, 그리고 벤치마크 성능과 활용 가능성에 대해 살펴보겠습니다.


반응형

LongCat-Flash 모델이란

최근 중국 음식 배달 서비스 분야 1위 기업인 메이투안(Meituan)이 자체 개발한 대규모 언어모델 LongCat-Flash 시리즈를 오픈소스로 공개하였습니다. LongCat-Flash거대 추론 모델(Large Reasoning Model, LRM) 계열에 속하는 모델로, 5600억(560B) 파라미터 규모의 Mixture-of-Experts(MoE) 구조를 기반으로 설계되었습니다.

이 모델은 단순한 언어 생성 능력을 넘어 수학, 논리, 프로그래밍, 정형 증명, 도구 활용 등 복잡한 추론 과제를 수행할 수 있도록 개발되었습니다. 특히 형식 추론(Formal Reasoning)과 에이전트 기반 추론(Agentic Reasoning) 능력이 강화되어, 이론적 문제 해결과 실제 도구 활용 상황 모두에서 안정적인 성능을 발휘합니다.

 

 

meituan-longcat (LongCat)

 

huggingface.co

 

[모델 정보 요약]

항목 모델명
버전 LongCat-Flash-chat LongCat-Flash-Thinking
파라미터 수 성 파라미터 18.6B∼31.3B (평균 약 27B) / 전체 파라미터 562B
개발사 Meituan
아키텍처 Mixture-of-Experts 구조
학습 프레임워크 DORA 기반 비동기 분산 학습 DORA 기반 비동기 분산 학습 + 도메인 병렬 강화학습
특징 대화 및 일반 질의응답에 최적화된 버전 복잡한 추론, 수학 문제 해결, 프로그래밍, 정형 증명, 도구 활용 능력 강화
라이선스 MIT 라이선스 MIT 라이선스
모델 경로
(허깅페이스)
https://huggingface.co/meituan-longcat/LongCat-Flash-Chat/tree/main https://huggingface.co/meituan-longcat/LongCat-Flash-Thinking/tree/main

 

 

주요 특징

  • 거대 추론 모델(LRM) 계열 : 단순한 언어 생성 능력을 넘어 수학, 논리, 프로그래밍, 정형 증명, 도구 활용 등 복잡한 추론 과제까지 수행할 수 있도록 설계되었습니다.
  • 5600억 파라미터 규모의 Mixture-of-Experts 구조 : 전체 파라미터는 560B에 달하지만, 실제 추론 시에는 입력의 복잡도에 따라 18.6B~31.3B 정도만 활성화되어 효율성과 성능을 동시에 확보하였습니다.
  • 형식 추론(Formal Reasoning) 강화 : 수학 문제 풀이, 정형 증명(Automatic Theorem Proving)과 같은 고난도 논리 과제에서 안정적인 성능을 발휘할 수 있도록 설계되었습니다.
  • 에이전트 기반 추론(Agentic Reasoning) 지원 : 외부 도구나 API를 활용해 문제 해결 과정을 확장할 수 있으며, 복잡한 시나리오에서도 유연한 대응이 가능합니다.
  • DORA 학습 프레임워크 적용 : 비동기 분산 학습을 지원하는 DORA(Distributed Orchestration for Asynchronous Rollout) 시스템을 기반으로 대규모 학습을 효율적이고 안정적으로 수행하였습니다.
  • 도메인 병렬 강화학습 : 수학, 과학, 코딩, 에이전트 활용 등 다양한 도메인에서 균형 잡힌 성능을 확보하기 위해 병렬 학습 전략을 적용하였습니다.

 

 

벤치마크 성능

LongCat-Flash-Thinking 모델은 GPT-5, Gemini2.5-Pro 등 현재 프론티어급 모델들과 견주어도 손색없는 성능을 보여주고 있습니다. 특히 수학과 추론 영역에서 강점을 보이며, 아래는 메이투안(Meituan)이 허깅페이스를 통해 공개한 주요 벤치마크 성능 일부입니다.

항목 LongCat-Flash-Thinking GPT-5-Thinking Gemini2.5-Pro
MMLU-Pro (정확도) 82.6 84.5 86.7
MMLU-Redux (정확도) 89.3 92.6 90.1
IFEval (정렬성, strict prompt) 86.9 92.8 92.4
수학 (MATH500) 99.2 99.2 98.0
AIME24 93.3 92.0 91.6
GPQA-Diamond 81.5 84.4 84.0
LiveCodeBench (코딩) 79.4 80.6 74.2
Agentic Tool Using (BFCL V3) 74.4 60.1 63.2
  • MMLU-Pro : 다양한 분야 언어·추론 평가
  • MMLU-Redux : 최신 난도 높은 지식·일반화 평가
  • IFEval : 지시문 이행 정확도 평가
  • MATH500 : 고난도 수학 문제 해결 평가
  • AIME24 : 수학 올림피아드 수준 문제 평가
  • GPQA-Diamond : 과학·지식 기반 추론 평가
  • LiveCodeBench : 코드 작성·디버깅 평가
  • BFCL V3 : 외부 도구 활용 능력 평가
출처
LongCat-Flash-Thinking 허깅페이스 : https://huggingface.co/meituan-longcat/LongCat-Flash-Thinking

 

 

라이선스

LongCat-Flash-Thinking 모델은 MIT 라이선스로 공개되어 있습니다. 이는 가장 개방적이고 활용 범위가 넓은 라이선스 중 하나로, 연구 목적은 물론 상업적 사용까지 자유롭게 허용됩니다. 단순히 라이선스 고지와 출처 표기만 지키면 누구나 제약 없이 모델을 수정·배포할 수 있으며, 기업과 개인 개발자 모두 실제 제품 개발이나 상용 서비스에 직접 적용할 수 있습니다. 이러한 점은 LongCat-Flash-Thinking이 단순한 연구용 모델을 넘어, 산업 현장과 상업적 생태계 전반에서 폭넓게 활용될 수 있는 기반을 마련해 준다고 할 수 있습니다.

 

 

간단히 사용해보기

LongCat-Flash 모델은 현재 허깅페이스를 통해 오픈소스로 공개되어 있어 직접 다운로드하여 다양한 환경에서 활용할 수 있습니다. 또한 별도의 설치 과정 없이 바로 체험해보고 싶다면, 메이투안에서 운영하는 “LongCat AI” 플랫폼을 통해 로그인 절차 없이 무료로 사용해볼 수 있습니다. 연구자나 개발자는 허깅페이스 모델을 기반으로 실험과 응용을 진행할 수 있고, 일반 사용자 역시 웹 플랫폼에서 간단히 접속하여 모델의 성능을 직접 체감할 수 있다는 점이 큰 장점입니다.

 

출처: LongCat 허깅페이스 및 AI 플랫폼

 

 

Qwen3-Omni-30B-A3B는 텍스트, 오디오, 이미지, 비디오를 모두 아우르는 멀티모달 AI 모델로, 명령 수행부터 복잡한 추론, 오디오 이해와 캡셔닝까지 폭넓은 기능을 제공합니다. 오픈소스로 공개되어 상업적 활용이 가능하며, 연구·개발·서비스 구축 등 다양한 영역에서 활용할 잠재력을 지니고 있습니다.

 

앞으로 Qwen 팀이 선보일 차세대 멀티모달 모델과 기능 확장이 더욱 기대되며, 이러한 발전이 다양한 프로젝트와 서비스 혁신으로 이어질 것으로 보입니다.

 

감사합니다. 😊

 

반응형