안녕하세요,
AI 기반 이미지 편집 도구를 찾고 계신가요? FLUX.1 Kontext Dev는 텍스트와 이미지 입력을 동시에 이해하고, 고도의 맥락 인식을 통해 정확하고 정교한 이미지 편집을 실현하는 오픈소스 멀티모달 모델입니다. 특히 로컬 환경에서도 실행 가능한 구조로, 누구나 고성능 AI 이미지 편집 기능을 직접 실험하고 활용할 수 있는 강력한 도구로 주목받고 있습니다. 이번 포스팅을 통해 FLUX.1 Kontext Dev 모델의 핵심 기능부터 사용 방법에 대해 알아보겠습니다.
Flux.1 Kontext Dev란?
FLUX.1 Kontext Dev는 Black Forest Labs에서 개발한 오픈 소스 멀티모달 이미지 편집 모델입니다. 120억 개의 매개변수를 가진 이 모델은 텍스트와 이미지를 동시에 입력받아, 이미지의 맥락을 지능적으로 이해하고, 반복적인 편집 작업에서도 문자, 레이아웃, 캐릭터의 일관성을 안정적으로 유지합니다.
기존의 고성능 이미지 편집 모델은 대부분 클로즈드 API 형태로 제공되어 왔지만, FLUX.1 Kontext Dev는 로컬 소비자용 하드웨어에서 직접 실행 가능하도록 설계되어, 누구나 소비자 수준에서도 상용급 편집 성능을 경험할 수 있습니다.
- Black Forest Labs 공식 뉴스 : https://bfl.ai/announcements/flux-1-kontext-dev
[제공 버전 안내]
FLUX.1 Kontext는 용도에 따라 다음 세 가지 버전으로 제공됩니다.
- [Pro]: 고속 반복 편집에 최적화된 상업용 API 버전
- [Max]: 프롬프트 해석 능력이 더욱 강화된 실험용 버전
- [Dev]: 120억 매개변수 규모의 오픈 소스 버전으로, 연구자 및 고급 사용자 대상. 비상업적(NC) 라이선스 하에 배포되며, 로컬 환경에서 직접 실행 가능
이번 포스팅에서는 이 중 [Dev] 버전에 대해 자세히 살펴보고, 사용 방법까지 함께 소개하겠습니다.
주요 특징
- 오픈 웨이트 배포 : FLUX.1 Kontext Dev는 FLUX.1 Non‑Commercial License 하에, 연구 및 개인 비상업적 용도로 완전 무료 공개되어 있어, 기술 혁신에 기여합니다.
- 기능 집중 편집 모델 : 특정 요소에 대한 로컬·글로벌 편집을 고속·정밀하게 수행하며, 여러 장의 반복 편집에서도 캐릭터 및 객체 일관성이 뛰어납니다.
- 벤치마크 기반 검증 : 자체 개발한 KontextBench 데이터셋을 통해 Bytedance Bagel, HiDream-E1-Full(오픈), Google Gemini-Flash(클로즈드) 대비 우수한 성능 평가를 받았습니다. 인디펜던트 기관인 Artificial Analysis에서도 동일한 우위를 확인했습니다.
- 최신 하드웨어 최적화 : NVIDIA Blackwell 아키텍처를 위한 TensorRT 최적화 가중치 (BF16, FP8, FP4 지원)를 제공하여, 성능과 메모리 효율을 극대화했습니다.
- 활발한 연구 지원 : arXiv 기술 보고서와 GitHub 코드 리포지터리, HuggingFace 모델, API 문서, 그리고 상업 라이선스 페이지·헬프데스크 등을 통해 풍부한 리소스가 제공됩니다.
라이선스
FLUX.1 Kontext [Dev]는 비상업적인 용도로만 사용할 수 있는 오픈 소스 이미지 편집 모델입니다. 이 모델은 개인적인 학습, 연구, 실험 등 상업적 이익을 목적으로 하지 않는 활동에 한해 자유롭게 사용할 수 있습니다.
사용자는 이 모델을 로컬 컴퓨터에 설치하여 직접 실행할 수 있으며, 자신만의 파생 모델을 만들고 보관하는 것도 허용됩니다. 또한, 이를 기반으로 개인 애플리케이션에 통합해 최종 사용자에게 결과를 보여주는 것도 가능합니다. 단, 모든 사용은 상업적인 목적이 아닌 경우에만 허용됩니다.
이 모델을 활용하여 생성한 이미지나 결과물 역시 상업적으로 사용할 수 없습니다. 예를 들어, 생성된 이미지를 유료 콘텐츠(굿즈, 책, 광고 등)에 사용하거나, 웹사이트나 앱을 통해 유료로 제공하는 것은 허용되지 않습니다. 또한, 모델 자체나 파생 모델을 다른 사람에게 공유하거나 재배포하는 것도 금지되어 있습니다.
※ FLUX.1 Kontext Dev 라이선스 : https://bfl.ai/legal/self-hosted-commercial-license-terms
사전 준비 사항
이 포스팅은 ComfyUI에서 FLUX.1 Kontext[dev] 모델을 활용하여 이미지 수정 방법에 대한 내용입니다. 본문을 읽기 전에 아래 항목들을 미리 설치해 주시기 바랍니다.
[Stabiliy Matrix&ComfyUI 설치하기] (포스팅에서 사용한 방식)
- ComfyUI 설치: [Marcus' Story] - [ComfyUI] 초보자도 쉽게 따라하는 Stability Matrix 활용하기
- ComfyUI-Manager 설치: [Marcus' Story] - [ComfyUI] Stability Matrix에 ComfyUI-Manager 설치하기
[로컬에 직접 ComfyUI 설치하기]
- ComfyUI 설치: [Marcus' Story] - [ComfyUI] [로컬 환경] ComfyUI 로컬 환경에 설치 및 실행 방법
- ComfyUI-Manager 설치: [Marcus' Story] - [ComfyUI] [로컬 환경] ComfyUI 관리 도구, ComfyUI-Manager 설치하기
목차
1. 실행 환경
2. ComfyUI 사용 노드
3. 다운로드 및 위치 설정
4. 이미지 수정 및 결과 확인
1. 실행 환경
- 운영체제 : Windows 11
- ComfyUI : 0.3.43
- ComfyUI-Manager : V3.30
- torch : 2.7.0 + cu128
- GPU : NVIDIA GeForce RTX 4060 Ti
2. ComfyUI 사용 노드
이번 포스팅에서는 별도로 다운로드해야 할 커스텀 노드 없이 진행됩니다. 하지만 ComfyUI를 최신 버전으로 업데이트하는 것이 중요합니다. 최신 버전으로 업데이트하면 모델과의 호환성을 극대화할 수 있으며, 성능 개선 및 버그 수정을 통해 최적의 결과를 얻을 수 있습니다.
- Stability Matrix를 사용하는 경우 → Stability Matrix 화면에서 "Update" 버튼을 클릭하여 간편하게 업데이트할 수 있습니다.
- ComfyUI를 로컬에 설치한 경우 → ComfyUI-Manager에서 "Update ComfyUI" 버튼을 눌러 최신 버전으로 업데이트하세요.
3. 다운로드 및 위치 설정
1) ComfyUI Workflow
FLUX.1 Kontext Dev 커스텀 워크플로우는 아래 절차에 따라 실행할 수 있습니다.
- ComfyUI를 실행합니다.
- 왼쪽 상단 메뉴에서 "Workflow" → "Browse Templates"로 이동합니다.
- 왼쪽 템플릿 탭에서 Flux를 선택한 뒤, "Flux Kontext Dev (Basic)" 워크플로우를 실행합니다.
이제 기본 편집 워크플로우가 로드되며, 바로 편집을 시작할 수 있습니다.
2) 모델 파일 다운로드
아래의 허깅페이스에서 모델 파일을 다운로드합니다. 특히, Text Encoder 모델의 경우에는 아래에 표시된 두 개의 파일을 모두 다운로드해야 합니다.
모델 종류 | 파일명 | 허깅페이스 주소 |
diffusion 모델 |
flux1-dev-kontext_fp8_scaled.safetensors
|
https://huggingface.co/Comfy-Org/flux1-kontext-dev_ComfyUI/tree/main/split_files/diffusion_models |
text_encoder 모델 | clip_l.safetensors / t5xxl_fp16.safetensors |
https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main |
vae 모델 | as.safetensors | https://huggingface.co/Comfy-Org/Lumina_Image_2.0_Repackaged/tree/main/split_files/vae |
3) 모델 위치 이동
모델 다운로드가 완료되면, 아래와 같이 지정된 폴더 구조에 맞게 파일을 이동해 줍니다.
📂 ComfyUI/
├──📂 models/
│ ├── 📂 diffusion_models/
│ │ └─── flux1-dev-kontext_fp8_scaled.safetensors
│ ├── 📂 text_encoders/
│ │ ├─── clip_l.safetensors /
| | └─── t5xxl_fp16.safetensors
│ └── 📂 vae/
│ └── as.safetensors
모든 모델 파일을 다운로드하셨다면, 위와 같은 폴더 구조에 맞춰 각 파일을 옮겨줍니다. 만약 StabilityMatrix를 통해 ComfyUI를 실행 중이라면, [StabilityMatrix → Data → Packages] 경로 내부에서 ComfyUI 폴더 위치를 먼저 확인한 후, 동일하게 위 폴더 구조로 파일을 배치하시면 됩니다.
4. 이미지 수정 및 결과 확인
이번에는 FLUX.1 Kontext Dev 모델을 사용해 이미지 수정 작업을 테스트해보았습니다. 아래와 같이 텍스트 프롬프트를 입력하여 이미지의 특정 요소를 변경하는 방식으로 진행했습니다.
[입력 프롬프트]
- Create a cinematic, moody portrait of a young girl standing in the rain at night. Change the umbrella to a vibrant red one, Keep her **facial features, hairstyle, and expression** unchanged. Preserve the **natural lighting, soft depth of field, and consistent color tones**.
해당 작업에는 약 14GB의 VRAM이 사용되었으며, 이미지 생성에는 약 90~100초가 소요되었습니다. 모델은 프롬프트를 정확히 반영하여, 소녀의 외형과 분위기는 그대로 유지한 채 우산만 선명한 빨간색으로 자연스럽게 수정해주었습니다.
아래는 결과 비교 이미지입니다.
FLUX.1 Kontext Dev 모델은 두 장의 이미지에서 각각의 객체(인물 등)를 추출한 뒤, 이를 하나의 장면으로 자연스럽게 병합할 수 있습니다. 아래와 같이 두 장의 이미지를 준비하고, 이를 통합하는 프롬프트를 입력하여 테스트를 진행했습니다.
[입력 프롬프트]
- Place both characters together in one scene where they are hugging
이번 작업 역시 약 14GB의 VRAM이 사용되었고, 이미지 생성에는 90~100초 정도 소요되었습니다. 모델은 각 입력 이미지에 등장하는 인물을 개별적으로 인식 및 추출한 후, 두 인물이 서로 포옹하고 있는 하나의 장면으로 병합된 이미지를 생성해주었습니다. 결과 이미지 속 인물은 원본과 약간의 차이를 보이긴 했지만, 전반적으로 자연스럽고 일관된 스타일로 통합되어 우수한 결과를 보여주었습니다.
아래는 입력 이미지와 최종 생성 이미지입니다.
FLUX.1 Kontext Dev는 단순한 이미지 생성 모델을 넘어, 맥락 이해와 정밀한 편집 능력을 겸비한 고성능 멀티모달 이미지 편집 도구입니다. 텍스트와 이미지 입력을 결합해 다양한 창작 작업을 수행할 수 있으며, 반복된 수정에도 스타일과 구조의 일관성을 유지하는 점이 특히 인상적이었습니다.
이번 테스트를 통해 확인한 바와 같이, 약 14GB의 VRAM과 1분 내외의 시간만으로도 매우 높은 퀄리티의 이미지를 정확하게 생성해냅니다. 빠른 속도와 높은 완성도, 그리고 사용자 의도를 정밀하게 반영하는 능력까지 갖춘 FLUX.1 Kontext Dev는 이미지 편집 모델 중에서도 독보적인 성능을 보여줍니다.
다만 한 가지 아쉬운 점은, 해당 모델과 이를 통해 생성한 이미지 모두 상업적 목적으로 사용할 수 없다는 제한입니다. 훌륭한 결과물을 상업 콘텐츠로 활용하고 싶은 크리에이터 입장에서는 다소 아쉬울 수밖에 없습니다.
그럼에도 불구하고, 비상업적 연구·학습·개인 창작을 위한 용도로는 더없이 뛰어난 선택지임은 분명합니다. 고품질 이미지 편집을 로컬 환경에서 자유롭게 실험해보고 싶은 분들께 FLUX.1 Kontext Dev를 적극 추천드립니다.
감사합니다. 😊