본문 바로가기

Ollama

로컬 언어 모델의 시작, Ollama를 소개합니다.

 안녕하세요. 챗GPT의 등장 이후로 다양한 생성 AI 모델들이 개발되어 왔습니다. 초기에는 대규모 언어 모델(LLM)이 주를 이루었지만, 지금은 개인도 손쉽게 다룰 수 있는 소형 언어 모델(SLM)이 중심 트렌드로 자리 잡고 있습니다. 이는 AI 모델이 더 이상 대기업의 전유물이 아니며, 개인 개발자들에게도 접근 가능하게 되었다는 중요한 변화를 의미합니다. 여러분께 이러한 변화의 한 축을 담당하는 'Ollama', 소형 언어 모델을 쉽게 만들 수 있도록 돕는 AI 도구를 소개하겠습니다.

 


반응형

 

1. Ollama란

 'Ollama'는 대규모 언어 모델을 로컬 컴퓨터에서 설정하고 실행할 수 있게 해주는 고급 AI 도구입니다. 이는 AI 기술의 민주화에 있어 중요한 발전으로, 사용자가 Llama 3나 gemma와 같은 언어 모델을 직접 활용할 수 있는 가능성을 제공합니다. 개발자, 연구자, 데이터 과학자에게 필수적인 다양한 자연어 처리(NLP) 애플리케이션에서 중요한 역할을 하는 'Ollama'는 가볍고 확장 가능한 프레임워크로, 복잡한 클라우드 기반 솔루션에 의존하지 않고도 모델의 기능을 로컬에서 직접 활용할 수 있도록 합니다. 이 도구는 언어 모델을 생성, 실행, 관리할 수 있는 간단한 API와 사전 구축된 모델 라이브러리를 제공하여 애플리케이션에 쉽게 통합할 수 있습니다. Ollama를 사용하면 Modelfile을 통해 모델 가중치, 구성, 데이터를 패키징하고 GPU 사용 등의 설정을 최적화할 수 있습니다.

 

 

2. Ollama 장점

  • 로컬 실행: 대규모 언어 모델의 로컬 실행 가능, 사용자에게 빠르고 효율적인 AI 처리 기능 제공
  • 다양한 모델 지원: (Meta)Llama3 , (Mcrosoft)Phi-3 , (Google)Gemma , mixtral, mistral ...
  • 모델 커스터마이징: 자신만의 모델을 자유롭게 커스터마이징하고 제작 가능
  • 사용자 친화적인 인터페이스: 도구의 디자인은 사용 편의성을 보장하여 빠르고 번거롭지 않은 설정 가능
  • 다양한 시스템 환경 호환성: macOS, Windows, Linux 지원

 

 

3. Ollama 설치

Ollama 공식 사이트에서 설치파일 다운이 가능합니다.

Ollama 다운로드 페이지

 

 Ollama는 macOS, Windows, Linux를 포함한 다양한 운영체제에서 사용할 수 있습니다. 여러분의 운영체제에 맞는 버전을 다운로드하여 설치해 주세요. 설치가 완료되면 터미널 창을 통해 바로 사용하실 수 있습니다.

 

 

4. 실행 명령어

Ollama terminal 기초 명령어
ollama 명령어 실행
ollama serve ollama 시작
ollama pull [model] [model] 설치
ollama run [model] [model] 실행
ollama list 모델 리스트 출력
ollama rm [model] [model] 삭제
/bye [model] 실행 종료
/? 도움말 출력
/show info 현재 실행 모델 정보 출력
/load [model] [model] 불러오기
/save [model] [model] 저장하기

 

기타 명령어
netstat -aon 현재 실행중인 TCP 리스트 출력
kill -9 [PID] [PID] 서버 닫기

 

- 대괄호 [   ] : 예시 단어 (입력 시 상황에 맞게 수정해야합니다.)

 

 

5. 로컬 AI 모델 실행 예시

 Ollama를 설치하신 후, 사용하실 AI 모델을 별도로 다운로드하셔야 합니다. 예를 들어, Ollama에서 지원하는 모델 중 하나인 'Llama3'을 설치하여 사용해 보겠습니다.

 

처음에는 ollama list 명령어를 사용하여 현재 설치된 AI 모델을 확인합니다. 만약 'Llama3' 모델이 없다면 ollama run llama3 명령을 통해 'Llama3' 모델을 다운로드하고 실행할 수 있습니다. 다운로드가 완료되면, 프롬프트에 메시지를 입력하라는 안내를 받게 됩니다.

llama3 모델 다운로드 중
llama3 모델 다운 완료 후 실행

 

 

"hi llama"라는 간단한 메시지를 입력하면, Llama3 모델이 정상 작동하는지 확인할 수 있습니다.  

"hi llama"에 대한 응답

 

이것으로 로컬 환경에서 Llama3 모델이 잘 작동함을 알 수 있습니다.

 

 

Ollama는 다양한 AI 모델을 지원합니다. 아래 이미지에는 Ollama가 제공하는 모델들 중 일부가 나열되어 있습니다. 더 많은 모델을 알고 싶으시다면 Ollama 라이브러리에서 상세히 살펴보실 수 있습니다.

Ollama GitHub (이미지 클릭 시 해당 페이지로 이동)

 

 


728x90

 

 

 챗GPT의 등장 이후 생성 AI 모델이 대중화되고 있습니다. 이제 개인도 쉽게 사용할 수 있는 소형 언어 모델(SLM)을 개발할 수 있는 시대가 왔습니다. 'Ollama'는 이러한 패러다임 전환의 중심에 있는 도구로, 복잡한 클라우드 서비스 없이도 우리의 로컬 환경에서 강력한 언어 모델을 직접 운영할 수 있게 해 줍니다. 사용자 친화적인 인터페이스로 여러분의 개별 요구에 맞춰 모델을 커스터마이징하고, macOS부터 Windows, Linux까지 다양한 시스템에서 구동할 수 있습니다. 이처럼 'Ollama'는 개인 개발자들에게 열린 AI의 문을 넓혀주고 있으며, 우리 모두가 AI의 혜택을 누릴 수 있는 토대를 마련해 주고 있습니다. AI 기술의 진보를 몸소 체험하고 싶은 분들에게 'Ollama'는 훌륭한 선택이 될 것입니다.

 

 

 

 

 

출처

 

Ollama

Get up and running with large language models.

ollama.com