안녕하세요
이번 글에서는 Gemma AI모델을 만드는 방법에 대해 알아보겠습니다.
Gemma AI모델은 구글에서 오픈소스로 공개한 AI모델 중 하나입니다. Gemma에 대해 더 알고 싶으시다면 아래 포스팅 글을 참고하시기 바랍니다.
준비물
1. Kaggle ID (사이트 주소 : https://www.kaggle.com/)
- 구글은 Gemma의 오픈 소스를 "Kaggle"이라는 사이트를 통해 공유했습니다. 따라서 해당 사이트를 이용하기 위해서는
Kaggle 아이디가 필요합니다.
2. Google ID (사이트 주소 : https://www.google.com/)
- Gemma 모델을 실행시킬 프로그램으로는 구글 코랩을 사용하였습니다.
환경설정
1. Kaggle API 키 생성
1) Kaggle 사이트 접속 후 로그인
2) 우측 상단 프로필 사진 클릭 (왼쪽 사진 빨간색 원) -> Settings 클릭 (오른쪽 사진 빨간색 원)
3) API 생성버튼 (Create New Token) 클릭
API 생성버튼(Create New Token)을 클릭하고 나면 "kaggle.json" 파일이 다운됩니다. 이 파일을 메모장으로 실행시켜주면 생성된 API 키를 확인할 수 있습니다.
2. 구글 코랩 환경설정
1) 구글 코랩에 접속 (https://colab.research.google.com/)
- 구글 코랩은 로그인해야 사용 가능합니다.
2) 새 노트 생성
구글 코랩 (Colab)은 Colaboratory의 약어로 Google 리서치팀에서 개발한 제품입니다. 코랩을 사용하면 누구나 브라우저를 통해 임의의 Python 코드를 작성하고 실행할 수 있습니다.
3) 코랩 환경변수 설정
코랩 노트 왼쪽 열쇠 모양 버튼(빨간색 원) 클릭 -> 값(파란색 원)에 "kaggle.json" 파일에서 확인한 username과 key 입력
코랩 환경설정을 위해 아래 코드 입력 후 실행(Ctrl + Enter)
import os
from google.colab import userdata
os.environ["KAGGLE_USERNAME"] = userdata.get('KAGGLE_USERNAME')
os.environ["KAGGLE_KEY"] = userdata.get('KAGGLE_KEY')
4) 코랩 GPU 선택
무료로 이용할 수 있는 GPU 버전인 T4 GPU를 선택합니다. 설정 방법은 수정 -> 노트설정 -> T4 GPU 선택 후 저장해주 시면 됩니다.
5) keras 라이브러리 설치
아래 코드를 코랩에 입력 후 실행
!pip install -q -U keras>=3
!pip install -q -U keras-nlp
6) 백엔드 설정
아래 코드를 코랩에 입력 후 실행
import os
os.environ["KERAS_BACKEND"] = "jax" # Or "tensorflow" or "torch".
Keras는 단순성과 사용 편의성을 위해 설계된 높은 수준의 다중 프레임워크 딥 러닝 API입니다. Keras 3에서는 TensorFlow, JAX, PyTorch 등 백엔드를 선택할 수 있습니다.
3. Gemma 모델 생성
아래 코드를 코랩에 입력 후 실행
import keras
import keras_nlp
gemma_lm = keras_nlp.models.GemmaCausalLM.from_preset("gemma_2b_en")
"gemma_lm"이라는 변수명으로 Gemma 모델을 생성했습니다. 해당 모델에 질문을 하고 싶은 경우 generate 메서드를 사용하여 질문을 입력하면 됩니다.
아래는 예시 코드 입니다.
삶이 무엇이냐는 질문에 대한 답변을 받은 내용입니다. 그에 대해 어느 정도 답변을 해주는 모습을 볼 수 있습니다.
현재 Gemma는 영어만 지원이 되고 있습니다. 그리고 코랩 무료버전을 사용해서 그런지 간단한 질문에도 답변받는데 2분 정도가 걸리더군요. 구글에서 Gemma 모델을 미세조정하는 방법도 알려주는데 다음 포스팅 글에서 자세히 다뤄보도록 하겠습니다.
감사합니다.
'AI 소식 > 오픈소스 AI 모델' 카테고리의 다른 글
[이미지 생성 AI] Stable Diffusion 로컬 환경에서 사용하기 (0) | 2024.06.14 |
---|---|
오픈소스 EEVE 모델 로컬환경에서 실행하기 3탄 (RemoteRunnable / Streamlit) (0) | 2024.05.28 |
오픈소스 EEVE 모델 로컬환경에서 실행하기 2탄 (LangChain / LangServe / ngrok) (0) | 2024.05.17 |
Google의 AI모델, Gemma (0) | 2024.03.05 |
구글의 AI, Gemini 1.5 (2) | 2024.02.27 |