검색
검색
노트 검색
회원가입로그인

OpenAI GPT-3.5 Turbo 파인튜닝 API 기능 출시

OpenAI에서 드디어 GPT-3.5 Turbo의 파인튜닝 API를 공개했습니다. 기존에는 GPT-3 기본 모델만 가능했었습니다. (ada, babbage, curie)

얼리 어답터들은 파인튜닝을 통해 조종 가능성, 포맷의 일관된 출력, 맞춤화된 톤 등을 달성할 수 있었다고 합니다. 또 프롬프트를 많이 절약한 사례도 있었다고 하네요.

파인튜닝은 데이터셋 준비, 파인튜닝, 파인튜닝된 모델 사용의 순서로 이루어 집니다.

데이터 준비에 있어서는 채팅 형식으로 데이터를 제공할 수 가 있네요.

{
  "messages": [
    { "role": "system", "content": "You are an assistant that occasionally misspells words" },
    { "role": "user", "content": "Tell me a story." },
    { "role": "assistant", "content": "One day a student went to schoool." }
  ]
}

파인튜닝할 때는 다음과 같이 모델명을 명시해서 훈련을 시킬 수 있습니다.

curl https://api.openai.com/v1/fine_tuning/jobs 
-H "Content-Type: application/json" 
-H "Authorization: Bearer $OPENAI_API_KEY" 
-d '
  "training_file": "TRAINING_FILE_ID",
  "model": "gpt-3.5-turbo-0613",
}'

gpt-3.5-turbo-0613이 보이네요!

그 후에는 파인튜닝된 모델을 사용하면 됩니다. 비용은 다음과 같습니다.

Training: $0.008 / 1K Tokens
Usage input: $0.012 / 1K Tokens
Usage output: $0.016 / 1K Tokens

기본의 GPT-3.5 Turbo 모델과 비교해 보면 아직은 비용이 많이 나가는 편이네요.

GPT-3.5 Turbo 4K context	
Usage input: $0.0015 / 1K tokens	
Usage output: $0.002 / 1K tokens

8배 정도 차이 나네요. 회사에 따라 저렴하다고 생각하는 경우도 있으니 필요성에 따라서 판단하시면 될 것 같습니다.

그 외에 기본 모델은 지원 중단되지만 babbage-002 와 davinci-002 는 대체재로 가능하다고 합니다.

아마 프롬프트 엔지니어링이나 RAG를 사용한 후 정말 더 최적화시키고 싶을 때 파인튜닝을 사용하지 않을까 싶습니다. 파인튜닝 자체가 데이터 준비도 그렇고 리소스가 많이 들어가는 일이니깐요.

그래도 약속대로 파인튜닝 모델을 개선하는 중입니다. GPT-4의 파인튜닝은 가을쯤에야 공개된다고 합니다.

참고 : GPT-3.5 Turbo fine-tuning and API updates (OpenAI 공식 블로그)

파인튜닝 기술 가이드 : OpenAI Platform

공유하기
url 복사하기
카카오로 공유하기
트위터로 공유하기
페이스북 공유하기