DaramGPT: Knowledge Distillation으로 가벼운 GPT 만들기

책 소개

대규모 모델을 압축하면 원본 모델의 성능은 거의 잃지 않으면서 많은 파라미터 수로 인한 단점들을 해소할 수 있습니다. 이번 연구에서는 Knowledge Distillation 기법을 활용하여 한국어 언어 생성 모델을 작게 압축하는 과정을 다루고자 합니다.

무료로 시작하기
공유하기
카카오로 공유하기
페이스북 공유하기
트위터로 공유하기
url 복사하기
틸노트 사업자 정보
틸노트 | 사업자등록번호: 147-10-02214 | 통신판매업: 2022-서울중랑-1696 | 대표: 문지학 | 개인정보책임자: 문지학
이메일: tilnote@tilnote.io | 전화: 0507-0178-0131
주소: 서울특별시 중랑구 양원역로 92, 104동 702호
틸노트가 직접 판매하는 서비스 외에 크리에이터가 판매하는 경우 틸노트는 통신판매중개자이며, 통신판매의 당사자가 아닙니다. 상품, 상품정보, 거래에 관한 의무와 책임은 거래 당사자 각자에게 있습니다.
본 서비스는 생성형 AI 기술을 활용합니다.
DaramGPT: Knowledge Distillation으로 가벼운 GPT 만들기
DaramGPT: Knowledge Distillation으로 가벼운 GPT 만들기
책 보기