새로운 방법은 교육 없이 언어 모델을 조정합니다.
- Sakana AI가 텍스트 설명만으로 대형 언어 모델을 새로운 작업에 적응시키는 Text-to-LoRA(T2L) 방법을 소개했습니다.
- LoRA(Low-Rank Adaptation)는 기존의 대형 언어 모델에 작은 저랭크 행렬을 삽입하여 수백만 개의 매개변수만 조정함으로써 효율적인 적응을 가능하게 합니다.
- 일반적인 새로운 작업에서는 자체 교육 데이터와 세심하게 조정된 하이퍼파라미터가 필요하지만, T2L은 이러한 단계를 자동화합니다.
- T2L 시스템은 Super Natural Instructions 데이터셋의 479개 작업을 기반으로 하이퍼네트워크를 사용하여 작업 설명과 적절한 LoRA 설정을 연결함으로써 새로운 작업에 대한 로라 가중치를 한 단계로 생성합니다.
- T2L에는 세 가지 변형이 있습니다: T2L-L(5500만 매개변수), T2L-M(3400만 매개변수), T2L-S(500만 매개변수).
- 연구팀은 T2L을 재구성 훈련과 목표 작업에 직접 훈련하는 감독된 미세 조정(SFT) 두 가지 접근 방식으로 비교했습니다.
- SFT 모델은 재구성 모델보다 더 높은 성능을 보였으며, 비슷한 작업을 더 효과적으로 그룹화할 수 있어 평균 66.3%의 참조 벤치마크를 달성했습니다.
- 가장 잘 수행하는 T2L 모델은 10개의 표준 벤치마크 테스트에서 평균 성능 67.7%를 기록했으며, 8개의 벤치마크에서는 74.0%를 기록하여 작업별 LoRA 어댑터보다 약간 낮았습니다.
- T2L은 보지 못한 새로운 작업에 대한 적응이 가능하며, 다중 작업 LoRA 기반과 기타 방법보다 더 뛰어난 성능을 발휘합니다.
- T2L는 특정한 작업 설명이 성능에 긍정적 영향을 미치며, 일반적인 설명은 성능을 저하시키는 경향이 있습니다.
- T2L는 기존 미세 조정보다 컴퓨팅 작업을 4배 이상 절약하며, 특정 작업의 교육 데이터를 필요로 하지 않습니다. 모델은 Llama-3.1-8B 및 Gemma-2-2B와 함께 신뢰성 있게 작동합니다.
- T2L의 한계는 프롬프트 표현에 민감하며, 복잡한 작업에서는 전문적인 LoRA 어댑터보다 뒤처질 수 있지만, 자동화된 모델 적응 방법으로 강력한 진전을 보여줍니다. GitHub에 코드와 설치 지침이 있습니다.
4the-decoder.com링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.