마이크로소프트 리서치는 LLMs에 지식을 주입하는 새로운 방법을 개발했습니다.
- Microsoft Research는 언어 모델(LLM)에 외부 지식을 더 효율적으로 포함시키는 방식인 KBLaM(Knowledge Base-Augmented Language Models)을 개발함.
- KBLaM은 플러그 앤 플레이 접근 방식을 채택하여 기존 모델을 수정할 필요 없이 지식을 통합함.
- KBLaM은 외부 검색 시스템을 사용하지 않고 지식을 벡터 쌍으로 변환하여 모델의 아키텍처에 직접 삽입함.
- 기존의 RAG 시스템은 자기 주의 메커니즘으로 인해 자원이 많이 소모되지만, KBLaM은 입력된 지식이 서로 상호 작용하지 않도록 설계되어 자원이 선형적으로 증가함.
- 단일 GPU로도 KBLaM은 약 200,000 토큰(10,000 지식 항목)을 처리할 수 있음.
- 초기 테스트 결과, KBLaM은 전통적인 모델보다 헛소리 방지와 정보 부족 시 대답 거부 성능이 우수함.
- KBLaM은 특정 지식과 토큰을 연결할 수 있어 투명성도 향상됨.
- KBLaM의 코드와 데이터셋은 GitHub에 공개되어 있으며 Llama-3, Phi-3 등 여러 모델을 지원함.
- Microsoft는 이 방법이 대규모로 사용되기 위해서는 추가 연구가 필요함을 강조함.
- LLM의 문맥창이 커지면서 더 많은 정보를 처리 가능하지만, 신뢰성 있는 데이터 처리가 여전히 도전 과제임.
- KBLaM은 RAG의 대안으로 더 효율적인 방법이 될 수 있음을 시사함.
5the-decoder.com링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.