현재 LLMs의 한계를 극복하기
- 대형 언어 모델(LLM)은 현재 인기를 끌고 있지만 심각한 한계를 가지고 있음
- 이러한 한계로는 환각(Hallucination), 신뢰도 추정 결여, 출처 부재 등이 있음
- 환각은 LLM이 실제로 근거가 없거나 사실과 다른 내용을 생성하는 현상
- 신뢰도 추정은 예측에 신뢰도 점수를 부여하는 것으로, 이는 사실성을 평가하는 데 유용함
- 상업적 제품에서 신뢰도 점수를 거의 보지 못했는데, 이는 높은 신뢰도 점수가 틀린 답변보다 나쁜 결과를 초래할 수 있기 때문일 수 있음
- OpenAI에서 발표한 모델들이 신뢰도를 단어로 표현하도록 하는 연구가 있음
- 출처는 텍스트가 기반하고 있는 자료원으로, RAG 기법을 통해 관련 문서를 찾아 쿼리에 추가해서 인용하는 방식으로 달성 가능함
- 더 나은 LLM 챗봇은 이들 세 가지 한계를 모두 극복해야 함
- 환각 문제는 가장 해결하기 어려운 문제임
- 훈련 데이터의 모순점 발견: LLM은 훈련 데이터 내의 논리적 일관성을 스스로 검사할 수 없으나, 입력 문맥에서는 가능
- 일관성 있는 LLM 부트스트래핑: 모순되는 훈련 데이터를 배제하고 훈련 과정을 감독
- MIT 연구진이 유사한 접근 방식을 시도함
- 수작업으로 고품질의 일관성 있는 텍스트 코퍼스를 제작하여 이를 기반으로 기본 LLM 훈련
- 기본 모델을 사용하여 새로운 텍스트 문서를 일관성 여부로 분류하고, 일관성 있는 문서로 훈련 데이터를 점진적으로 확장
- 극단적으로 다른 세계관을 반영하는 여러 모델을 훈련할 가능성도 있음
- 일관성 있는 데이터 부트스트래핑 접근에 대한 연구 필요성 강조
- 참고 자료: 다양한 논문 및 연구 링크 제공
5seanpedersen.github.io링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.