LLM 워크플로우를 위한 도구 선택 최적화와 미분 가능 프로그래밍

  • 현대적인 에이전트 아키텍처는 LLM 호출을 연결하는 방식에 크게 의존하고 있습니다.
  • LLM을 사용하여 도구를 선택하고 호출하며 결과를 해석하고 최종 응답을 생성하는 구조입니다.
  • 이 구조는 이해하기 쉽고 프로토타입을 만들기에 간단하며 일반화가 잘 되지만, 확장할 때는 성능이 저하됩니다.
  • 각 LLM 호출은 지연, 비용, 토큰 오버헤드를 초래하며, 문맥을 계속 추가해가는 부담을 야기합니다.
  • LLM 대신 학습 가능한 함수로 결정을 모델링하는 것이 좋습니다.
  • 차이점은 아키텍처적으로 로컬 실행 가능하고, 결정적이며, 파이프라인에 자연스럽게 통합되고, 도구 선택이 설명 가능하다는 것입니다.
  • 차등 컨트롤러는 데이터를 통해 도구 선택을 학습하며, 외부 LLM 호출 없이 운영됩니다.
  • 토큰화된 텍스트를 입력으로 받고 도구에 대한 소프트맥스 분포를 출력합니다.
  • 기존 로그에서 데이터를 얻거나 GPT로 합성 데이터를 생성하여 학습할 수 있습니다.
  • 컨트롤러 학습에는 Adam 옵티마이저를 사용합니다.
  • LLM 기반 계획자는 문맥 팽창이라는 숨겨진 페널티가 있으며, 쓸데없는 토큰을 반복적으로 보내고 문맥길이가 너무 길어질 위험이 있습니다.
  • 차등 라우터는 대역 외에서 완전히 작동하여 명확한 모델 호출을 복원합니다.
  • 차등 라우팅은 선언적 제어 논리를 생성적 추론과 분리하는 추세를 반영합니다.
  • LLM은 생성과 합성에 집중하고 경량 신경 모듈은 라우팅, 오케스트레이션 및 제어를 처리합니다.
  • 결과적으로 더 모듈화되고 검토 가능하며 확장 가능한 아키텍처를 제공합니다.
  • 차등 컨트롤러는 비용을 절약하고 성능을 개선하며 모델 행동을 명확히 합니다.
  • 초기 단계 워크플로우에서 LLM 라우팅은 구현이 빠르고 확장이 용이하지만, 구조적으로 비효율적입니다.
  • 차등 컨트롤러는 큰 절약을 제공하지만 도구 체인이 복잡해질수록 경제적, 아키텍처적으로 효율적이지 않습니다.

4viksit.substack.com링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.
원본 뉴스 보기