Skip to main content

AgentFlow의 구조와 실제 성능: 다중 에이전트 AI 플래닝 최신 연구 정리

DODOSEE
DODOSEE
Views 67
Summary

AI 클립으로 정리됨

출처 및 참고 : https://www.youtube.com/watch?v=kIQbCQIH1SI

Stanford AgentFlow, 무엇이 달라졌나

최근 공개된 Stanford의 AgentFlow는 기존의 대형 언어 모델(LLM) 방식과 달리, 툴 통합형 멀티 에이전트 시스템을 통해 복잡한 작업 플래닝을 새롭게 접근합니다. 수백억 파라미터를 가진 단일 모델을 쓰던 방식에서 벗어나, 각 역할에 특화된 소형 에이전트(플래너, 실행자, 검증자, 생성자)들이 협력하며 문제를 단계별로 분해하고 해결하도록 구성된 것이 특징입니다. 각 에이전트가 실행 과정의 일부만 책임지며, 전체 과정은 플래너 에이전트가 실시간 상태와 과거 기록을 토대로 주요 전략을 조율하는 형태로 운영됩니다.

이 시스템은 특히 코드 실행, 웹 검색, 위키피디아·구글 서치 등 여러 툴 연동이 자유로우며, 학습이 필요한 부분만 효율적으로 RL 기반으로 최적화할 수 있도록 설계됩니다. 실제 구현은 huggingface spaces의 gradio 데모로 누구나 확인 가능하며, 오픈소스 코드 역시 MIT 라이센스로 공개되어 접근성이 뛰어납니다.

시스템 구조와 동작 원리

AgentFlow의 전체 구조는 크게 네 가지 에이전트(플래너, 실행자, 검증자, 출력 생성자)와 공유 메모리로 이루어져 있습니다.

핵심은 플래너 에이전트로, 현재 툴 목록, 입력 쿼리, 모든 과거 실행 기록, 성공/실패 여부 등의 정보를 기준으로 매 턴마다 "어떤 툴을 활용할지", "각 단계별 목표 설정", "진행 상태 확인" 등 전략적 의사결정을 내립니다. 이 과정에서 플래너만 RL 기반으로 학습되고, 나머지 에이전트들은 파라미터를 고정한 채로 행동합니다. 이러한 설계는 복잡도 증가를 억제함과 동시에, 중요한 의사결정이 집중되는 영역에만 최적화 자원을 사용할 수 있다는 장점이 있습니다.

수행 과정마다 메모리는 실행 로그, 툴 결과, 검증 신호가 순차적으로 기록되며, 이데이터는 나중에 RL reward 계산 시 활용됩니다.

Flow-GPO: 최적화 기법의 차별점과 결과

AgentFlow의 RL 학습 핵심은 Flow-GPO(Group Policy Optimization) 방식입니다. 기존 RL에서 흔히 발생하는 중간 단계별 reward 설계의 어려움을 줄이기 위해, 최종 결과물만을 매 step별 reward로 전파하는 구조가 적용됩니다. 즉, 여러 단계에 걸친 reasoning의 성패가 결과적으로 올바른 답을 만들어냈으면, 그 과정상의 모든 조합된 액션에 동일하게 높은 reward를 부여하고, 실패 시에는 전체에 마이너스 reward가 주어집니다.

이 방식은 크리딧 할당 문제(credit assignment problem)를 단순화하여, 복잡한 작업도 그룹 단위로 성과를 평가할 수 있습니다. 추가로, Run별로 reward를 비교하는 그룹 정규화 어드밴티지 계산까지 적용하여, 다양한 롤아웃과 결과의 상대적 우수성까지 반영합니다.

실제 성능 벤치마크에서는 비슷한 파라미터의 순수 LLM 대비 2~3배 가까운 정답률을 보여줬으며, 복잡한 검색, 툴 연동이 필요한 과제에서 특히 강세를 보였습니다. 예를 들면 GPD4 Omni 모델이 13%의 정답률을 기록한 AIM24 작업에서, AgentFlow는 40%까지 정답률을 높였습니다.

실제 데모와 사례로 본 적용 과정

직접 제공된 gradio 데모에서는 인상적인 실험 데이터가 확인됩니다. 인터넷 검색, 서드파티 API 활용 등 복수의 툴을 단계적으로 호출하면서, 각 단계 결과에 따라 다음 액션과 쿼리를 동적으로 재설정합니다. 예를 들어 "in context learning이 어떻게 LLM의 기존 파라미터 지식을 덮는가?" 같은 질문을 순차적으로 쪼개어, 관련 논문 검색-최근 연구 탐색-기술적 메커니즘 분석으로 이어지는 플래닝을 구현합니다.

하지만 모든 과정이 완벽하진 않습니다. 복잡한 질의의 경우 최종 결과물이 기대한 깊이나 디테일에 미치지 못하거나, 단순 '왜'라는 물음에 충분히 구조적인 답변이 도출되지 않는 상황도 관찰됩니다. 이는 최적화 reward 구성 방식에서 발생하는 한계점과도 연관이 있습니다.

AgentFlow의 제한점과 현실적 고려 사항

AgentFlow가 단일 LLM 방식 대비 분명한 성능 향상과 확장성을 제공하는 것은 명확합니다. 그러나 최종 결과에만 한정된 Reward 분배 구조는 주요 한계로 지적됩니다. 실제 복잡한 업무에서는 성공한 액션과 실패한 액션이 혼재한 경우가 많은데, Flow-GPO는 이런 구간별 우수/실패 포인트를 세밀하게 구분하지 못합니다. 예를 들어 10단계 중 8단계까진 성공적으로 추론했고 마지막 2단계에서만 실수했더라도 전체 시퀀스가 실패로 처리됩니다.

또, 각 단계별로 발생할 수 있는 'aha 순간'(핵심 전환점)을 현 reward 구조에서는 동일한 비중으로 취급하는 문제가 있습니다. 즉, 실질적으로 중요한 크리티컬 동작과 단순 중간 처리 사이의 구분이 불분명하다는 점입니다.

추가적으로, 플래너의 reward 평가 자체가 또다른 LLM(즉, 심판 역할)을 기반으로 이루어지기 때문에, 심판 LLM의 오류나 Hallucination이 전체 AgentFlow의 성능을 저하시킬 위험도 존재합니다. 그리고 복잡한 장기 reasoning에서는 단순 reward 분배 구조의 약점이 더 크게 드러날 수 있으며, 확장성은 확인되었으나 초고난도 작업에서의 신뢰성은 아직 미지수입니다.

누구에게 적합하며, 현실적으로 효과는 어떨까

AgentFlow의 멀티에이전트 구조와 플로우 기반 최적화는 툴 연동성과 작업 분해가 중요한 반복형 업무에서 그 진가를 발휘할 수 있습니다. 특히 여러 외부 리소스나 정보 검색이 병행되어야 하는 케이스, 또는 전략적 플래닝이 필요한 태스크에서는 기존 LLM을 단일 엔진으로 쓰는 방식 대비 높은 성공률과 효율을 기대할 수 있습니다.

그러나 작업의 난이도가 높아질수록, 각 단계별 적절한 평가와 reward 분배가 필요합니다. 현재 구조상, 장기적 reasoning이나 크리티컬한 '핵심 포인트' 추출이 중요한 프로젝트에서는 세심한 튜닝과 추가적인 평가 방안이 필요해 보입니다. 또한, 시스템 전체의 성능은 사용되는 judgement용 LLM의 신뢰성과 해상력에 따라 달라질 수 있어, 현업 적용 전에는 각 단계별 성능 테스트와 오류 검증이 필수일 것입니다.

복잡도가 낮은 표준화된 작업에서는 빠른 적용과 시간 절약이 기대되지만, 초고난도 추론·직관이 요구되는 상황에서는 loss of precision이 실제 성과를 제한할 수 있습니다. 결국 AgentFlow는 반복적, 구조화된 정보 처리에서 효율적인 도구가 될 수 있으며, 충분한 데모 활용과 실제 업무 맞춤 검증이 뒷받침돼야 그 가치가 극대화될 것으로 판단됩니다.

출처 및 참고 :

이 노트는 요약·비평·학습 목적으로 작성되었습니다. 저작권 문의가 있으시면 에서 알려주세요.