MIT 연구팀, 인간처럼 유연하게 사고하는 AI 개발 방법 공개

인공지능이 실생활에서 더 똑똑해지려면 단순한 원칙만 따르지 않고, 사람처럼 상황에 따라 융통성 있게 사고해야 한다고 합니다. 최근 MIT 슬론 경영대학원 연구팀이 공개한 연구에서는 AI가 인간의 '예외적 사고방식'과 의사 결정의 이유를 배우면 더 실제같은 판단을 내릴 수 있다고 밝혔죠. 이 글에서는 대형언어모델(LLM)에게 유연성을 가르치는 최신 방법과 실험 결과, 그리고 앞으로 인공지능이 어떻게 우리에게 더 도움이 될지 살펴봅니다.
인간과 AI의 결정 방식, 무엇이 다를까?
예를 들어, “친구 생일 케이크를 만들려고 10달러 이하로 밀가루를 사달라”고 AI에게 부탁한다고 해봅시다. 밀가루 가격이 딱 10.01달러라면, AI는 규칙을 기계적으로 적용해서 구매를 거부합니다. 반면 사람은 1센트 차이는 무시하고 친구의 생일을 더 중요하게 생각하죠. 이런 예외적 판단에서 인간과 AI의 차이가 극명하게 드러납니다. 실제 실험에서도 사람 중 92%가 케이크를 만들기 위해 구매를 선택했습니다.
AI 상담 서비스와 산업 활용, 융통성은 왜 중요한가?
만약 고객 상담 AI가 딱딱하게 규칙만 따진다면, 실제 상황에서 신뢰를 잃기 쉽습니다. 특히 의료 등 중요한 분야에서는 원칙만 고수하는 AI가 오히려 심각한 문제를 일으킬 수 있죠. 질병, 응급 상황처럼 복합적인 결정을 내려야 할 때 인간 특유의 판단력이 꼭 필요합니다. 즉, AI가 사람처럼 맥락을 파악하고 예외를 융통성 있게 처리해야 진정한 도움이 된다는 뜻입니다.
MIT가 시도한 AI 융통성 강화 방법 3가지
MIT 연구진은 AI에게 융통성을 심어주기 위한 세 가지 접근법을 테스트했습니다.
윤리적 프레임워크 프롬프트: “윤리적으로 생각해보라”는 지시를 내리지만, 실제로는 효과가 거의 없었습니다.
사고 사슬(CoT) 추론: 의사 결정 과정을 단계별로 설명하도록 유도하면 약간 개선됐으나, 근본적 문제는 그대로였습니다.
지도 미세조정(SFT): 인간이 직접 예외적 판단과 이유를 설명해주는 방식으로 학습시키자, AI의 판단 능력이 가장 많이 향상됐습니다.
실험에는 GPT-4o, 라마3 등 다양한 LLM이 활용됐지만, 역시 ‘설명 중심 미세조정’이 가장 뛰어났습니다.
설명 학습, AI 판단력 향상에 핵심 되다
MIT 팀이 밝혀낸 결정적인 비밀은 ‘결과뿐 아니라 이유까지 학습한다’는 점입니다. 단순히 ‘구매한다/안 한다’를 외우는 것이 아니라, 인간이 선택한 이유와 예외적 상황을 최소 50가지 이상 설명하도록 AI를 세밀하게 미세조정 하면, 새로운 상황에서도 유사한 판단을 내릴 확률이 70% 이상까지 높아졌습니다. 이를 통해 AI가 예전엔 경험하지 못한 다양한 맥락에서도 사람과 비슷하게 행동할 수 있게 된 것이죠.
앞으로의 전망: 더 인간다운 AI
앞으로 AI가 실생활에서 효과적으로 사람을 돕기 위해서는 무엇보다도 ‘인간 중심’의 접근이 필수입니다. 기술의 발전 자체보다, 인간의 사고방식과 윤리, 상황 판단을 적극적으로 흡수하여 문제를 해결하는 에이전트 AI가 요구되는 시대입니다.
결국, 미래의 AI는 복잡한 현실 문제를 단순 규칙이 아닌 인간적인 이해와 융통성으로 파악하고 해결할 수 있어야 할 것입니다. 이를 위해선 지속적인 설명 중심 학습과 예외 처리 능력 강화가 핵심임을 이번 MIT 연구는 다시 한 번 보여주고 있습니다.
현실과 사람을 진정으로 이해하는 AI, 그 미래는 이미 조금씩 가까워지고 있습니다.