Skip to main content
page thumbnail

AI는 동물이 아닌 '유령'을 만드는 일? Andrej Karpathy가 본 에이전트의 미래와 한계

DODOSEE
DODOSEE
Views 28
Summary

AI 클립으로 정리됨

출처 및 참고 : https://www.youtube.com/watch?v=lXUZvyajciY

Generated image인공지능은 어디까지 인간과 닮아갈 수 있을까요? 오늘은 AI 연구자인 Andrej Karpathy와의 인터뷰를 바탕으로, AI의 본질, '에이전트' 시대의 도래, 인간 지능과 AI의 결정적 차이, 그리고 실제 개발자의 시선이 담긴 생생한 이야기를 풀어보려 합니다. AI가 동물이 아니라 '유령'을 만드는 일이라는 그의 비유, 어디까지 공감하시나요?

에이전트의 시대는 왜 '1년'이 아니라 '10년'일까?

AI 업계에는 '올해는 에이전트의 해!'라는 과장이 종종 나옵니다. 하지만 Karpathy는 "이건 앞으로 10년을 투자해야 제대로 구현될 프로젝트"라고 강조합니다. 현재 AI 모델들은 분명 놀라운 발전을 보여주고 있지만, 실제로 우리가 일상에서 함께 일할 수 있는 직원이나 인턴 수준의 '에이전트'가 되려면 여러 기술적 과제를 넘어야 합니다. 부족한 점은 많죠—기억을 지속하지 못하고, 멀티모달 처리도 제한적이며, 컴퓨터 환경을 능숙하게 사용하지도 못합니다. 결국 에이전트의 진정한 도약은 긴 시간과 꾸준한 개선이 필요하다는 뜻입니다.

AI 발전의 세 단계를 지나며—'예측'이 항상 맞지 않았던 이유

Karpathy는 AI 현장에서 약 15년을 보내며 여러 혁신적 변화를 목격했지만, 예상은 자주 빗나갔다고 회상합니다. 초기에는 이미지 분류, 번역 등 '특정 작업'에 집중한 신경망이 핵심이었고, 2013년경 강화학습을 통한 에이전트(게임 플레이어) 연구가 붐을 일었습니다. 하지만 게임에서 얻는 방식은 실제 지능을 키우는 데 한계가 컸고, 데이터가 희박한 환경에서는 기대만큼의 성장을 이루지 못했습니다.

결정적으로, 최근의 진짜 진보는 '대형 언어 모델(LLM)'의 등장으로 AI가 복잡한 환경에 대응할 수 있는 표현력을 얻으면서 시작됐습니다. 즉, 에이전트 완성 기술에만 매달리기보단, 먼저 풍부한 표현 능력을 키우고 이를 바탕으로 실세계 문제를 풀 수 있도록 발전시킨 것이 정답이었습니다.

인간과 AI—'동물'이 아니라 '유령'을 만들고 있다?

Richard Sutton이 주장하는 "AI는 더 많은 동물적 학습능력을 지향해야 한다"는 생각에 Karpathy는 선을 긋습니다. 동물은 진화를 통해 각기 복잡한 하드웨어(뇌, 신경 구조)를 내장하여 태어난 후 방향 없이 세상에 던져집니다. 얼룩말 새끼가 태어나 몇 분 만에 달리는 것처럼, 그 능력은 '강화학습'의 반복이 아니라 DNA 차원의 준비입니다.

반면, AI는 인간 데이터를 모방해 학습하며 인터넷에 기록된 인간의 언어와 행동을 '모방'해 디지털 엔티티를 만듭니다. 그래서 Karpathy는 AI가 동물 같은 존재라기보다 '유령'이나 '영혼' 같은 상태에 더 가깝다고 비유합니다. 이 디지털 유령은 실질적 진화가 아니라, "모방"과 "데이터의 축적"에서 출발합니다.

LLM의 작동 방식—기억, 망각, 그리고 한계

AI의 '기억'은 인간과 구조적으로 다릅니다. LLM은 15조 토큰 이상의 빅데이터로부터 몇십억 개 파라미터를 가진 신경망에 지식을 압축해 저장합니다. 이렇게 훈련된 모델은 과거의 정보는 '흐릿하게' 기억할 뿐이고, 실제로 대화나 작업 중에는 입력된 내용(컨텍스트 윈도우)만 '즉각적 작업 기억'으로 삼습니다.

Karpathy는 이 모습을 인간의 장기 기억과 작업 기억에 비유합니다. 인간 역시 하루 동안 순간순간 쌓은 정보는 수면 중 특정 기억만을 선택적으로 저장하고 대부분을 잊는데, LLM에는 그런 '지식의 증류' 시스템이 존재하지 않습니다. 그래서 진짜 '연속 학습'(Continual Learning)과 장기 기억을 구현하는 것까지는 아직 먼 여정입니다.

AI와 인간 지능의 결정적 차이—'강화학습의 문제점'

현대 AI의 대표적인 학습법인 강화학습(RL)은 최종 답이 맞으면 그 과정을 모두 높게 평가하는 방식입니다. 그러나 이 방식은 '노이즈가 많고 오답 경로까지 따라가게 만드는' 치명적 단점이 있습니다. 인간은 문제를 풀고 난 뒤 스스로 어떤 과정이 중요했는지 세심하게 검토하고, 잘못했던 부분을 반성하며 '학습'합니다. 현재의 AI는 이런 '리뷰'와 '반성'이 없어, 발전의 bottleneck이 되고 있습니다.

최근엔 중간 과정을 평가하는 '프로세스 기반 감독(Process-based supervision)' 방식도 모색되고 있습니다. LLM을 판정자로 삼아 학습 결과를 평가하지만, 판정 모델이 이상 사례(dhdhdhdh 등)에 속아 잘못된 평가를 내리는 등 아직 갈 길이 멉니다.

AI 개발 현장—코딩 에이전트의 한계와 진짜 자동화란?

Karpathy는 챗봇 나노챗(nanochat) 개발 과정에서 코딩 에이전트가 얼마나 실무에 미치는 한계를 직접 경험했습니다. 코드 자동완성 기능은 생산성을 크게 높였지만, 새로운 알고리즘이나 복잡한 설계, 기존 사례가 없는 '독창적 창조'에는 큰 도움을 받지 못했습니다. 대형 모델이 기존 스타일만 반복하고, 구식 API를 쓰거나 잘못된 예외처리를 도입하는 등 버퍼와 잡음이 많았던 것이 원인이었습니다.

AI가 코드에 도움을 준다면, '자주 반복되는 템플릿 작업'이나 새로운 언어나 프레임워크에 대한 빠른 접근성 등에선 효율적일 수 있지만, 진정한 혁신과 창조에는 아직 인간 개발자의 '스스로 구축해 보는 연습'이 중요하다는 것이 그의 직감입니다.

인간·AI·학습의 본질—기억이 부족해야 '창의성'이 커진다?

마지막으로, 인간은 "기억력" 자체는 AI보다 미숙하지만, 그 부족함 때문에 더 넓은 패턴과 법칙을 추상적으로 익힙니다. 아이들은 태어난 초기에 모든 기억을 잊어버리는 것 같지만, 그 덕분에 새로운 언어와 패턴을 폭넓게 빨아들이는 최고의 학습자가 됩니다.

반대로, LLM은 데이터를 암기하는 것은 탁월하지만 새로운 뜻을 직관적으로 익히는 데 한계를 보입니다. 너무 잘 암기하는 AI의 한계가 바로 '유연성 부족'이라는 점은, 인간이 가진 '망각과 창의성'의 긍정적 역할과 대조적입니다.

앞으로의 AI—'유령'의 지능에서 '성숙한 에이전트'로

AI가 동물처럼 진화와 재현을 통해 학습하는 존재가 되기는 쉽지 않습니다. 오히려 우리는 '디지털 유령'이 인간을 모방하며 점차 다양한 환경에 적응하는 과정을 설계하고 있습니다. 앞으로 10년, 에이전트 기반 AI가 '지속 학습', '기억', '창의적 문제 해결' 등 인간이 가진 결정적 능력들을 얼마나 닮아갈 수 있을지가 중요한 연구 주제가 될 것입니다.

저 역시 Karpathy처럼, 당장 완전한 인간형 에이전트를 기대하기보다, 현재의 AI를 현명하게 활용하고, 부족한 점을 직시하며 작은 진보를 쌓아가는 것이 현실적이라고 봅니다. 실무에서는 자동완성 등 단순화된 도구를 적절하게 활용하고, 깊은 알고리즘과 창의적 설계는 여전히 인간 개발자의 손끝에서 탄생한다는 점을 잊지 마세요.

궁극적으로, AI와 함께 성장하는 과정에서 인간의 직관, 협업, 그리고 '망각과 창의성'이 가진 힘을 재발견할 수 있기를 기대합니다.

출처 및 참고 :

이 노트는 요약·비평·학습 목적으로 작성되었습니다. 저작권 문의가 있으시면 에서 알려주세요.