
AI의 진짜 진화: 일야 수츠케버가 말하는 '새로운 학습 패러다임'의 시대
AI는 더 이상 단순히 계산 능력이 뛰어난 로봇이 아닙니다. 오픈AI 공동창업자이자 Safe Superintelligence Inc.(SSI) 설립자 일야 수츠케버가 최근 밝힌 AI의 미래를 살펴보면, 우리는 이제 '새로운 학습의 시대'를 맞이하고 있습니다. 이 글에서는 수츠케버의 통찰과 SSI의 전략, 그리고 현재의 인공지능이 직면한 한계까지, 알기 쉽게 풀어봅니다.
'확장' 전략의 한계, 근본적 연구의 필요성
지난 몇 년간 AI 산업은 더 큰 모델, 더 많은 데이터, 더 많은 컴퓨팅 파워에 투자하는 '스케일링' 전략으로 빠른 성장과 혁신을 이뤄냈습니다. 하지만 수츠케버는 "지금은 근본적인 연구로 다시 돌아가야 할 때"라고 주장합니다. 단순히 자원을 더 쏟아붓는 방식은 한계에 부딪혔고, AI가 진짜 사람처럼 효율적으로 학습하려면 완전히 새로운 접근이 필요하다는 뜻이죠.
이전까지는 엔지니어들이 넓은 데이터와 계산 능력을 가진 신경망에 모든 것을 집어넣어도, 대체로 성능이 계속 향상되었습니다. 하지만 프리트레이닝에 쓸 수 있는 데이터는 한정돼 있고, 강화학습도 최적화의 범위가 좁아 '특정 시험 문제만 잘 푸는 AI'가 되어버리곤 합니다. 수츠케버는 이제 신선한 사고와 '근본적 패러다임의 변화'가 꼭 필요하다고 강조합니다.
현재 AI의 '들쭉날쭉함': 인간과 다른 비효율성
수많은 최신 AI 모델들은 복잡한 테스트에서는 눈부신 성과를 내지만, 아주 기본적인 일상적 문제에는 어이없이 실패하기도 합니다. 수츠케버는 이를 '들쭉날쭉함(jaggedness)'으로 표현합니다.
예를 들어, 소프트웨어 버그를 고치는 코드 생성 작업에서 AI는 한 문제를 고치다가 새로운 버그를 만들고, 다시 고치면서 또 원래 버그를 재현하는 등 일관성이 부족합니다. 특히 강화학습 훈련 과정에서 특정 점수(보상)를 달성하려는 편향이 더해지다 보면, 진짜 현실 속에서의 일반화는 잘 되지 않는 것이 현실이죠.
인간의 감정, AI와는 다른 학습 효율의 비밀
수츠케버가 주목하는 진짜 차이는, 인간의 감정이 단순한 '반응'이 아닌 생물학적으로 설계된 '가치 함수' 역할을 한다는 점입니다. 예를 들어, 10시간만 배우면 운전을 제법 익히는 십대처럼, 사람은 적은 데이터로도 놀라운 일반화 학습을 합니다. 이는 감정이 직관적으로 잘못과 올바름을 판별해주기 때문일 수 있다는 분석입니다.
반대로, AI는 수십만 번의 시뮬레이션을 거쳐야 겨우 비슷한 수준에 도달합니다. 수츠케버는 "인간의 가치 평가 능력이 진화적으로 감정에 하드코딩된 것 같다"고 말합니다. 미래의 AI가 인간 수준을 넘어서려면, 바로 이런 감정 기반의 가치 함수를 이해하고 학습하는 혁신적 방법이 필요하다는 것이죠.
AGI의 오해와, '현장에서 성장하는 초지능'
많은 사람이 AGI(범용 인공지능)를 모든 것을 즉시 잘하는 만능 로봇으로 생각합니다. 하지만 수츠케버는 "진정한 초지능은 현실에서 경험하며 배우는 '영재 고등학생' 같은 존재"가 되어야 한다고 말합니다.
즉, 초지능 AI는 출시 직후엔 모르는 게 많지만, 사람처럼 시행착오와 실제 업무 속에서 점차 성장하는 것입니다. 훈련 클러스터에서 완성품으로 내보내는 게 아니라, '현장 학습'을 통해 스스로 실전에서 발전해야 한다는 비전이죠.
아이디어 유출 금지? '비밀스런' 혁신의 시대
여기서 흥미로운 점 하나. 수츠케버는 자신만의 새로운 훈련 방식에 대해 "지금은 공개적으로 말할 수 없는 시대"라며, 아이디어를 조심스럽게 숨깁니다. 이는 AI 기술의 상업적, 사회적 영향력이 커지면서 내용 공개가 규제되고 경쟁 또한 치열해진 현실을 보여줍니다.
그는 "인간의 신경세포가 우리가 예상하는 것보다 훨씬 많은 계산을 하고 있을 수도 있다"는 점도 언급합니다. 만약 이 사실이 맞다면, 인간 수준의 학습을 기계에 적용하는 것이 훨씬 어려워질 수 있다는 의미이기도 하죠.
SSI의 전략: '상업 경쟁 OUT, 안전 우선의 독립 연구'
수츠케버가 OpenAI를 떠나 설립한 Safe Superintelligence Inc.(SSI)는 기존 AI 기업과 차별화를 선언했습니다. SSI는 제품을 빠르게 출시해 시장 경쟁에 뛰어들기보다, 오직 '안전한 초지능 개발'이라는 목표에 집중합니다.
SSI는 2024년 설립 이후 전 세계에서 약 30억 달러를 모으며 단기간에 시장의 대세로 떠올랐습니다. 현재 직원은 약 50명 정도지만, 연구 효율에 집중해 소수정예로 움직입니다. 대형 빅테크 기업처럼 이윤이나 시장점유율에 신경 쓰지 않고, '연구자유의 환경'을 보장하는 것이 핵심 전략입니다.
'감각 있는 AI'와 안전 문제: 경쟁에서 협력으로
초지능이 등장할 경우, AI 안전과 윤리는 그 어느 시대보다 중요한 과제가 될 것입니다. 수츠케버는 미래의 AI가 '감각이 있는 생명을 돌보는 존재'가 되어야 한다고 주장합니다. 즉, AI 자체가 감각이 있고, 다른 생명체에 대해 공감하며 행동할 수 있어야 한다는 생각입니다.
또한, 고도화되는 AI의 위험성을 감안하면, 주요 연구소들이 결국엔 경쟁보다 협력에 집중할 수밖에 없을 것이라는 예상도 내놓았습니다. 실제로 OpenAI, Anthropic 등 주요 연구소들이 안전 기준과 기술 교류에 대해 손을 잡으려는 움직임이 포착되고 있습니다.
마무리: AI의 진정한 목적은 '사람처럼 성장하고 안전하게 진화하는 것'
AI는 더 빠르고, 더 똑똑하게 발전하는 것이 당연한 길처럼 보입니다. 그러나 이제는 '얼마나 사람답게 배울 수 있을까?'와 '얼마나 안전하게 사용할 수 있을까?'가 핵심이란 사실을 되새겨야 합니다. 일야 수츠케버와 SSI의 사례에서 보듯, 우리는 단순한 기술 경쟁이 아닌, 진짜 가치를 위한 혁신에 더 많은 관심을 기울여야 하는 시대를 맞이하고 있습니다.
앞으로 AI를 활용할 때, 여러분도 '최신 스펙'만 따라가기보다는, 사람처럼 더 똑똑하게 사고하고, 안전하게 진화하는 AI를 만드는 방향에 주목해보는 건 어떨까요?
참고
[1] Safe Superintelligence Inc. - Wikipedia - Wikipedia
[2] Ilya Sutskever says a new learning paradigm is necessary and is already chasing it - THE DECODER
[3] 2025 AI Safety Index - Future of Life Institute - Future of Life Institute
