
Shane Legg가 말한 2028년의 AGI 모습은?

2028년 '미니멀 AGI' 가능성, 왜 지금 우리의 일과 연결되는가
퇴근 후 챗GPT에 코드 한 줄, 계약서 초안 하나만 던져봐도 이미 예전 도구와는 차원이 다르다고 느끼는 분들이 많을 것입니다. Shane Legg는 이런 현재를 단순한 전주곡이 아니라 "미니멀 AGI 직전 단계"쯤으로 보고 있습니다. 2028년까지 50% 확률로, 보통 사람이 하는 인지 과제는 웬만큼 다 해내는 수준의 AGI가 등장한다는 예측을 2009년부터 거의 수정하지 않고 버티고 있다는 점이 흥미롭습니다.
'미니멀 AGI'와 '풀 AGI', 기준선이 다른 두 단계
Legg가 말하는 미니멀 AGI는 인간처럼 천재적일 필요는 없지만, 우리가 일상과 업무에서 요구하는 대부분의 인지 작업을 "이 정도면 사람에게 부탁해도 이상하지 않다" 수준으로 수행하는 시스템을 의미합니다. 요약하면, 더 이상 "아니 이런 것도 못 해?"라는 위화감이 거의 안 느껴지는 상태입니다.
그 위에 올라가는 것이 풀 AGI입니다. 여기서는 모차르트급 작곡, 아인슈타인급 이론 물리처럼 인간이 보여준 최고 수준의 지적 성취까지 재현 가능한 단계가 기준이 됩니다. 제 기준에서는 미니멀 AGI는 "사람 평균을 대체하는 시점", 풀 AGI는 "인간의 상한을 재현하는 시점" 정도로 받아들이는 것이 실무적으로 이해하기 편합니다.
그 이후의 '슈퍼인텔리전스', 계산 자원이 만든 격차
Legg가 더 강하게 말하는 지점은 그 다음입니다. 데이터센터가 뇌보다 에너지, 속도, 대역폭에서 수십만 배 이상 우위에 있는 이상, 인간 수준이 상한선일 이유가 없다는 주장입니다. 언어, 수학, 연구, 설계 같은 순수 인지 영역에서는 크레인과 인간 근력의 관계처럼, 결국 인간이 "비교 자체가 의미 없는 수준"으로 밀릴 가능성을 높게 보고 있습니다. 저라면 이 지점을 기술적 논쟁이 아니라, 내 커리어 전략을 재설계해야 하는 신호로 해석하겠습니다.
일자리 타격보다 구조 변화가 먼저 온다
많은 실무자가 제일 먼저 떠올리는 질문은 "내 일자리가 언제 사라지나"입니다. Legg의 시각은 조금 다릅니다. 완전한 대체보다 먼저, 노동 구조와 가치 평가 기준이 변하는 단계가 온다는 것입니다.
노트북만으로 하는 일, 먼저 흔들리는 영역
여기서 많이들 놓치는 부분이 있습니다. 사람들은 흔히 "단순 반복 업무부터 사라진다"고 생각하지만, Legg의 룰은 훨씬 직설적입니다. 노트북 하나와 인터넷만으로 대부분의 업무를 처리하는 직종, 즉 순수 인지 노동은 AI가 가장 먼저 깊게 파고드는 영역이라는 점입니다.
소프트웨어 개발, 리서치, 마케팅 문서 작성, 고급 법률 검토, 금융 모델링 같은 직군이 대표적입니다. 이미 코드 어시스트 도구를 쓰는 개발팀에서는 "예전 100명이 하던 일을 20명과 AI로 돌릴 수 있겠다"는 감각이 생기고 있습니다. 국내 환경에서는 오히려 '엘리트 화이트칼라'가 가장 먼저 생산성 압박을 체감하게 될 가능성이 큽니다.
플러머와 인플루언서, 아이러니한 안전지대
반대로, 배관 수리, 건설 현장, 미용, 요양 등 물리적 세계와 얽힌 직업은 로봇 공학의 제약과 비용 때문에 꽤 오래 버틸 수 있습니다. 또 하나 재미있는 지점은 인플루언서, 강연자, 크리에이터처럼 "이 사람이어서 본다"는 정체성 기반 직업입니다. 같은 문장을 AI가 더 잘 쓴다 해도, 사람들은 여전히 특정 개인의 관점과 서사를 찾기 때문입니다.
저라면, 순수 인지 노동을 하더라도 "나라는 사람"이 전면에 드러나는 포지션을 의도적으로 만들어두겠습니다. 이는 개발자든 기획자든 마찬가지입니다. 조직 안에서 대체 가능한 함수가 아니라, 특정 맥락과 판단을 대표하는 얼굴이 되는 쪽이 장기적으로 유리합니다.
시스템2 안전, AGI 윤리는 '철학'이 아니라 제품 설계 이슈다
AI 윤리 이야기가 나오면 많은 실무자는 "현실과 먼 철학 토론" 정도로 치부합니다. Legg가 강조하는 지점은 정반대입니다. AGI 시대에는 윤리와 안전이 모델 성능만큼이나 핵심적인 제품 설계 요소가 된다는 점입니다.
체인 오브 쏘트 모니터링, 의도까지 들여다보려는 시도
Legg가 제안하는 시스템2 안전, 혹은 체인 오브 쏘트 모니터링은 인간의 "깊은 생각"에 해당하는 단계에 안전 장치를 거는 접근입니다. 단순히 출력만 검열하는 것이 아니라, 모델이 문제를 어떻게 해석하고 어떤 윤리 원칙을 적용해 결론을 냈는지 그 추론 과정을 들여다보고자 합니다.
이 방식이 성숙하면, 결과뿐 아니라 "의도"를 평가할 수 있습니다. 악의는 없었지만 복잡한 상황 때문에 최선의 선택을 못 한 것과, 명확한 악의를 가지고 우회로를 찾은 것을 기술적으로 구분하려는 시도입니다. 국내 서비스에서 의료, 금융, 교육 분야에 AI를 본격적으로 넣을 때 이런 구조적 안전 장치를 이해하지 못하면, 규제와 여론의 역풍을 피하기 어렵습니다.
100% 안전 환상에서 빨리 벗어날수록 유리하다
Legg는 100% 안전을 전제로 하는 논의를 아예 잘라냅니다. 외과 수술도 "완전 무사고"를 장담할 수 없듯, AGI도 결국은 확률 게임입니다. 그래서 중요해지는 것은 몇 가지입니다. 출시 전 테스트, 배포 후 모니터링, 내부 해석 가능성, 그리고 위험 기능에 대한 제한과 롤백 절차입니다.
제 기준에서는 "안전이 보장되면 쓰겠다"는 관점은 이미 시대에 뒤처진 태도입니다. 대신 "어느 수준의 리스크를 감수할지, 그 대가로 무엇을 얻을지, 실패 시 어떻게 회수할지"를 제품 설계 단계부터 수치와 프로세스로 명시하는 팀이 AGI 시대에 경쟁력을 갖게 됩니다.
시작 전 반드시 체크할 것
누구에게 기회고, 누구에게 독일까
AGI 전환은 모든 사람에게 똑같이 다가오지 않습니다. 원격으로 고급 지식을 파는 직종, 예를 들어 개발, 데이터, 컨설팅, 법률, 콘텐츠 전략 쪽은 생산성이 폭발하는 만큼 경쟁도 동시에 폭발할 가능성이 큽니다. 이 쪽 사람에게는 AGI가 "도구를 빨리 장착한 사람이 나머지를 쓸어가는 게임"이 될 공산이 큽니다.
반면 엄격한 규제와 공공 책임이 얽힌 영역, 특히 국내의 공공기관, 교육, 의료 현장은 변화가 느릴 수 있습니다. 그러나 이걸 안전지대라고 보는 순간 오히려 뒤처지기 쉽습니다. 여기서는 "AGI를 직접 만드는 사람"보다 "AGI를 도입해 제도에 맞게 재설계하는 사람"이 더 귀해질 수 있습니다. 저라면 이 부류에 있다면, 코딩보다 정책과 프로세스 관점에서 AI를 이해하는 쪽으로 공부 방향을 잡겠습니다.
현실적 제약과 첫 행동
AGI 논의를 들으면 거대한 문명 이야기로 흘러가면서, 당장 내 일과는 동떨어진 느낌이 들기 쉽습니다. 그러나 현실적으로는, 각자의 노트북에서 시작되는 작은 선택들이 가장 먼저 변합니다. 지금 쓰는 AI 도구를 "편한 검색창" 수준에서 멈춰둘지, 아니면 업무 프로세스에 깊게 통합해 실험해볼지의 차이가 향후 몇 년을 가릅니다.
첫 행동으로 추천하고 싶은 것은 단순합니다. 매일 하는 업무 중 순수 인지 작업을 세 가지만 골라서, 그 전 과정을 AGI형 도구와 함께 재설계해 보는 것입니다. 기획 문서 초안, 코드 작성, 리서치 정리처럼 반복되는 일을 통째로 맡겼을 때, 품질과 속도, 리스크가 어떻게 바뀌는지 수치와 사례로 기록해 두면 좋습니다. 이 과정에서 느끼는 불편과 한계가, 앞으로 여러분이 몸담은 조직에서 AGI 도입 전략을 짤 때 가장 현실적인 기준선이 됩니다. 거대한 미래 예측보다, 오늘 책상 위에서 프로세스 하나를 바꾸는 사람이 AGI 시대의 방향을 먼저 잡게 될 가능성이 높습니다.
출처 및 참고 :
이 노트는 요약·비평·학습 목적으로 작성되었습니다. 저작권 문의가 있으시면 에서 알려주세요.
