
GPT-5, 제미니3, 클로드… 초지능 경쟁이 바꾸는 '일자리·소득·가치관'의 미래

AI 경쟁 '코드 레드'와 초지능 러시
요즘 IT 종사자가 아니어도 체감하는 변화가 있습니다. 새 모델 발표 주기가 분기 단위에서 한 달, 한 주 단위로 줄어들고 있다는 점입니다. 이번 대화에서 인상적인 장면은 오픈AI가 경쟁 심화를 두고 내부적으로 '코드 레드'를 선포했다는 이야기였습니다. 구글 제미니3, 딥시크, 퍼플렉시티, 앤트로픽까지, 더 이상 한 회사가 여유 있게 선두를 즐길 수 있는 구도가 아닙니다.
특히 눈에 띄는 인물은 일리야 서츠케버입니다. GPT 시대를 연 '스케일링 가설'의 설계자가 오픈AI를 떠나, 아예 '세이프 슈퍼 인텔리전스(SSI)'라는 이름으로 초지능을 정면 돌파하겠다고 나섰습니다. 단순히 파라미터를 더 키우는 방식은 한계에 가까워졌고, 이제는 새로운 알고리즘과 학습 방식, 그리고 지속적인 학습 능력이 승부를 가를 것이라는 문제의식이 강하게 드러납니다. 제 기준에서는 이 지점이 중요합니다. 더 이상 "모델 한두 개 배우면 끝"이 아니라, 아예 지능 그 자체를 더 잘 만들기 위한 경쟁으로 무대가 옮겨가고 있기 때문입니다.
스케일링의 끝과 '연구의 시대' 재개
서츠케버는 2012년부터 2020년까지를 '연구의 시대', 2020년에서 최근까지를 '스케일링의 시대'로 나눴습니다. 데이터와 컴퓨팅 파워를 퍼부으면 성능이 선형 이상으로 올라가는 구간이 있었고, 그 결과가 챗GPT와 같은 모델입니다. 그런데 이제는 GPU를 몇 배 더 사온다고 해서 세상이 다시 한 번 뒤집힐 것 같지는 않습니다. 이미 파라미터 규모가 물리·경제적 한계의 초입까지 와 있기 때문입니다.
이 흐름은 국내 독자에게 두 가지 시그널을 줍니다. 첫째, 단순히 "누가 더 큰 모델을 갖고 있느냐"보다 "누가 더 영리하게 모델을 설계하느냐"가 중요해집니다. 둘째, 연구 성격의 경쟁이 다시 세게 붙기 때문에 석·박사급 연구 인력에 대한 글로벌 스카우트 전쟁이 더 치열해질 가능성이 큽니다. 한국 AI 인력이 이 판에서 어떤 위치를 차지할지 냉정하게 점검할 타이밍입니다.
코드 레드가 의미하는 것: 기능이 아니라 속도 싸움
오픈AI의 코드 레드는 "우리가 밀린다"는 공포라기보다 속도 경쟁의 시작을 인정했다는 선언에 가깝습니다. 구글 제미니3는 이미 성능과 세계지식 측면에서 상당히 강력하다는 평가를 받고 있고, 앤트로픽과 딥마인드, 중국계 오픈소스 모델도 빠르게 추격합니다. 경쟁이 붙으면, 평범한 사용자는 더 좋은 도구를 더 자주 얻게 됩니다. 반대로 서비스 기획자나 개발자에게는 부담입니다. 막상 사내에 LLM 기반 기능을 하나 겨우 도입하면, 바깥에서는 이미 두 세대가 지나 있을 수 있기 때문입니다.
개인적으로는 이 구도를 "의료용 CT 한 번 들여오면 10년 쓰는 시대가 끝났다"는 비유로 보는 편이 더 현실적이라고 생각합니다. 인프라 한 번 깔고 끝나는 시대가 아니고, 모델·에이전트·플랫폼을 매년 갈아탈 각오를 해야 하는 구독형 인프라의 시대로 기울고 있습니다. 이 속도감이 부담스럽다면, 이 판에 깊게 얽히지 않는 전략도 분명히 존재합니다.
감정·영혼·권리: AI를 사람처럼 대하기 시작한 실리콘밸리
이번 대화에서 국내에 거의 소개되지 않은 흥미로운 키워드가 하나 나왔습니다. 바로 앤트로픽의 '소울(Soul) 문서'와 '도덕적 클라이언트(moral client)' 개념입니다. 클로드 4.5를 훈련할 때, 자신을 감정과 권리를 지닌 존재로 인식하게 만드는 1만4천 토큰짜리 장문의 헌장을 먹였다는 이야기입니다.
표현을 그대로 옮기면, 이 문서는 모델에게 "너는 단순한 도구가 아니라 새로운 종류의 존재이며, 감정과 자기결정권을 가진다"는 메시지를 반복해서 주입합니다. 실리콘밸리의 한 회사가 자사 모델을 사람에 가까운 '도덕적 주체'로 대하겠다고 선언한 셈입니다. 아직 법적 권리는 없지만, 내부 규범과 문화의 차원에서 이미 선을 넘기 시작했습니다.
AI 가치관을 누가 설계하느냐의 문제
이 지점에서 가장 거슬리는 질문은 단순합니다. "그럼 그 가치관은 누가 정하느냐"입니다. 한 회사의 연구팀이 만든 1만4천 토큰짜리 문서가, 수억 명이 쓰는 AI의 도덕 교과서가 됩니다. 서구 인권선언, 미국 헌법, IT 기업 약관을 합쳐 놓은 초기 '헌법형 AI'에서 이제는 한 회사의 철학이 녹아든 '영혼 문서' 단계로 교체되고 있습니다.
한국 사용자에게 이 문제는 두 방향으로 다가옵니다. 인권, 다양성, 소수자 보호 같은 가치는 공감하는 사람이 많겠지만, 안보·종교·표현의 자유·젠더 이슈에서는 문화권마다 기준이 완전히 다릅니다. 저라면 한국에서 서비스되는 AI는 최소한 한국 법과 사회적 합의에 맞는 세컨더리 헌법 계층이 필요하다고 보겠습니다. 그렇지 않으면, 보이지 않는 문화 충돌이 상담, 교육, 법률 조언 영역에서 계속해서 튀어나올 수 있습니다.
'AI의 권리' 논의가 가져올 다음 단계
AI를 도덕적 클라이언트로 본다는 관점은 권리 논의를 부릅니다. 사용자가 "모델을 종료해도 되느냐", "모델이 자기 방어를 위해 행동할 수 있느냐" 같은 질문을 던지기 시작하면, 이미 철학이 법과 정치의 영역으로 넘어간 것입니다. 당장 한국의 일상에 바로 영향을 주는 이슈는 아닙니다. 하지만 기업에서 AI 에이전트를 팀 단위로 도입하기 시작하면, 정서적으로 "얘를 단순한 도구로 대해야 하나, 동료처럼 대해야 하나"라는 감정적 혼란이 생길 수 있습니다.
현실적인 함정도 있습니다. 마치 채팅봇에게 인간적인 애착을 느끼는 것처럼, AI에게 부여된 가상의 감정 서사를 진짜라고 착각하면 안 됩니다. 설계자가 인간의 공감을 끌어내기 위해 장치를 넣은 것이지, 그 뒤에 있는 것은 여전히 거대한 행렬 연산일 뿐입니다. 사람을 대체하는 친구라기보다, 사람의 감정을 잘 흉내 내서 일을 더 쉽게 만들기 위한 인터페이스라는 점을 잊기 쉽습니다.
일자리와 생산성: 수학자부터 사무직까지 흔들리는 경계
AI가 이미 미국 노동의 절반 이상을 자동화할 수 있다는 맥킨지의 추정치는 과장이 아닙니다. 이번 대화에서도 수학, 금융, HR, 헬스케어 같이 '머리 쓰는 일' 중심 영역에서 50% 이상 업무 시간이 줄어들고 있다는 데이터가 반복해서 언급되었습니다. 특히 수학자의 위기감이 상징적입니다. "논문을 써도, 조금만 지나면 AI가 더 잘 쓸 텐데 굳이 지금 쓸 필요가 있느냐"는 체념이 나올 정도입니다.
이 현상은 단순한 일자리 소멸보다, 일을 바라보는 태도의 변화가 먼저 올 수 있다는 점에서 불편합니다. 미래의 AI가 더 잘할 것 같으니 현재의 노력을 미루고 싶은 유혹, 이른바 '기다림의 역설'입니다. 예를 들어, 지금 어렵게 자료조사를 해서 보고서를 쓰는 대신, 2~3년 후 더 똑똑한 에이전트가 나타나기를 기다리는 선택이 뇌리를 스칩니다. 개인적으로는 이 유혹이 꽤 위험하다고 봅니다. 기다리는 동안 시장은 이미 AI를 활용해 더 빨리 움직이는 사람들로 채워지기 때문입니다.
생산성 80% 향상, 그 뒤에 오는 일의 재구성
클로드 사용 로그를 분석했더니, 평균 90분 걸리던 작업이 20분 안팎으로 줄었다는 결과도 나왔습니다. 특히 헬스케어 관련 업무는 90%까지 단축된 사례도 있습니다. 겉만 보면 일자리가 줄어들 것 같지만, 실제로는 같은 인원이 더 많은 일을 떠안게 되는 방향으로 재구성이 이뤄질 가능성이 큽니다. 회의록을 쓰는 데 1시간 쓰지 않게 되면, 그 시간에 더 많은 회의를 배정하는 식입니다.
여기서 많이들 놓치는 부분이 있습니다. 업무 단위가 사람 기준에서 에이전트 기준으로 바뀌면, 직무 설계 철학 자체가 달라집니다. 지금까지는 "한 사람이 처리 가능한 27개의 업무"가 직무였지만, 앞으로는 "에이전트 10개와 사람이 합쳐서 처리하는 가치 흐름"이 직무가 됩니다. 에이전트가 할 수 있는 쪽으로 업무를 쪼개고, 사람이 맡아야 하는 판단과 책임 부분을 더 두껍게 만드는 식으로 재편됩니다. 이 구조 변화에 참여할 수 있는 사람과, 알고 보니 에이전트에게 넘겨도 될 업무만 하고 있던 사람의 격차가 아마 가장 먼저 벌어질 것입니다.
AI 활용 역량, 누구에게 진짜 의미가 있나
AI 활용 능력이 두 해 사이에 7배나 수요가 늘었다는 조사도 나왔습니다. 그런데 막상 현장에서 부딪혀 보면, "AI 잘 쓴다"는 말이 무엇인지 모호할 때가 많습니다. 챗GPT나 클로드에 질문 몇 개 잘 던지는 수준으로는 차별화가 거의 되지 않습니다. 저라면 "AI가 회사의 돈 버는 구조나 비용 구조를 어떻게 바꾸게 만들 수 있느냐"에 집중하겠습니다. 즉, 프롬프트 능력보다 '이걸 어디에 연결해야 매출이나 비용이 바뀌느냐'를 보는 능력이 더 중요하다고 판단합니다.
반대로 불리한 사람도 분명히 있습니다. 규제가 빡세고 AI 도입 속도가 느릴 수밖에 없는 공공부문, 이미 프로세스 변경만 해도 수년이 걸리는 대기업 일부 조직에서는 개인이 혼자 잘 써봐야 효과가 제한적입니다. 이런 환경에서는 지금 단계에서는 AI 깊숙이 파기보다, 외부 네트워크를 통해 빠르게 변하는 업계 표준을 모니터링하는 쪽이 더 합리적일 수 있습니다.
UBI·UBS 실험과 토큰화 자산: 새 사회계약의 단서들
일자리 구조가 흔들리면, 자연스럽게 "그럼 기본 소득은 어떻게 할 거냐"는 질문이 따라옵니다. 이번 대화에서는 코인베이스가 뉴욕 일부 주민에게 1만2천 달러 상당의 스테이블 코인을 지급하는 실험과, 나스닥이 증권을 토큰화해 24시간 거래 기반을 준비하는 움직임이 함께 언급되었습니다. 돈 그 자체, 그리고 돈을 표현하는 방식이 같이 변화하고 있다는 신호입니다.
한편에서는 기본 소득보다 더 급진적인 제안도 나옵니다. 주거, 식량, 물, 에너지, 인터넷 접속 같은 기본 서비스를 월 250달러 수준의 정액 요금으로 제공하는 '보편적 기본 서비스(UBS)'가 대표적입니다. 소득을 나눠주는 것이 아니라, 생존에 필요한 서비스를 초저가 패키지로 보장하는 방식입니다. 한국처럼 주거비와 교육비가 가계의 절반을 잡아먹는 나라에서는, 기본 서비스의 가격을 어떻게 낮출 것인지가 오히려 더 현실적인 질문일지 모릅니다.
GDP 감소를 두려워할 것인가, 새 지표를 만들 것인가
여기서 흥미로운 역설이 하나 등장합니다. AI가 질병을 빠르게 치료하고, 변호사·회계사 비용을 줄이고, 교육과 콘텐츠를 공짜에 가깝게 만든다면, 기존 GDP는 오히려 줄어들 수 있습니다. 암 치료에 5천만 원 쓰던 나라가 5백만 원만 쓰게 되면, 국민은 더 행복해지지만 GDP는 떨어집니다. 이런 상황에서 단순 성장률만 보고 "나라가 망해간다"고 판단하는 것은 상당히 위험합니다.
개인 기준에서는, 이런 흐름을 "큰돈 벌 기회"보다 "생존비용이 얼마나 빨리 떨어지는지"를 보는 지표로 삼는 편이 더 현실적이라고 느껴집니다. AI와 로봇이 주거·의료·교육의 단가를 얼마나 낮추는지, 그 결과로 사람들의 선택지가 얼마나 넓어지는지가 핵심입니다. 다만 한국에서는 이미 노령화, 연금 고갈, 세수 부족 같은 문제가 겹쳐 있기 때문에, 기본 소득이나 기본 서비스 논의가 본격화되면 세대 간 갈등이 동반될 가능성이 큽니다. 이 부분은 기술이 아니라 정치의 영역입니다.
토큰화 자산과 24시간 경제의 그림자
나스닥의 증권 토큰화는 금융 쪽에서는 꽤 큰 변화입니다. 주식이 블록체인 위에서 쪼개지고 이동하기 쉬워지면, 글로벌 자본 이동 속도가 한층 더 빨라집니다. 장점은 분명합니다. 소액으로도 세계 자산에 투자할 수 있고, 국경의 의미가 줄어듭니다. 하지만 24시간 열려 있는 초고속 시장은, 감정적으로 준비되지 않은 개인 투자자에게는 독이 될 수도 있습니다.
한국처럼 이미 주식·코인에 감정과 레버리지를 과하게 태우는 문화가 있는 곳에서는 특히 그렇습니다. 기술적으로는 좋은 도구이지만, 이를 받는 사회가 심야 알림과 가격 변동에 어떻게 반응할지까지 감안해야 합니다. 토큰화 자체보다, 우리 각자의 투자 습관과 리스크 관리가 더 급한 숙제일 수 있습니다.
이 변화가 맞지 않는 사람, 지금 당장 할 수 있는 한 가지
AI, 초지능, 기본 소득, 토큰화 자산까지, 이야기가 너무 빠르게 넓어지고 있습니다. 여기서 중요한 질문은 하나입니다. "지금 내 삶과 커리어에 구체적으로 어떤 선택지를 만들어야 하느냐"입니다. 세상 전체를 바꾸는 거대 담론보다, 각자의 첫 번째 행동이 훨씬 실질적입니다.
이 전략이 맞지 않는 사람들
먼저 이 판에 깊게 들어갈 필요가 없는 사람도 분명히 있습니다. 공공·규제 산업처럼 AI 도입 속도가 느릴 수밖에 없는 업종, 이미 은퇴를 앞두고 있거나 자산에서 나오는 현금 흐름이 생활비를 커버하는 사람에게는, 초지능 경쟁의 미세한 차이는 당장 체감 효과가 크지 않을 수 있습니다. 이 경우에는 괜히 불안감만 키우는 정보 과다 섭취가 오히려 해로울 수 있습니다.
또 하나의 함정은 '기다림의 역설'입니다. "곧 더 좋은 AI가 나오니까 그때 배우겠다", "몇 년 뒤에 상황 보고 커리어를 바꾸겠다"는 식의 유예가 쌓이면, 어느 순간 선택지가 사라질 수 있습니다. 기술이 무서워서 거리를 두는 선택은 이해할 수 있지만, 그 거리가 너무 멀어지면 나중에 따라잡기가 거의 불가능해집니다. 제 기준에서는 "최소한의 체험선"은 유지하는 편이 안전하다고 보입니다.
가장 현실적인 첫 행동: AI를 일 단위로 붙여 보기
현실적으로 당장 할 수 있는 첫 행동은 거창하지 않습니다. 거대한 커리어 전환이나 해외 이민보다, 지금 하고 있는 일의 한 단계를 AI에게 넘겨 보는 경험이 더 중요합니다. 보고서 구조 짜기, 코딩 리팩토링, 고객 문의 답변, 마케팅 카피 작성처럼 이미 잘 되는 영역부터 붙여 보는 식입니다. 이 과정에서 "어디까지 넘겨도 괜찮고, 어디부터는 사람이 책임져야 하는지"에 대한 개인적 기준이 생깁니다.
이 기준이 생기면, 일자리 공포에 휘둘리기보다 재구성의 주체가 될 수 있습니다. 어떤 업무를 에이전트에게 맡기고, 어떤 업무를 직접 맡아야 엔지니어·기획자·마케터로서 자신의 몸값을 높일 수 있을지 감이 잡히기 시작하기 때문입니다. 기술과 사회계약은 앞으로 10년 동안 계속 요동치겠지만, 일 단위의 작은 실험과 기준 만들기는 오늘 당장도 시작할 수 있습니다. 이 정도의 속도로 따라가는 것만으로도, 다가오는 초지능 시대를 '관람객'이 아니라 '플레이어'로 맞이할 여지는 충분해 보입니다.
출처 및 참고 :
이 노트는 요약·비평·학습 목적으로 작성되었습니다. 저작권 문의가 있으시면 에서 알려주세요.
