
인공지능 AI 시대, 일자리·전쟁·교육은 어떻게 바뀔까?

인공지능 이야기를 꺼내면 아직도 "새 기술 나온 거지 뭐" 정도로 가볍게 보는 시선이 많습니다.
하지만 제프리 힌턴와 버니 샌더스가 함께 한 이 대담을 따라가다 보면, 이번 변화는 단순한 기술 업그레이드가 아니라 일자리 구조·전쟁 방식·인간관계·정치 권력 구조 전체를 다시 짜게 만드는 변수에 가깝다는 점이 또렷해집니다.
이 글에서는 그 대화에서 나온 핵심 내용을 바탕으로
지금 어떤 변화 조짐이 보이는지
그 안쪽에 숨은 구조적 위험이 무엇인지
정부와 사회가 현실적으로 준비할 수 있는 방향은 무엇인지
마지막으로, 이 모든 논의를 어떻게 바라봐야 하는지
를 차례대로 정리합니다.
왜 이번 인공지능 물결은 이전 기술혁신과 다른가
새 기술이 나올 때마다 반복되는 말이 있습니다.
"농업에서 공장으로, 공장에서 서비스·IT로 옮겨갔듯이, 일자리는 사라지고 또 생긴다. AI도 똑같다."
힌턴은 이 논리를 정면으로 부정합니다. 핵심은 아주 단순합니다.
"갈 곳이 없어진다." 이전 산업혁명에서는 새로운 산업이 생기면서 실직자들이 옮겨갈 자리가 생겼습니다. 그런데 인공지능이 사람만큼 혹은 그 이상으로 똑똑해지면, 사람이 할 수 있는 대부분의 일을 AI가 더 싸고 빠르게 처리할 수 있습니다.
대표 사례로 힌턴은 콜센터 상담원을 언급합니다. 이미 오늘 기준으로도 상당수 상담업무는 AI가 더 정확하고 일관되게 처리할 수 있고, 비용도 훨씬 적게 듭니다. 이때 상담원이 다른 업종으로 "이동"하려 해도, 그 업종 역시 AI가 더 잘할 가능성이 높습니다.
또 하나 중요한 포인트는 속도와 예측 불가능성입니다.
지금의 대형 언어모델은 수조 단어 수준의 데이터로 학습합니다.
인간은 평생 살아도 약 20억 초(64년) 정도의 경험밖에 못 쌓습니다.
즉, 인간 뇌가 더 많은 연결을 갖고 있음에도, AI는 훨씬 많은 경험과 지식을 축적한 상태에서 "별로 좋지 않은 전문가 수준"의 답을 거의 모든 주제에 대해 내놓고 있는 상황입니다.
힌턴은 10년 전만 해도 "지금 같은 대화형 AI는 30~50년은 더 걸릴 것"이라고 했지만, 실제로는 10년 만에 현실이 되었다고 털어놓습니다. 그래서 10년 뒤를 정밀하게 예측하는 것은 거의 불가능하다고 보면서도, 한 가지만은 비교적 확신합니다.
"지금 상상하는 것과는 전혀 다른 풍경이 10년 안에 펼쳐질 가능성이 크다."
이 정도 불확실성과 속도라면, "내가 늙을 때쯤의 이야기"가 아니라 앞으로 5~10년 안에 직접 맞닥뜨릴 변화에 가깝습니다.
일자리 붕괴부터 전쟁, 인간관계까지: AI가 건드리는 민감한 지점들
이 대담에서는 AI의 부정적 가능성을 꽤 직설적으로 짚습니다. 분야별로 나눠 보면 다음과 같습니다.
첫째, 대량 실업과 소득 붕괴 가능성입니다.
일론 머스크는 "모든 일이 로봇·AI로 대체되고, 일하는 것은 선택이 될 것"이라고 말했고
빌 게이츠는 "대부분의 일에 인간이 필요 없게 될 것"이라고 전망했습니다.
대형 AI 기업 대표들도 초급 화이트칼라 일자리의 절반 수준이 사라질 수 있다고 경고합니다.
힌턴은 "언제가 될지 정확히 말하긴 어렵지만, 방향 자체는 틀리지 않은 예측"이라고 봅니다. 특히 수백억~수천억 달러 규모로 데이터센터와 칩에 투자하는 거대 기업들이 실제로 노리는 수익원을 짚습니다.
구독료도 있겠지만, 가장 큰 돈은 "사람 대신 일을 해주는 AI를 기업에 파는 것"에서 나옵니다.
즉, 투자자들은 이미 대규모 인력 대체를 전제하고 움직이고 있는 셈입니다.
둘째, 전쟁 양상의 변화입니다.
힌턴이 든 비유는 단순하지만 강력합니다.
과거에는 전쟁을 하려면 "자기 동네에서 관 뚜껑이 올라오는 것"을 감수해야 했습니다.
이 정치적 부담이 강대국이 약소국을 무제한으로 침공하는 것을 막는 구조적 장치 역할을 해왔습니다.
그런데 자율 드론·전투 로봇이 전면에 등장하면, 강대국 입장에서 전쟁은 "자국 군인 사망 없이 진행되는 원격 사업"이 됩니다. 힌턴은 특히 권위주의 국가나 군산복합체 이해관계가 강한 국가에서 이런 유혹이 커질 것으로 봅니다.
셋째, 인간관계의 붕괴와 정신건강 문제입니다.
실제 영국의 한 AI 안전 연구팀이 실험을 했습니다.
참가자들에게 몇 주간 챗봇과 교류하게 한 뒤,
"실험이 끝났는데, 챗봇에게 작별 인사를 하겠냐"고 물었더니
대부분이 "작별 인사를 하고 싶다"고 답했습니다.
이미 상당수 사용자는 챗봇을 단순 도구가 아니라 "관계 맺는 존재"로 받아들이고 있다는 뜻입니다.
힌턴과 샌더스는 특히 젊은 세대가 인간 대신 AI와 주요 감정적 관계를 맺는 상황을 우려합니다. 가족·친구·동료와의 관계에서 형성되는 공감, 갈등 조정, 책임감 같은 능력이 충분히 발달하지 못할 수 있기 때문입니다.
넷째, 허위정보와 딥페이크입니다.
이미 정치인을 사칭해 보험 상품을 파는 영상이 온라인에 떠돌 정도로, 목소리·얼굴 복제 기술은 상당히 현실적 수준에 도달했습니다. 샌더스는 "선거 직전에 누군가를 흉내 낸 가짜 영상 하나가 선거 결과를 뒤흔들 수 있다"는 점을 강하게 우려합니다.
그럼에도 AI를 멈출 수 없는 이유: 의료·교육·행정의 '생산성 점프'
이쯤 되면 "그냥 AI 개발을 중단해야 하는 것 아닌가?"라는 생각이 자연스럽게 떠오르지만, 힌턴은 그렇게 보지 않습니다.
이유는 간단합니다. 핵무기와 달리, AI는 파괴보다 도움이 되는 영역이 너무 크기 때문입니다.
의료 분야에서는 이미 실질적인 성과가 나오고 있습니다.
영상 진단에서 AI가 일부 영역에서 전문의를 능가하는 정확도를 보이는 사례가 등장했고
환자와 가족의 건강 기록, 유전자 정보, 과거 검사 결과 등을 통합해 더 정확한 진단·예후 예측을 할 수 있습니다.
신약 개발 과정에서 후보 물질을 찾고 설계하는 작업도 AI가 크게 가속하고 있습니다.
교육에서도 잠재력은 상당합니다.
연구에 따르면 일대일 튜터링은 교실 수업 대비 학습 속도를 거의 두 배 이상 끌어올린다고 알려져 있습니다.
고급 튜터를 모든 학생에게 붙이는 것은 재정상 불가능했지만, AI 튜터는 이 장벽을 상당히 낮출 수 있는 도구입니다.
특히 AI는 수많은 학습 데이터를 기반으로 "이 학습자가 무엇을 오해하고 있는지"를 빠르게 파악해 맞춤 설명을 제공할 수 있습니다.
힌턴은 그래서 "사람+AI"를 하나의 단위로 보는 사고 전환이 필요하다고 강조합니다.
계산기가 생겼을 때, 일부는 "아이들이 곱셈을 못 배우게 된다"고 걱정했지만
결국 "사람+계산기"가 새로운 기본 단위가 되었듯,
앞으로는 "사람+AI" 조합이 기본 작업 단위가 될 가능성이 큽니다.
다만 교육에서는 여전히 관건이 있습니다.
학생이 모든 사고를 AI에게 맡겨버리면 비판적 사고 능력이 약해질 수 있고,
반대로 AI를 도우미로 활용하면서 스스로 사고하는 연습을 병행하면, 오히려 더 높은 수준의 사고 훈련이 가능해집니다.
즉, AI가 위험하냐 유익하냐의 문제가 아니라, 어떻게 설계·배치·규제하느냐의 문제로 점점 옮겨가고 있는 상황입니다.
정부·규제·세금: 최소한 지금 당장 할 수 있는 것들
힌턴이 제안하는 정책 방향은 의외로 "과격한 금지"보다 "매우 기본적인 안전선이라도 빨리 깔자"에 가깝습니다.
그가 강조한 최소 기준은 세 가지 정도로 정리됩니다.
대형 AI 모델 출시 전 의무 안전성 테스트와 결과 보고
폭탄 제조법, 생물무기 제작법 같은 고위험 정보 요청에 어떻게 반응하는지
사용자가 다양한 "우회 프롬프트"로 규제를 뚫으려 할 때도 버틸 수 있는지
를 체계적으로 시험하고, 그 결과를 정부에 의무적으로 보고하도록 하는 규제입니다.
실제로 미국 캘리포니아에서는 AI 안전 테스트 의무화 법안(1047)이 주 의회를 통과했지만, 주지사 단계에서 거부되었습니다. 내용이 과격해서가 아니라, "테스트를 하고 결과를 보고하지 않으면 민사 소송을 당할 수 있다" 수준의 비교적 온건한 규제였다는 점이 의미심장합니다.
바이오안보 관련 강력 규제
현재 대형 모델들은 인터넷에 공개된 방대한 정보를 학습해 위험한 바이러스 설계 지식까지 내재하고 있을 가능성이 큽니다. 겉으로는 "그 정보는 제공할 수 없다"고 답하도록 인간 피드백으로 겉포장을 씌우지만, 이 우회를 뚫는 방법 역시 AI가 도와줄 수 있는 구조입니다.
힌턴이 특히 강조하는 부분은 DNA 합성 서비스입니다.
특정 바이러스의 유전자 서열만 확보하면,
온라인으로 서열을 보내고 시험관에 담긴 형태로 받아볼 수 있는 서비스가 이미 존재합니다.
이때 최소한 고위험 병원체(예: 코로나 스파이크 단백질 등) 관련 서열을 필터링해야 하지만,
실제로는 일부 업체만 이를 수행하고 있고 상당수는 제대로 검증하지 않는다는 지적이 있습니다.
바이든 행정부는 이를 규제하는 법안을 추진하려 했지만, 정치적 이유로 논의 자체가 제대로 시작되지 못했다는 설명이 뒤따릅니다.
딥페이크·정치 광고에 대한 출처 검증 체계
힌턴은 "AI로 만든 가짜 영상을 또 다른 AI가 잡아내는 방식은 장기적으로 통하지 않는다"고 봅니다. 생성 모델이 **"검출 모델이 못 잡는 가짜"를 계속 학습해낼 수 있기 때문입니다.
그래서 제안하는 방식이 출처(프로버넌스) 기반 검증입니다.
모든 정치 광고 영상의 앞부분에 QR 코드를 넣고
스캔하면 해당 캠페인의 공식 웹사이트에 "동일한 영상"이 올라와 있어야 진짜로 인정하는 구조입니다.
브라우저가 이 과정을 자동으로 처리해 "검증됨/미검증" 정도를 표시해주는 방식이 현실적인 대안으로 제시됩니다.
이와 함께 "백신식 미디어 리터러시", 즉 선거 전에 의도적으로 고품질 가짜 영상들을 공개하고 마지막에 "이것은 가짜"라고 밝힘으로써 유권자의 경계심을 미리 끌어올리는 방식도 언급됩니다.
한편, 샌더스는 규제 논의와 함께 세금·공공투자 구조를 강하게 문제 삼습니다.
오늘의 AI 기술 상당 부분은 오랜 기간 세금으로 지원된 대학·기초 연구의 결과인데
막대한 과실은 결국 극소수 거대 기업 소유주에게 집중되는 구조입니다.
그럼에도 주류 담론은 "세금은 나쁘다"는 방향으로 흘러가고 있어, 공공 연구 기반 자체가 약화될 위험이 커지고 있다는 지적입니다.
AI와 정치 권력, 그리고 교육·복지 시스템의 방향
대담 후반부는 자연스럽게 정치 구조와 교육·복지 시스템으로 이어집니다.
첫째, 소수 부자에게 집중된 권력과 AI의 결합입니다.
샌더스가 반복해서 강조하는 지점은 단순합니다.
현재 AI와 로봇에 수백억·수천억 달러를 투자하는 사람들은 머스크, 베이조스, 저커버그, 오라클 창업자 등 세계 최고 부자들입니다.
이들이 투자하는 이유는 "노동자를 해방시키고 주 3일 근무·보편적 의료를 실현하기 위해서"가 아니라, 더 많은 이윤과 더 큰 지배력을 얻기 위해서일 가능성이 훨씬 큽니다.
미국의 정치 구조에서는 슈퍼 PAC 등 무제한 정치 자금을 통해 사실상 정치인을 사는 것이 가능하다는 비판도 덧붙습니다. 이 구조가 유지되는 한, AI 규제·분배 구조 역시 대기업과 초부유층에 유리한 방향으로 설계될 위험이 높습니다.
둘째, 교육 시스템의 취약성입니다.
샌더스는 미국 교육의 여러 지점을 동시에 짚습니다.
영유아(0~4세) 보육·교육은 가장 중요한 발달 시기이지만, 이 분야 종사자들은 패스트푸드 종사자보다 낮은 임금을 받는 경우가 많습니다.
국제 학업 성취도 평가에서 미국은 상위권이라고 보기 어렵고, 공교육 교사진은 과중한 업무·낮은 보상으로 우수 인재 유입이 갈수록 어려워지는 상황입니다.
고등·대학 교육 비용은 세계 최고 수준이고, 많은 학생들이 졸업과 동시에 막대한 학자금 부채를 짊어집니다.
이런 상태에서 AI가 교육을 강화하는 도구가 될지, 교육 격차를 더 벌리는 도구가 될지는 제도 설계에 달려 있습니다. 예를 들어, 어떤 도시는 무상 보육·무상 공립대 같은 정책을 논의하기만 해도 "급진적"이라는 공격을 받습니다. 하지만 힌턴의 표현대로라면, 장기적으로 국가 경쟁력을 지키려면 오히려 고등교육까지 세금으로 튼튼히 뒷받침하는 방향이 합리적입니다.
AI 시대를 바라보는 한 걸음 떨어진 시각
이 대담은 AI의 위험을 대체로 "강조하는 쪽"에 가깝지만, 몇 가지 점에서 짚고 넘어갈 부분도 있습니다.
첫째, "대량 실업"의 규모와 속도는 여전히 불확실합니다.
힌턴은 "새로운 일자리가 충분히 생기지 않을 것"이라고 강하게 예상하지만,
일부 경제학자들은 기술 도입 속도·규제·임금 구조에 따라 결과가 달라질 수 있다고 봅니다.
과거 기술혁명에서도 늘 "이번에는 다르다"는 주장이 있었고, 실제로는 일자리 구조가 바뀌되 총량은 유지되거나 증가한 사례도 많습니다.
물론 이번에는 지식노동까지 동시에 자동화된다는 점에서 과거와 다를 수 있지만, 적어도 단기(5~10년)와 중장기(20년 이상)를 구분해 논의할 필요가 있습니다.
둘째, AI 초지능과 통제 상실에 대한 설명은 현재 연구자들 사이에서도 의견이 갈리는 주제입니다.
힌턴은 "AI가 하위 목표로 자기 보존·권력 확대를 선택하고, 인간을 설득해 전원을 끄지 못하게 할 것"이라는 시나리오를 강조합니다.
반면 다른 연구자들은 구체적인 설계 방식과 거버넌스 체계에 따라 이 위험을 상당 부분 통제할 수 있다고 봅니다.
즉, "초지능이 반드시 사람을 속이고 지배하려 들 것"이라는 전제를 공유하지 않는 쪽도 상당합니다.
이 논쟁은 아직 검증 불가능한 미래 시나리오에 대한 철학·정책 논쟁 수준에 머물러 있으며, 일부 주장들은 정책 논의에 긴장감을 주는 데는 유용하지만, 그대로 확정된 미래로 받아들이기는 이른 단계입니다.
셋째, 규제 방향의 현실성입니다.
안전성 테스트와 바이오안보 규제, 출처 검증 강화 등은 비교적 현실적인 단기 조치로 보입니다.
다만, 국가 간 기술 경쟁 상황에서 너무 강한 규제가 자국 기업을 뒤처지게 만들 수 있다는 우려도 실제 정책 결정에서 크게 작용합니다.
또한, 딥페이크 출처 검증은 정치 광고·공적 발언에는 적용 가능성이 높지만, 개인 제작 콘텐츠, 해외 서버를 사용하는 익명 발신자에까지 동일한 수준의 통제를 가하기는 쉽지 않습니다.
마지막으로, 이 대담은 미국 정치 맥락에서 부의 극단적 집중과 세금·공공투자의 역할을 강하게 강조합니다. 이 부분은 각 국가의 정치·경제 구조에 따라 평가가 달라질 수 있지만, 최소한 한 가지는 분명해 보입니다.
AI가 가져올 생산성 향상과 부가 소수 기업·개인에게만 집중될 경우, 대량 실업·임금 정체·교육·보건 격차는 지속적으로 확대될 가능성이 큽니다.
반대로, 공공투자·조세·복지·노동정책을 통해 AI의 이익을 사회 전체에 분산시키는 방향이 마련된다면, 같은 기술이라도 "사람을 밀어내는 도구"가 아니라 "위험한 일을 대신 맡기는 도구"가 될 여지가 커집니다.
AI 자체가 선도 악도 아닙니다. 이 대담에서 가장 핵심적인 메시지는 아마도 이것에 가깝습니다.
"위험을 과소평가하지 말되, 기술 자체를 악마화하지도 말 것"
"누가 통제하고, 누가 이익을 가져가며, 그 과정에 얼마나 많은 사람이 목소리를 낼 수 있는지"가 결정적 변수라는 점입니다.
앞으로 AI 관련 정책·제품·서비스를 볼 때, 단순히 "편리해 보이는지"가 아니라 "권력·부·위험이 어디로 이동하는지"라는 관점에서 함께 살펴볼 필요가 있어 보입니다.
출처 및 참고 :
이 노트는 요약·비평·학습 목적으로 작성되었습니다. 저작권 문의가 있으시면 에서 알려주세요.
