메인 콘텐츠로 건너뛰기

나델라가 말한 AI의 진짜 문제: 기술이 아니라 ‘우리가’ 문제다

인공지능이 점점 똑똑해지고 있다는 말, 너무 많이 들으셨죠.
하지만 마이크로소프트 CEO 사티아 나델라는 전혀 다른 이야기를 합니다.

“AI의 진짜 문제는 능력이 아니다.
사람들이 아직 이걸 제대로 쓰는 법을 모른다는 게 문제다.”

그는 2026년을 기점으로 AI가 ‘발견 단계’를 지나 이제 본격적인 ‘대중 채택 단계’로 들어간다고 말합니다12.
그리고 지금 우리가 겪는 혼란의 핵심 개념으로 “모델 오버행(model overhang)”을 꺼내 듭니다.

이 글에서는 나델라의 주장과 함께:

  • ‘모델 오버행’이 뭔지

  • 왜 AI를 “채팅봇”이 아니라 “사고를 위한 발판”으로 봐야 하는지

  • 앞으로 AI가 모델에서 시스템으로 어떻게 진화할지

  • 우리가 개인·회사 단위에서 지금 당장 무엇을 바꿔야 할지

를 최대한 쉽고 현실적으로 풀어보겠습니다.


1. 나델라가 말한 ‘모델 오버행’이란 무엇인가

나델라는 지금 AI 업계를 “마라톤 초반 구간”에 비유합니다.
이미 엄청나게 빠르게 달려왔지만, 이게 끝이 아니라 이제 막 시작이라는 뜻이죠1.

여기서 등장하는 키워드가 바로 “모델 오버행(model overhang)”입니다12.

조금 과장해서 말하면 상황은 이렇습니다.

  • 이미 훈련된 AI 모델들은
    우리가 상상하는 것보다 훨씬 더 많은 능력을 갖고 있다.

  • 그런데 사람들과 조직은
    그 능력을 ‘어디에’, ‘어떻게’ 써야 하는지 아직 모른다.

  • 그래서 모델의 잠재력은 창고에 쌓여 있는 재고처럼 놀고 있다.

즉, “기술은 앞질러 가는데, 활용 능력과 시스템, 문화가 못 따라가는 상태”가 바로 모델 오버행입니다13.

이건 역사적으로도 자주 반복됐습니다.
인터넷 초기에도 “이걸로 뭘 하지?”라는 시기가 있었고, 스마트폰도 나왔을 때는 “전화 잘되는 비싼 장난감” 취급을 받았죠.

AI도 지금 그 과도기 한가운데 있습니다.
데모에서는 멋있게 돌아가는데, 내 팀의 매출·비용·업무 효율로 연결되는 사례는 아직 드물다고 느끼는 이유가 바로 여기에 있습니다34.

나델라의 메시지는 단순합니다.

더 똑똑한 모델이 필요한 게 아니라,
이미 있는 모델을 제대로 쓰는 법을 우리가 배워야 한다.


2. AI를 ‘채팅봇’으로만 보면 90%를 버리는 이유

사람들이 AI를 떠올릴 때 가장 먼저 생각하는 것이 뭘까요?
대부분 이렇게 끝납니다.

  • “검색 좀 더 잘 해주는 것”

  • “질문 던지면 글 써주는 챗봇”

나델라는 이 인식 자체가 문제라고 지적합니다.
지금의 AI는 이미 “여러 전문가가 몇 시간, 며칠 걸릴 복잡한 작업”도 수행할 수 있는 수준인데, 사람들은 여전히 “질문-답변 기계” 정도로만 본다는 거죠2.

예를 들어볼까요?

  • 10페이지 분량의 리포트를
    기획→자료정리→요약→슬라이드 구조 설계까지
    “한 번의 워크플로우”로 돌릴 수 있는데,

우리는 아직도:

  • “이 문장 좀 다듬어 줘”

  • “요약해 줘”

같은 단건 요청에만 쓰고 있는 경우가 많습니다.

이건 마치 엑셀을 계산기처럼만 쓰는 것과 비슷합니다.
피벗 테이블, 함수, 매크로를 쓰면 업무 구조 자체가 바뀔 수 있는데, 덧셈·뺄셈만 하는 수준에 머무는 거죠.

나델라가 말하는 건 아주 간단합니다.

AI를 ‘대화창’으로만 보지 말고
‘복잡한 일을 같이 하는 동료’로 바라보라.

관점이 바뀌면 질문도 달라집니다.

  • “이걸 대신 해줘”에서

  • “이 프로젝트 전체를 끝내기 위해 어떤 단계로 같이 일할까?”로.

이 차이가 바로 모델 오버행을 줄이는 첫걸음입니다.


3. ‘슬롭 vs 정교함’ 싸움은 버리고, AI를 ‘마음의 발판’으로 보기

요즘 AI 관련 기사에 자주 따라붙는 단어가 있습니다. “AI 슬롭(AI slop)”.
대량 복붙된 어설픈 AI 글, 엉성한 이미지, 품질 낮은 코드 같은 걸 싸잡아 부르는 표현입니다4.

나델라는 이 논쟁에 선을 그으면서, 이렇게 말합니다.

  • “슬롭이냐, 정교하냐”를 따지는 싸움에서 좀 벗어나자.

  • 중요한 건 ‘출력의 품질’이 아니라
    그 도구를 쓴 사람과 조직이 실제로 어떤 가치를 만들어내느냐다254.

그는 스티브 잡스가 했던 유명한 비유를 다시 꺼냅니다.
“컴퓨터는 ‘마음의 자전거’다.”

즉, 인간의 능력을 대체하는 게 아니라, 더 멀리, 더 빨리 가게 도와주는 도구라는 뜻이죠.

나델라는 여기에 한 발 더 나아갑니다.

  • AI는 이제 ‘마음의 자전거’를 넘어
    ‘인간 잠재력을 둘러싼 발판(scaffolding)’이 되어야 한다고 말합니다26.

  • 이건 단순 보조 도구가 아니라,
    우리가 생각하고 협업하고 일하는 방식을 전체적으로 받쳐주는 구조라는 의미입니다.

그리고 이런 시대에는 ‘이론의 마음(theory of mind)’도 새롭게 설계해야 한다고 주장합니다25.

조금 쉽게 풀면 이렇습니다.

  • 이제 사람들은 혼자 생각하지 않는다.
    AI라는 인지 증폭기를 끼고 생각한다.

  • 그 상태에서 우리가 서로 협업하고, 설득하고, 의사결정을 내리는 방식이
    과거와 같을 수 없다.

  • 그래서 제품 설계, 조직 문화, 교육, 규범 모두
    “사람 + AI” 조합을 기본값으로 다시 디자인해야 한다.

예를 들어, 회의 문화만 봐도 그렇습니다.

  • 과거: 사람이 직접 자료 조사→정리→회의 준비

  • 지금: AI가 핵심 자료·요약·논점 정리까지 미리 수행

  • 사람: 그 위에서 전략, 감각, 판단에 집중

이렇게 되면 “똑똑한 사람 + 똑똑한 AI” 조합을 전제로
회의 방식, 레포트 포맷, 의사결정 구조가 아예 새롭게 설계되어야 한다는 게 나델라의 생각입니다.


4. 2026년 이후, AI는 ‘모델’이 아니라 ‘시스템’ 싸움이 된다

지금까지 AI 경쟁은 대부분 “누가 더 큰 모델, 더 똑똑한 모델을 만들었냐”에 초점이 맞춰져 있었습니다.
하지만 나델라는 2026년 이후를 이렇게 봅니다.

승부는 ‘모델’이 아니라 ‘시스템’에서 난다136.

모델은 여전히 중요하지만, 실전에서는 이것만으로 부족합니다.
왜냐하면 지금의 모델들은 놀라운 능력과 동시에 “불규칙한 경계(jagged edges)”를 갖고 있기 때문입니다13.

  • 어떤 문제는 기가 막히게 풀다가

  • 아주 기초적인 부분에서 엉뚱한 답을 내기도 하고,

  • 특정 상황에서는 안전하게 행동하다가

  • 다른 상황에서는 기준을 넘나들기도 합니다.

그래서 나델라는 다음과 같은 “시스템 레벨”의 변화를 예측합니다1236.

첫째, 여러 모델과 에이전트가 ‘팀’처럼 움직이는 구조

  • 하나의 초거대 모델이 다 하는 게 아니라
    역할이 다른 여러 모델·에이전트가 협업

  • 예: 요약 담당, 검색 담당, 코드 담당, 검증 담당, 보안 담당 등

  • 시스템이 이들을 “오케스트레이션”하면서 최종 결과를 만들어냄

둘째, 기억과 권한(Entitlements)을 관리하는 두뇌

  • AI가 과거 맥락과 사용자 취향, 프로젝트 히스토리를 기억

  • 동시에 “어디까지 접근해도 되는가”라는 권한을 정교하게 통제

  • 즉, 똑똑한 비서이면서도 권한을 엄격히 구분하는 보안 시스템이 함께 동작

셋째, 안전한 도구 사용

  • AI가 직접 파일을 열고, 코드를 실행하고, API를 호출하는 시대

  • 이때 잘못된 명령이나 악의적 프롬프트로 인해
    중요한 시스템이 망가지지 않도록 ‘안전 장치’를 갖춘 도구 사용 구조가 필수12.

마이크로소프트는 이미 이를 전제로:

  • Copilot을 단순 “채팅창”이 아니라
    윈도우와 오피스 전체에 깔린 “지능 레이어”로 만들고 있고6,

  • Copilot Studio, Foundry 같은 플랫폼으로
    기업들이 자신만의 에이전트와 워크플로우를 만들 수 있도록 밀어붙이고 있습니다6.

결국 기업 입장에서 중요한 건
“어떤 모델을 쓰느냐”보다

  • 우리 데이터와 시스템에

  • 어떤 구조로 연결하고

  • 어떤 에이전트·워크플로우로

  • 어떤 거버넌스 아래 운영할 것인가

하는 문제로 옮겨가게 됩니다.


5. AI가 진짜 인정받으려면 ‘사람과 지구’를 살려야 한다

나델라는 마지막으로 아주 현실적인 이야기를 꺼냅니다.

AI가 사회에서 진짜로 환영받으려면,
몇 가지 조건이 충족되어야 합니다.

첫째, 에너지·컴퓨팅 파워·인재는 ‘희소 자원’이다

  • 초거대 모델 하나 훈련하는 데 들어가는 전기와 돈, 인력은 상상을 초월합니다.

  • 그래서 “어디에 AI를 쓸 것인가”는 이제
    기술이 아니라 전략이자 윤리의 문제라고 말합니다123.

둘째, ‘사람과 지구’를 위한 구체적 문제를 풀어야 한다

  • 단순히 “멋진 데모”, “편해진 생산성”을 넘어
    기후, 의료, 교육, 공공 서비스 등
    사람과 지구를 위한 실제 문제 해결에 AI를 투입해야 한다고 강조합니다1236.

셋째, 사회적 ‘허가’를 스스로 얻어야 한다

  • 나델라는 AI가 아직 사회로부터 완전한 “허가(permission)”를 받은 상태가 아니라고 말합니다5.

  • 신뢰·안전·공정성·프라이버시 문제에서
    충분히 책임 있는 모습을 보이지 못한다면,
    규제와 반발이 기술의 속도를 강하게 제어하게 될 것입니다.

그래서 그는 “어디에 에너지·컴퓨팅·인재를 투입할지에 대한 합의”가 중요하다고 강조합니다12.
이는 기업 내부 전략 회의의 주제가 아니라,
정부·학계·기업·시민사회가 함께 논의해야 할 사회적 어젠다라는 뜻입니다.


마무리: 지금 우리에게 필요한 건 ‘더 센 모델’이 아니라 ‘AI를 배우는 법’

나델라의 메시지를 한 줄로 요약하면 이렇습니다.

“AI는 충분히 세다.
이제 숙제는 모델이 아니라 우리에게 있다.”

그래서 개인, 팀, 회사 입장에서
지금 당장 해볼 수 있는 현실적인 변화 방향을 정리해 보겠습니다.

  1. AI를 ‘검색’이 아니라 ‘프로젝트 파트너’로 대하기

    • “이 문장 고쳐줘” 대신
      “이번 분기 리포트를 끝내기 위해 우리가 같이 해야 할 단계들을 설계해줘”처럼
      더 큰 단위의 일을 맡겨 보고, 여러 번의 왕복을 전제로 협업해 보세요.

  2. 한 가지 업무를 ‘끝까지 AI와 함께’ 해보기

    • 기획 → 조사 → 구조화 → 초안 작성 → 피드백 → 수정 → 요약 → 발표 자료

    • 이 전체를 하나의 AI 워크플로우로 만드는 연습을 해보면
      모델 오버행이 얼마나 심각한지, 동시에 얼마나 줄일 수 있는지 체감됩니다.

  3. 팀 단위로 ‘AI 활용 규칙’과 ‘금지선’을 함께 정하기

    • 어떤 데이터는 절대 외부 AI에 넣지 않는다.

    • 어떤 업무에서는 반드시 사람의 검증을 거친다.

    • 실패 사례와 성공 사례를 정기적으로 공유한다.
      이런 것들이 쌓여야 조직의 AI 활용 능력이 올라갑니다.

  4. “슬롭 vs 정교함” 논쟁보다
    “우리에게 실제로 무슨 가치가 생겼는가”를 기준으로 보기

    • AI가 만든 결과물이 조금 어설퍼도
      사람이 다듬었을 때 전체 시간을 절반으로 줄였다면,
      그건 이미 큰 성과입니다.

    • 반대로 아무리 고급 AI를 써도
      실제 매출·비용·품질에 변화가 없다면,
      거기야말로 진짜 ‘슬롭’일 수 있습니다.

AI 시대의 경쟁력은
“어떤 모델을 쓰느냐”보다
“그걸 활용해 어떤 시스템과 문화를 만들었느냐”에서 결정됩니다.

기술은 이미 충분히 앞서 있습니다.
이제 남은 건, 우리가 배우고 바꾸는 일뿐입니다.


참고

1Satya Nadella warns of ‘model overhang’ in 2026, says AI capabilities outpacing real-world impact

2Microsoft CEO Nadella argues AI's real problem isn't capability but that people haven't learned to use it yet

3Satya Nadella on AI in 2026: We will evolve from models to systems

6Microsoft CEO Satya Nadella says 2026 is the year AI must move beyond ‘slop vs sophistication’

#AI뉴스#인공지능

이 노트는 요약·비평·학습 목적으로 작성되었습니다. 저작권 문의가 있으시면 에서 알려주세요.