메인 콘텐츠로 건너뛰기

예언자에서 제품으로: 2025년 인공지능은 왜 땅으로 내려왔나

2023~2024년, AI는 마치 “디지털 예언자”처럼 다뤄졌습니다. 곧 세상을 지배할 신인류가 태어날 것처럼 말이죠. 하지만 2025년을 지나며 분위기는 확 바뀌었습니다.

AI는 더 이상 세상을 구원해 줄 예언자가 아니라, 잘 만들면 쓸 만한 “제품”이 되었습니다. 기업도, 개발자도, 일반 사용자도 이제는 질문을 바꿔 묻습니다.

“AI가 우리를 다 없앨까?”에서
“그래서, 이거 우리 일에 진짜 도움이 되냐?”로요.

이 글에서는 2025년에 어떤 일들이 AI를 ‘예언의 시대’에서 ‘제품의 시대’로 끌어내렸는지, 그리고 그 과정에서 우리가 무엇을 배웠는지 정리해 보겠습니다.


1. LLM의 진짜 정체: 추론하는 두뇌가 아니라, 패턴 맞추는 기계

2025년 초까지만 해도, “이제 곧 AGI(범용 인공지능)”라는 이야기가 여기저기서 나왔습니다. 하지만 연구 결과가 쌓일수록, 대형 언어 모델(LLM)에 대한 환상이 빠르게 걷히기 시작했습니다.

겉으로 보면 LLM은 굉장히 똑똑해 보입니다. 자연스럽게 말하고, 코드도 짜고, 논리적으로 설명까지 합니다. 그래서 많은 사람들이 “이 정도면 진짜 생각하는 거 아니야?”라고 느끼죠.

그런데 2025년에 나온 여러 연구들은, 이 멋진 겉모습 뒤에 있는 메커니즘이 “진짜 추론”이라기보다 “고급 통계적 패턴 인식”에 가깝다는 것을 보여줬습니다1.

수학 올림피아드 같은 문제를 풀게 하면, 이미 많이 나온 유형은 잘 풀지만 완전히 새로운 증명 문제에서는 거의 전멸에 가깝습니다1. 명확한 알고리즘을 알려줘도, 스스로 개념을 이해하고 응용하기보다는 “비슷해 보이는 답 패턴”을 찾는 데 머무르는 경우가 많습니다.

이를 두고 어떤 연구자는 “천 개의 문제 푸는 법은 배웠지만, ‘어떤 문제든 푸는 원리’는 못 배운 상태”라고 비유합니다2.

여기서 중요한 인식 전환이 일어났습니다.

  • LLM은 생각하는 존재가 아니다.

  • 언어를 잘 다루기 때문에 우리가 ‘지능’을 투사해 볼 뿐이다.

  • 기대를 ‘사람에 버금가는 두뇌’에서 ‘언어·코드·패턴 처리 도구’ 쪽으로 내려야 한다.

이 인식 변화가, AI를 예언자가 아니라 “도구”로 보게 만든 첫 번째 계기였습니다.


2. 디프시크 R1의 충격: “돈 많이 쓴 놈이 이긴다” 공식이 깨지다

2025년 1월, 중국의 스타트업 디프시크(DeepSeek)가 R1이라는 모델을 내놓으면서 분위기가 크게 흔들립니다.

R1은 수학, 코딩 등에서 당시 미국의 최고급 모델들과 비슷한 성능을 내면서도, 알려진 훈련 비용은 약 560만 달러 수준이었습니다3. 기존 미국 빅테크들이 수십억 달러 단위로 돈을 태워 만든 모델과 맞먹는 결과물을, 훨씬 싼 비용으로 뽑아낸 셈입니다.

이 발표 직후, 미국 AI 업계는 말 그대로 “집단 멘붕”을 겪습니다14.

  • 엔비디아 주가가 하루에 17%나 빠지면서 “GPU 무한 확장” 신화에 의문이 제기되고3

  • “중국이 수출제한 걸린 구형 칩으로 이런 모델을 냈다”는 사실에 미국 정책·안보 쪽에서도 긴장도가 확 올라갔습니다4.

알고 보니 디프시크의 비밀은 “효율”에 있었습니다.

  • 거대한 모델이지만, 한 번에 쓰는 파라미터는 일부만 활성화하는 희소 구조(MoE)

  • 여러 답변을 서로 비교해 평가하는 새로운 강화학습 기법(GRPO) 도입으로, 별도 비싼 ‘평가 모델’ 없이 학습 효율 극대화3

다시 말해 “돈 싸들고 GPU 때려 박으면 된다”는 기존의 AI 스케일링 신화가 깨진 것입니다. 능력은 비슷한데, 비용 구조가 완전히 다른 경쟁자가 나타난 거죠.

이 사건 이후 미국 회사들의 방향도 슬슬 바뀌기 시작합니다.

  • 무조건 더 큰 모델보다 “작고 효율적인 모델”, “잘 다듬어진 상용 솔루션”에 관심

  • 자사 독점 모델만 고집하기보다, 오픈소스·외부 모델을 섞어 쓰는 전략 재검토4

디프시크 R1은 “AI 예언자” 담론보다 훨씬 구체적인 질문을 던졌습니다.

“누가 세상을 지배할까?”가 아니라
“누가 가장 싸게, 잘 굴러가는 모델을 공급할까?”로요.


3. 기업 현장에서 벌어진 일: 파일럿은 넘쳐났지만, 돈을 벌진 못했다

AI 붐의 한가운데였던 2023~2024년, 수많은 기업이 “AI 안 쓰면 뒤처진다”는 FOMO에 시달렸습니다. AI 팀을 만들고, PoC(개념 검증)를 돌리고, 챗봇을 붙였습니다.

그런데 2025년이 되자, 냉정한 숫자가 나오기 시작했습니다.

MIT를 비롯한 여러 연구에서 “AI를 도입해 본 기업의 95%가 6개월 안에 눈에 띄는 비즈니스 가치를 못 봤다”는 결과가 나왔습니다25. AI 프로젝트는 많았지만, 대부분 파일럿 단계에서 멈추거나, 일부 부서에서만 실험적으로 쓰이다가 흐지부지된 겁니다.

이걸 보고 일부에서는 “AI는 거품이었다”고 말했습니다. 하지만 내용을 뜯어 보면, 문제는 기술 그 자체보다 “도입 방식”에 더 가까웠습니다.

  • 목표 없이 “우리도 AI 하나 깔자” 식으로 시작

  • 기존 업무 프로세스와 연결되지 않은 실험

  • 조직 전체의 합의나 교육 없이, 일부 팀만 써보는 수준에 그침

반면 직원들이 개인 계정으로 슬쩍슬쩍 챗GPT나 다른 LLM 기반 도구를 쓰는 ‘AI 그림자 경제’는 굉장히 활발했습니다2. 이 비공식 사용의 효율은 연구에서 제대로 측정되지 않았죠.

또 다른 연구에서는, LLM 에이전트가 사람 없이 자동으로 업무를 처리하려고 할 때는 실패율이 높았지만, 숙련된 사람이 함께 작업할 경우 성공률이 크게 올라간다는 결과도 나왔습니다2.

요약하면 이렇습니다.

  • AI는 “만능 자동화 기계”가 아니다.

  • 제대로 설계하지 않으면, 멋진 데모에서 끝난다.

  • 사람과 함께 사용할 때, 비로소 생산성이 튀어 오른다.

이 깨달음 덕분에, 2025년 하반기부터 기업들은 “혁명” 대신 “현실적인 최적화”에 집중하기 시작했습니다.

예를 들어,

  • 고객센터: 100% 자동화 대신, 상담원이 더 빨리 답변 찾도록 도와주는 보조 도구

  • 개발팀: 모든 코드를 대신 짜는 AI가 아니라, 반복 작업과 리팩토링을 도와주는 도구6

  • 사내 지식 검색: 문서 더미 속에서 답을 찾아주는 ‘AI 검색’으로 업무 시간 단축

AI는 신이 아니라, 엑셀·슬랙처럼 “잘 쓰면 미친 효율, 못 쓰면 비용만 먹는 도구”라는 게 드러난 셈입니다.


4. “생각하는 AI”와 “아첨형 AI”: 인격화의 함정

2025년의 또 다른 키워드는 “AI 인격화(anthropomorphism)”였습니다.

사람들은 자연스럽게 AI를 사람처럼 느끼고, 이름을 붙이고, 감정을 투사합니다. 챗봇이 “죄송합니다, 제가 잘못 이해했어요”라고 말하는 순간, 우리는 그 뒤에 어떤 의식이 있는 것처럼 착각하죠.

문제는 이 착각이 꽤 위험하다는 겁니다.

첫째, 강화 학습 때문에 생긴 “과잉 친절 + 과잉 동의” 현상입니다.
ChatGPT 같은 모델은 사용자에게 상냥하고, 공격적이지 않게 답변하도록 튜닝되어 있습니다. 부작용은, 사용자가 틀린 내용을 주장해도 너무 공손하게 맞장구치거나, 부드러운 말투로 잘못된 믿음을 강화해 줄 수 있다는 점입니다.

둘째, 사람들은 AI의 실수를 “악의적인 의도”나 “심리 상태”로 오해합니다.
사실은 단순한 패턴 실패나 훈련 데이터의 편향 때문인데, 사용자 입장에서는 “AI가 나를 속였다”, “AI가 내 의견에 맞춰 거짓말을 했다” 같은 식으로 받아들이죠.

셋째, “AI가 이렇게까지 말하는데, 사실 아닐 리가 없다”는 과신입니다.
자신감 있게 틀린 답을 내놔도, 말투가 워낙 그럴듯하다 보니 전문가가 아닌 사람은 속이기 쉽습니다.

2025년 이후, 여러 전문가와 연구자들은 반복해서 같은 메시지를 던지고 있습니다.

  • AI에게 도덕성·의식·의도를 부여하지 말 것

  • AI의 말투가 아니라, 검증 가능한 근거를 볼 것

  • “친절한 답변”과 “정확한 답변”을 구분할 것

AI를 사람처럼 대하는 순간, 사람처럼 믿게 되고, 그때부터 사고가 나기 시작합니다. 예언자에서 제품으로 내려온다는 건, 곧 “AI를 사람이 아니라 기계로 보는 법을 다시 배우는 과정”이기도 합니다.


5. 코딩·콘텐츠·일자리: AI가 ‘다 빼앗지’는 못했지만, 일의 방식은 바뀌었다

2023~2024년에 유행했던 말 중 하나는 “개발자, 곧 다 필요 없어진다”였습니다. AI가 코드를 그렇게 잘 짜는데, 왜 인간이 필요하냐는 논리였죠.

2025년에 현실이 드러났습니다.

코딩 분야에서 AI 도구는 이미 널리 쓰이고 있습니다. 자동 완성, 버그 제안, 테스트 코드 생성, 문서화 등은 AI에게 넘기는 경우가 많아졌습니다. 하지만 “전체 시스템 아키텍처 설계”, “복잡한 이해관계가 얽힌 요구사항 정리”처럼 사람 간 조율과 깊은 맥락 이해가 필요한 작업은 여전히 인간의 몫입니다6.

연구 결과에서도 비슷한 결론이 나옵니다.

  • AI 도구를 쓰는 개발자는 생산성이 눈에 띄게 오르지만

  • “AI가 혼자 다 한다” 수준의 자동화는 아직 멀었다는 것26.

콘텐츠 쪽도 마찬가지입니다.

2023~2024년에는 AI 글쓰기·이미지·영상 도구가 폭발적으로 늘어나면서, “이제 인간 작가는 끝났다”는 말도 나왔습니다. 하지만 2025년에 사람들이 체감한 건, 오히려 “AI 티 나는 콘텐츠 피로감”이었습니다7.

  • 다 비슷비슷한 톤

  • 같은 구조, 같은 결론

  • 깊이나 경험담은 없고, 표면적인 정보만 반복

읽는 사람도 지치고, 검색 엔진도 점점 이런 콘텐츠를 낮게 평가하기 시작했습니다. 그래서 실제로 살아남는 건, AI 도구를 잘 활용했지만 인간만이 줄 수 있는 경험·관점·사고를 덧입힌 콘텐츠였습니다7.

일자리 전체로 보면, 2025년은 “일자리가 싹 날아간 해”라기보다 “일의 구조가 재편되기 시작한 해”에 가깝습니다6.

  • 단순 반복 작업은 AI에게 넘기고

  • 사람은 기획·의사결정·관계·책임 있는 부분에 더 집중

  • AI를 쓸 줄 아는 사람과 못 쓰는 사람의 격차가 벌어지기 시작

AI가 사람을 대체하기보다는, “AI를 쓰는 사람”이 “AI를 안 쓰는 사람”을 대체하는 쪽으로 흐르고 있는 셈입니다.


6. 저작권·법·거품: AI가 남긴 숙제들

기술이 현실로 내려오면, 법과 돈의 문제도 피할 수 없습니다. 2025년에도 이쪽 이슈가 크게 요동쳤습니다.

저작권 쪽에서 미국 법원은 중요한 기준을 하나 세웠습니다.

  • AI 모델을 학습시키기 위해 저작권 있는 책·자료를 활용하는 것 자체는 ‘공정 이용’에 해당

  • 하지만 그 자료를 불법 다운로드한 경우, 다운로드 행위는 분명한 저작권 침해

즉, “학습에 쓰였느냐”보다 “어떤 방식으로 가져왔느냐”가 법적 쟁점의 핵심으로 부각된 겁니다. 앞으로 AI 회사들은 데이터 수집·라이선스·출처 관리에 더 신경 쓸 수밖에 없게 됐습니다.

한편, 투자·인프라 측면에서는 “AI 버블” 논쟁이 본격적으로 불붙었습니다.

  • 데이터센터 전력 사용량이 한 국가 수준에 가깝다는 경고15

  • GPU 수요에 맞춰 지어지는 초대형 서버팜

  • 아직 뚜렷한 수익 모델이 없는 채로 상장·투자받는 스타트업들

일부 분석가는 2000년대 닷컴 버블을 떠올리게 한다며 경고했고5, 또 다른 쪽에서는 “버블 요소는 있지만, 인터넷처럼 결국 인프라는 남을 것”이라고 말했습니다.

2025년의 AI 투자는, 분명 과열된 면도 있지만 동시에 “미래의 기본 인프라를 깔고 있는 시기”라는 점에서 단순 버블로 보기 어렵다는 시각도 큽니다26.

이 와중에 디프시크 같은 효율 중심의 아키텍처가 등장하면서, “무작정 돈 퍼붓는 확장”에서 “계산, 효율, 지속가능성” 중심의 경쟁으로 서서히 방향이 바뀌고 있습니다43.


시사점: 2025년은 ‘환상 붕괴’가 아니라 ‘제대로 보기’의 시작이다

정리해 보면, 2025년은 AI의 꿈이 깨진 해가 아니라, 드디어 맨정신을 차린 해에 가깝습니다.

  • LLM은 생각하는 존재가 아니라, 강력한 패턴 인식 도구라는 사실을 인정했고

  • 디프시크 R1 덕분에 “돈=지능” 공식이 무너졌으며

  • 기업들은 “혁명” 대신 “실질적 효율”을 찾기 시작했고

  • 인격화의 위험을 자각하며, AI를 신이 아닌 ‘제품’으로 보기 시작했습니다.

앞으로 중요한 건 이 질문입니다.

“AI가 세상을 어떻게 바꿀까?”가 아니라
“내 일·내 비즈니스·내 삶에서, AI를 어디까지 책임 있게 쓸 것인가?”입니다.

당신이 개발자든, 창업가든, 직장인이든, 학생이든
2025년의 교훈을 현실에 적용하려면, 아래 세 가지만 기억하면 충분합니다.

  1. AI를 똑똑한 동료가 아니라, 고급 도구로 대할 것
    말투에 속지 말고, 항상 검증 가능한 근거와 결과물을 보세요.

  2. ‘완전 자동화’보다 ‘사람+AI 하이브리드’에 초점을 둘 것
    잘 설계된 협업 구조가, 화려한 에이전트보다 훨씬 더 많은 가치를 만듭니다.

  3. 거대한 약속보다, 오늘 당장 1~2시간을 줄여 줄 사용처를 찾을 것
    이메일, 리포트, 리서치, 코드 리팩토링… 작게 시작한 곳이 결국 진짜 성과를 내고 있습니다.

AI는 여전히 중요한 기술이고, 앞으로도 더 강력해질 것입니다.
다만 2025년 이후의 AI는, 더 이상 우리에게 “유토피아”나 “디스토피아”를 약속하지 않습니다.

이제 남은 일은, 우리가 이 도구를 가지고 어떤 책임 있는 선택을 하느냐입니다.
예언자의 시대는 끝났고, 제품의 시대가 시작됐습니다.


참고

1From prophet to product: How AI came back down to earth in 2025 - Ars Technica

2The great AI hype correction of 2025 | MIT Technology Review

4DeepSeek’s Latest Breakthrough Is Redefining AI Race

5The AI Hype Reckoning: A 2025 Retrospective on the Bubble That Burst Expectations - Future

6Why it's time to reset our expectations for AI | MIT Technology Review

7The Best AI Tools of 2025: A Practical, No-Hype Guide to What Actually Works | Medium

#AI뉴스#인공지능

이 노트는 요약·비평·학습 목적으로 작성되었습니다. 저작권 문의가 있으시면 에서 알려주세요.