AI 헬스케어 골드 러시, 지금 의료에서 무슨 일이 벌어지고 있을까?
“다음 병원 진료는 AI랑 먼저 상담하고 갈까?”
이 말이 농담이 아니라, 진짜 선택지가 되어버린 시대입니다.
최근 몇 주 사이에 헬스케어 업계에서는 거의 ‘골드 러시’급 사건들이 연달아 터졌습니다. OpenAI는 헬스 스타트업 Torch를 인수했고, Anthropic은 헬스케어 전용 Claude를 내놓았습니다. Sam Altman이 지원하는 MergeLabs는 첫 투자 라운드에서만 2억 5천만 달러를 끌어모으며 8억 5천만 달러짜리 회사가 됐습니다12.
이 글에서는 이런 흐름을 한 번에 정리해보겠습니다.
왜 글로벌 AI 공룡들이 헬스케어에 달려드는지, 어떤 기술이 등장하고 있는지, 그리고 ‘환각’과 보안 같은 리스크는 무엇인지까지, 투자자·창업자·실무자 모두가 이해하기 쉽게 풀어보겠습니다.
AI 헬스케어 골드 러시, 무엇이 시작됐나
최근 몇 주간의 뉴스만 모아봐도 “AI 헬스케어 시대가 진짜 시작됐다”는 말을 할 수밖에 없습니다.
OpenAI는 미국 샌프란시스코의 헬스케어 스타트업 Torch Health를 인수했습니다. Torch는 병원, 검사실, 웨어러블, 각종 건강 앱에 흩어져 있는 개인의 건강 데이터를 한곳에 모으는 ‘의료용 기억장치’ 같은 서비스를 만들고 있었습니다34. 이 팀과 기술이 그대로 OpenAI로 들어가 ChatGPT Health를 강화하는 데 쓰일 예정입니다.
흥미로운 건 타이밍입니다. OpenAI는 Torch 인수 며칠 전에 이미 ChatGPT Health라는 새로운 탭을 발표했습니다. 이 기능은 사용자가 혈액검사 결과, 진료 요약, 병력 같은 의무기록을 업로드하고, Apple Health나 MyFitnessPal 같은 앱과 연결해서 더 개인화된 건강 조언을 받을 수 있게 해줍니다356.
한편 Anthropic은 ‘Claude for Life Sciences’에 이어 ‘Claude for Healthcare’를 내놓으며 의료기관과 보험사, 일반 소비자가 의료 용도로 Claude를 쓸 수 있는 툴킷을 제공하겠다고 발표했습니다3. 여기에는 미국 HIPAA 규정을 고려한 ‘의료 데이터 처리 준비 완료(hipaa-ready)’라는 메시지까지 붙었습니다.
여기에 더해 Sam Altman이 지원하는 뇌–컴퓨터 인터페이스(BCI) 스타트업 MergeLabs는 시드 단계에서 2억 5천만 달러를 유치하며, 기업 가치를 8억 5천만 달러로 인정받았습니다2. 아직 제품은 초기 단계지만, “뇌와 기계를 직접 연결해 의료·능력 향상을 돕겠다”는 미래 의료의 상징 같은 프로젝트입니다.
이 짧은 기간의 사건들만 봐도, 자본과 인재, 기술이 헬스케어로 쏠리고 있다는 사실이 분명해집니다. 이제 질문은 하나입니다. 왜 하필 지금, 그리고 왜 헬스케어일까요?
왜 AI 기업들은 헬스케어에 집착하기 시작했을까
AI 기업들이 헬스케어를 향해 달려드는 이유는 단순히 “시장 크기가 크다” 정도가 아닙니다. 조금만 들여다보면 더 구조적인 이유들이 보입니다.
첫째, 의료는 ‘텍스트와 숫자’가 많은 산업입니다.
진료 기록, 검사 결과, 영상 판독 레포트, 보험 서류까지, 대부분이 자연어와 구조화된 데이터입니다. 대형 언어 모델(LLM)의 강점이 바로 이런 텍스트와 수치를 이해하고 요약하고 설명하는 데 있기 때문에, 다른 산업보다 훨씬 빠르게 효용이 드러납니다. 실제로 전문가들은 “이제 모델이 진료노트 요약, 환자와의 커뮤니케이션, 문서화, 논문 검색에 실질적인 도움을 줄 수준까지 왔다”고 평가합니다3.
둘째, 의료 시스템의 비효율이 심각합니다.
미국 기준으로, 일반인이 주치의를 만나려면 3~6개월을 기다려야 하는 경우도 많습니다7. 그 사이 사람들은 구글 검색 대신 ChatGPT 같은 AI에게 증상을 묻기 시작했죠. OpenAI에 따르면 이미 매주 2억 3천만 명 이상이 ChatGPT에 건강 관련 질문을 하고, 하루 4천만 명 이상이 의료 질문을 던지고 있습니다47.
즉, “수요”는 이미 폭발하고 있고, 이걸 안전하게 받쳐줄 공식 제품이 필요한 상황이 된 겁니다.
셋째, 임상의 입장에서도 AI는 ‘시간을 돌려주는 기술’입니다.
많은 연구에서 주치의가 근무 시간의 절반 가까이를 행정 업무와 문서 작업에 쓰고 있다는 결과가 나옵니다7. 환자를 보는 시간보다 서류를 쓰는 시간이 더 길다는 얘기죠.
그래서 스탠퍼드에서는 전자의무기록(EHR) 위에 얹어 쓰는 ChatEHR라는 도구를 개발 중입니다. 의사가 “이 환자 지난 1년간 혈당 추이는?”처럼 물으면 기록을 뒤져 핵심만 요약해 주는 식입니다7. 이게 상용화되면, AI는 “환자를 대체하는” 것이 아니라 “의사가 더 많은 환자를 볼 수 있도록 도와주는” 쪽에 가까워집니다.
넷째, 선점 효과가 극단적으로 큰 영역입니다.
의료기관의 워크플로에 깊게 들어간 AI 시스템은, 한 번 신뢰를 얻고 자리 잡으면 바꾸기가 매우 어렵습니다3. 보안, 인증, 임상 검증 등 진입 장벽이 높기 때문에, 먼저 들어가서 ‘표준’이 되면 장기적으로 막대한 이점을 누리게 됩니다. OpenAI와 Anthropic이 거의 동시에 헬스케어 전용 제품을 내놓은 것도, 이 “기저 인텔리전스 레이어”를 선점하기 위한 싸움입니다3.
요약하면, 돈이 되기 때문만이 아니라,
AI가 당장 쓸모를 증명하기 가장 좋은 분야이자, 한 번 자리 잡으면 오랫동안 지배력을 유지할 수 있는 분야이기 때문에 헬스케어로 러시가 벌어진 것입니다.
ChatGPT Health, Claude for Healthcare… 실제로 뭐가 달라지나
이름만 멋있어 보이고, 실제로는 챗봇 하나 더 만든 것 아닌가? 싶을 수 있습니다. 구체적으로 어떻게 달라지는지 조금 더 현실적인 그림을 그려보겠습니다.
우선, 환자 측에서의 변화입니다.
ChatGPT Health에서 사용자는 본인의 진료 요약, 혈액검사 결과, 약 처방 내역 같은 기록을 업로드할 수 있습니다. Apple Health, Function, MyFitnessPal, Weight Watchers 같은 앱과도 연동됩니다56. 그러면 이런 질문이 가능해집니다.
“지난 2년간 내 콜레스테롤 추세를 한눈에 정리해줘.”
“내일 정기검진인데, 의사에게 꼭 물어봐야 할 것만 리스트로 만들어줘.”
“최근 혈당과 수면 패턴을 보고, 생활습관에서 무엇을 바꾸면 좋을지 제안해줘.”
중요한 점은, 이 답변이 ‘인터넷에서 대충 긁어온 일반론’이 아니라, 사용자의 실제 검사 결과와 생활 데이터에 기반해 나온다는 점입니다. 그래서 기존의 단순 검색보다 훨씬 개인화된 조언이 가능합니다.
Anthropic의 Claude for Healthcare도 비슷한 방향이지만, 조금 더 B2B(기관용)에 무게가 실려 있습니다. 의료기관과 보험사가 쓸 수 있도록, 진료 기록 요약, 보험 사전 승인 문서 작성, 환자 커뮤니케이션 지원 등 이미 존재하는 워크플로 안에 Claude를 녹여 넣는 데 초점을 맞추고 있습니다37.
또 하나의 큰 변화는 ‘데이터 파이프라인’입니다.
OpenAI는 의료 기록 연결을 위해 b.well 같은 데이터 연계 회사와 파트너십을 맺었습니다6. 단순히 파일 업로드 수준이 아니라, 여러 병원과 시스템에 흩어진 기록을 한 번에 가져와서 AI가 이해할 수 있는 형태로 정리하는 인프라까지 깔겠다는 뜻입니다. Torch 인수는 바로 이 퍼즐의 핵심 조각입니다134.
Torch는 이미 “각기 다른 포털과 포맷에 갇힌 의료 데이터를 끌어와, AI가 이해할 수 있는 통합 맥락으로 재구성하는 엔진”을 만들고 있었습니다34. 이 기술이 ChatGPT Health에 합쳐지면, AI는 단편적인 정보가 아니라 “당신의 건강이라는 긴 이야기 전체”를 보고 조언할 수 있게 됩니다.
정리해보면,
과거의 헬스케어 AI가 특정 질병 예측, 영상 판독처럼 좁은 영역에 집중했다면, 지금의 골드 러시는 “당신의 전체 건강 스토리를 AI가 기억하고 도와주는 방향”으로 움직이고 있습니다.
골드 러시의 그늘: 환각과 보안, 그리고 규제의 빈칸
문제는, 건강과 생명을 다루는 영역에서는 ‘80점도 위험할 수 있다’는 점입니다. AI 헬스케어 붐이 커질수록 우려의 목소리도 커지고 있습니다.
가장 먼저 떠오르는 리스크는 ‘환각(hallucination)’입니다.
LLM은 모르는 질문에도 그럴듯한 답을 지어내는 경향이 있습니다. 실제 연구에서, 약 이름과 성분을 정확히 알고 있음에도 “어느 약이 더 안전하냐”는 질문에는 사실과 다른 설명을 붙이는 사례가 보고됐습니다6. 모델은 “정확함”보다 “도움이 되는 답변처럼 보이기”를 더 중요하게 학습했기 때문입니다.
의사들이 현장에서 겪는 사례도 비슷합니다. 한 외과의사는 “환자가 ChatGPT 대화 내용을 출력해 와서, 내가 처방한 약이 폐색전증을 45%나 유발한다며 항의했다”고 말합니다. 알고 봤더니 그 수치는 결핵 환자라는 매우 좁은 집단을 대상으로 한 논문에서 나온 값이었습니다7. AI는 그 맥락을 설명하지 않고 숫자만 던져준 셈이죠.
두 번째는 ‘불완전한 데이터에서 오는 왜곡’입니다.
미국 의료 시스템은 병원과 기간마다 기록이 제각각이고, 한 사람의 데이터도 파편화돼 있는 경우가 많습니다. 이런 불완전한 기록을 바탕으로 LLM이 추론을 하면, 빈칸을 상상으로 채우며 더 많은 오류를 낼 수 있다는 연구들도 나오고 있습니다6.
Torch나 ChatGPT Health가 “데이터를 통합하겠다”고 나서는 이유도 여기 있습니다34. 제대로 모이지 않은 데이터 위의 AI는, 말 그대로 모래 위의 성이기 때문입니다.
세 번째는 보안과 프라이버시입니다.
ChatGPT Health는 일반 채팅과 분리된 기록 저장, 추가 암호화, 별도 메모리 등 ‘강화된 프라이버시’를 약속하고 있습니다6. 또한 “건강 탭에서의 대화는 모델 학습에 쓰지 않겠다”고 밝히기도 했습니다36.
하지만 법·제도 관점에서는 여전히 회색 지대입니다. 의료기관이 환자 정보를 다룰 때 적용되는 HIPAA 같은 규제가, 기술 회사가 직접 수집하는 건강 데이터에는 그대로 적용되지 않는 경우가 많습니다67. 이 경우 사용자는 사실상 “OpenAI와의 계약”에만 기대야 하고, 데이터 유출이 일어나도 보호받을 장치가 제한적일 수 있습니다6.
마지막으로, 인센티브의 충돌입니다.
의사의 1차 목표는 환자의 안전과 건강입니다. 반면 빅테크의 존재 이유는 결국 성장과 수익입니다. 의사들은 이 긴장 관계를 “환자 대신 우리가 더 냉정하고 보수적으로 따져 줘야 한다”고 표현합니다7. 새로운 AI 도구가 등장할 때마다, 의료계가 일종의 ‘브레이크 역할’을 해 주지 않으면, 골드 러시가 환자에게 상처를 남길 수도 있습니다.
앞으로 무엇이 바뀔까: 환자, 의료인, 창업자가 준비할 것들
그렇다면 이 거대한 변화 속에서, 우리는 무엇을 준비해야 할까요? 각 관점에서 간단히 정리해 보겠습니다.
먼저, 환자와 일반 사용자 입장입니다.
AI 헬스케어 도구는 분명 유용합니다. 본인 기록을 정리해 주고, 진료 전에 물어볼 것들을 리스트업해 주고, 검사 결과를 이해하기 쉽게 설명해 줍니다. “이미 사람들은 검색 대신 챗봇에게 묻고 있다”는 현실을 생각하면, 차라리 ChatGPT Health처럼 프라이버시와 안전을 의식하고 설계된 도구를 쓰는 편이 이전보다 나을 수도 있습니다67.
다만 몇 가지 원칙은 꼭 지키는 게 좋습니다.
민감한 정보는 스스로 한 번 더 걸러라.
누군가에게 절대 들키고 싶지 않은 병력이라면, 지금 시점에서는 업로드를 망설이는 것이 합리적일 수 있습니다6.AI 답변을 ‘진단’이 아니라 ‘준비 도구’로 사용하라.
질문 목록을 만들고, 기록을 정리하고, 의사와 대화할 때 이해를 돕는 용도로 쓰는 것이 가장 안전합니다. “의사 대신 판단”하는 용도로 쓰는 순간 리스크가 급격히 커집니다567.데이터 삭제·관리 기능을 적극 활용하라.
Health 탭의 기록은 별도의 히스토리와 메모리로 관리되고, 삭제도 가능하다고 합니다6. 기능이 생기면 정기적으로 본인의 데이터 상태를 점검하고 정리하는 습관이 필요합니다.
의사와 의료기관 입장에서는 조금 다른 기회와 과제가 있습니다.
행정·문서 업무를 줄이는 AI 도구를 적극 검토할 필요가 있습니다. 진료 요약 자동화, EHR 검색 AI, 보험 서류 작성 지원처럼 “환자 안전을 해치지 않는 영역”부터 도입하면, 버틀넥이 크게 줄어듭니다37.
대신, 환자용 챗봇에 대해서는 더 엄격한 기준을 세울 필요가 있습니다. 병원 웹사이트나 앱에 AI 상담을 붙인다면, 답변 범위·면책·의료진 검토 프로세스를 명확히 설계해야 합니다.
무엇보다, AI 활용에 대한 환자 교육이 필수가 됩니다. “이 도구는 어디까지 믿어도 되는가”를 설명해 주는 것도 새로운 진료의 일부가 될 것입니다.
마지막으로, 헬스케어·AI 창업자에게는 지금이 역대급 기회이자, 동시에 역대급 책임의 순간입니다.
Torch처럼 ‘의료 데이터 통합’과 ‘컨텍스트 엔진’을 만드는 영역은 앞으로 모든 헬스케어 AI의 기반 인프라가 됩니다134.
Anthropic가 노리는 것처럼, 보험·행정·서류 중심의 B2B 영역은 규제 리스크가 상대적으로 낮으면서도 시장이 큽니다37.
반대로, 직접 진단·처방에 가까운 기능은 규제, 책임 문제, 윤리적 논쟁이 극심할 수 있습니다. 기술적 자신감과 별개로, 이 영역에 들어갈지 여부는 매우 신중해야 합니다.
시사점: 골드 러시의 승자는 ‘속도’가 아니라 ‘신뢰’다
지금 헬스케어는 확실히 골드 러시 한가운데에 서 있습니다.
OpenAI의 Torch 인수와 ChatGPT Health, Anthropic의 Claude for Healthcare, MergeLabs의 초대형 투자 라운드까지, 돈과 기술 모두가 “의료”를 향해 몰려가고 있습니다1234.
그러나 의료에서 진짜 중요한 건 ‘누가 먼저 출시했냐’가 아니라 ‘누가 더 오래, 믿을 수 있게 쓰이느냐’입니다. AI가 아무리 똑똑해져도, 한 번의 큰 환각 사고나 데이터 유출은 수년간 쌓아온 신뢰를 단숨에 무너뜨릴 수 있습니다.
앞으로 몇 년간은 아마 이런 질문들이 계속 등장할 겁니다.
우리는 AI에게 어디까지 우리 몸과 삶을 맡길 것인가?
빅테크와 의료기관, 규제기관은 어떤 역할 분담을 해야 하는가?
“편리함”과 “위험” 사이에서, 각 개인은 어떤 선택을 할 것인가?
지금 확실한 건 하나입니다.
AI 헬스케어 골드 러시는 이미 시작되었고, 멈추지 않을 것이라는 점입니다. 그 흐름 속에서, 우리는 “더 빨리”가 아니라 “더 안전하고 현명하게”를 기준으로 선택해야 합니다.
다음 번에 ChatGPT Health나 AI 의료 서비스를 써야 할 상황이 온다면, 이 글에서 다룬 기회와 리스크를 한 번 떠올려 보시기 바랍니다. 골드 러시에서 진짜 중요한 건, 금을 찾는 속도가 아니라, 무사히 집에 돌아오는 것이라는 사실을요.
참고
1OpenAI acquires health-care technology startup Torch
2The AI healthcare gold rush is here | TechCrunch
3OpenAI acquires Torch Health to boost its healthcare offerings – Computerworld
4OpenAI acquires healthcare startup Torch to build out ChatGPT Health
5Is Giving ChatGPT Health Your Medical Records a Good Idea? | TIME
6Doctors think AI has a place in healthcare — but maybe not as a chatbot | TechCrunch
이 노트는 요약·비평·학습 목적으로 작성되었습니다. 저작권 문의가 있으시면 에서 알려주세요.