구글 MedGemma 1.5: CT·MRI까지 읽는 오픈소스 의료 AI의 등장
병원 CT, MRI 장비 옆에 작은 PC 한 대가 놓여 있고, 거기서 돌아가는 오픈소스 AI가 3D 영상을 함께 읽어주는 시대. 공상과학 같지만, 구글이 공개한 MedGemma 1.5는 이 그림을 꽤 현실로 끌어당긴 모델입니다.
이번 글에서는 MedGemma 1.5와 의료 음성 인식 모델 MedASR이 무엇이고, 기존 의료 AI와 뭐가 다른지, 실제 병원·헬스케어 스타트업에서는 어떻게 쓸 수 있을지까지 한 번에 정리해 보겠습니다.
MedGemma 1.5 한 줄 정의: “3D CT와 MRI를 읽는 첫 오픈 의료 LLM”
MedGemma 1.5는 구글이 공개한 오픈소스 의료 특화 AI 모델입니다. 핵심은 두 가지입니다.
첫째, 기존 오픈 모델이 잘 못 다루던 3D 의료 영상(CT, MRI, 병리 슬라이드)을 한 번에 볼 수 있는 최초의 공개 모델이라는 점1.
둘째, 텍스트·이미지·음성까지 한 번에 다루는 “의료용 멀티모달” 기반이라는 점입니다12.
이 모델이 재미있는 이유는, 단순히 “정확도가 조금 올랐다” 수준이 아니라, 아예 다루는 데이터의 차원이 바뀌었다는 데 있습니다. 이전 MedGemma 1.0이 주로 X-ray나 피부 사진 같은 2D 이미지에 머물렀다면3, 1.5에서는 CT·MRI 전체 볼륨과 병리 슬라이드를 통째로 받아들입니다12.
거기에 더해, 구글은 의료 음성 인식 전용 모델 MedASR까지 함께 공개했습니다. 이 둘을 조합하면 “말로 묻고, 3D 영상과 텍스트를 동시에 이해하는 의료 AI”가 기본 구성이 됩니다14.
3D CT·MRI까지 보는 MedGemma 1.5의 기술적 도약
의료 영상 쪽에서 MedGemma 1.5의 변화는 꽤 큽니다.
예전 방식은 CT, MRI를 “슬라이스 한 장씩” 모델에 넣고 따로따로 분석하는 식이었습니다. 사람으로 치면, MRI 필름을 잘라서 한 장씩 보여주고 “대충 전체 상황이 어때 보여?”라고 묻는 셈이죠. 당연히 정보가 많이 사라집니다.
MedGemma 1.5는 이걸 통째로 바꿉니다. CT·MRI 전체 볼륨 데이터를 한 번에 넣고, 모든 층을 동시에 고려해 분석합니다14. 병리학(whole-slide histopathology)에서도 여러 패치를 함께 보며 상관관계를 찾습니다12.
구체적인 수치를 보면 성능 향상 폭을 가늠할 수 있습니다.
CT 질환 분류 정확도: 58% → 61%로 상승13
MRI 질환 분류 정확도: 51% → 약 65%로 14%p 상승13
해부학적 위치 찾기(Anatomical localization): 3% → 38%로 대폭 상승1
특히 마지막 수치가 의미심장합니다. 단순히 “이상 소견이 있다/없다”를 넘어, “어디에 문제가 있는지”를 좌표나 영역으로 표시하는 능력이 크게 좋아졌다는 뜻입니다. 실제 임상에서는 위치 정확도가 진단보다 더 중요할 때도 많기 때문에, 이 부분은 개발자 입장에서 응용 여지가 큽니다.
영상 쪽에서 또 하나 중요한 변화는 “시계열(타임 시리즈)”입니다. MedGemma 1.5는 시간 순서대로 찍힌 흉부 X-ray를 비교해, 이전 검사와 지금 검사가 어떻게 달라졌는지 보는 능력이 향상됐습니다32. 환자 경과 관찰이나 치료 반응 평가에 바로 연결되는 부분입니다.
물론, 아직 완성된 의료 기기 수준은 아니며, 구글도 “내부 벤치마크 기준”이라고 공식적으로 선을 긋고 있습니다13. 61%, 65%라는 숫자를 “AI가 사람을 완전히 대체한다”로 읽으면 안 되고, “파운데이션 모델로서 개발자가 얹어서 쓸 수 있는 출발점” 정도로 보는 게 맞습니다.
텍스트·EHR·랩 리포트: 문서 작업도 AI에게 미룰 수 있을까?
MedGemma 1.5는 영상만 보는 모델이 아닙니다. 원래 텍스트에 강했던 모델이라, 의료 문서·전자 차트(EHR) 쪽에서도 성능이 꽤 올라갔습니다.
대표적인 지표만 보면 다음과 같습니다.
의료 지식·추론 평가인 MedQA 점수: 64% → 69%1
전자 환자 기록(EHR)에서 정보 추출 정확도: 68% → 90%1
랩 리포트(검사 결과표) 추출·정리 정확도도 이전 버전 대비 뚜렷하게 상승42
EHR 추출 90%는 의미가 큽니다. 병원 현장에서 가장 지루하면서도 까다로운 일이 바로 “차트에서 필요한 정보만 뽑아서 요약하는 작업”이기 때문입니다. 예를 들어 이런 흐름이 가능합니다.
의사나 코디네이터가 “지난 1년간 이 환자의 신장 기능 관련 수치만 모아 줘”라고 요청
MedGemma 1.5가 EHR, 랩 리포트에서 관련 수치를 추출
그래프로 정리하거나, 간단한 요약 리포트 작성
또한 MedGemma 1.5는 텍스트 질의응답(EHR QA)에서도 이전보다 22%p 향상된 점수를 기록했습니다2. 이 말은, “이 환자는 최근 어떤 항생제에 알레르기를 보였어?” 같은 질문에, 차트 전체를 뒤져 상당히 정확한 답변을 찾아줄 수 있다는 뜻입니다.
요약하자면, 이 모델 하나로:
CT·MRI·X-ray 영상
병리 슬라이드 이미지
전자 차트(EHR), 랩 리포트, 서술형 진료 기록
을 한 번에 다루는 “올인원 의료 데이터 엔진”을 만들 수 있게 된 셈입니다.
MedASR: Whisper를 크게 앞선 의료용 음성 인식
의료 현장은 의외로 “타이핑보다 말”이 더 많이 쓰입니다. 의사들이 검사 소견, 진료 내용을 빠르게 남길 때는 여전히 “구술”이 더 효율적이기 때문이죠. 문제는 일반 음성 인식 모델이 의료 용어에 너무 약하다는 점입니다.
구글이 함께 공개한 MedASR은 이 지점을 정면으로 겨냥한 의료 특화 음성 인식 모델입니다. 내부 비교 결과를 보면:
흉부 X-ray 판독 구술: Whisper large-v3 대비 오류 58% 감소134
다양한 의료 구술 전체: Whisper 대비 오류 82% 감소 (WER 28.2% → 5.2% 수준)13
여기서 WER 28.2%는 “4단어 중 1단어는 틀린다”는 의미라, 의료 문서에는 사실상 쓸 수 없는 수준입니다. 반면 5%대는 사람의 빠른 타이핑보다 실수 비율이 낮을 수 있는 구간입니다32.
실제 활용 시나리오를 그려보면 이렇습니다.
의사: “양측 하엽에 경도의 간유리 음영, 폐렴 의심. 3일 후 재촬영 권고.”
MedASR: 이 긴 문장을 의료 용어까지 정확하게 받아 적음
MedGemma: 같은 환자의 CT 볼륨을 분석해, 시각적 소견과 음성 기록을 연동해 리포트 작성
즉, MedASR은 단순한 “의료용 구글 음성 입력기”가 아니라, MedGemma와 연결되는 음성 인터페이스이기도 합니다142. 키보드 대신 마이크로 의료 AI를 조작하는 시대의 시작점인 셈입니다.
오픈소스지만 “그냥 쓰면 안 되는” 규제와 책임 문제
이쯤에서 가장 중요한 현실적인 질문이 나옵니다.
“이거 그냥 병원에서 깔아서 환자 진단에 써도 되나?”
정답은 “아니다”에 가깝습니다.
MedGemma 1.5와 MedASR은 코드와 가중치가 공개된 오픈 모델이지만, 일반적인 Apache 2.0만으로 끝나지 않습니다. 구글은 별도의 “Health AI Developer Foundations Terms of Use”라는 라이선스를 붙여, 의료 영역에서의 사용을 강하게 제한하고 있습니다15.
핵심 요지는 다음과 같습니다.
모델 출력 결과를 “직접적인 진단·치료 결정”에 사용하려면 각국 규제기관(예: 의료기기 인허가)의 승인을 받아야 합니다1.
MedGemma를 기반으로 만든 2차 제품도 같은 제한 조건을 그대로 따라야 합니다.
구글은 어떠한 의료적 책임도 지지 않으며, 사용자는 결과 활용에 대한 전적인 책임을 진다는 점을 명시합니다1.
즉, 지금 단계의 MedGemma는:
연구용
프로토타입 개발용
의사 보조용(참고 의견, 초안 작성, 문서 정리 등)
으로 쓰는 것은 가능하지만, “AI가 진단 내리고, 그 결과로 바로 수술·처방 결정”을 하는 시스템에 그대로 올리면 규제 위반이 될 수 있습니다. 이 점은 의료기관, 헬스케어 스타트업 모두 꼭 체크해야 합니다.
실제 활용 사례와 병원·스타트업을 위한 기회
이미 몇몇 기관은 MedGemma 기반 서비스를 실제로 돌려보고 있습니다.
말레이시아에서는 Qmed Asia가 MedGemma를 활용해 askCPG라는 서비스를 만들었습니다. 150개가 넘는 임상 진료 지침을 챗봇 형태로 질의응답할 수 있게 한 것으로, “진료 가이드라인 내비게이션 AI”에 가깝습니다14. 영상 진단이 아니라, 텍스트 지식 기반에서 실용적인 가치를 뽑아낸 사례입니다.
대만의 국민건강보험청(NHIA)은 MedGemma로 3만 건이 넘는 폐암 수술 관련 병리 보고서를 분석해, 정책·수술 의사결정에 필요한 인사이트를 얻는 데 활용했습니다134. 이 역시 “개별 환자 진단”보다는 “정책·연구 레벨 분석”에 쓰인 점이 인상적입니다.
이 두 사례는 앞으로의 방향을 꽤 잘 보여줍니다.
단기적으로는
가이드라인·논문·차트 요약
과거 기록 일괄 분석
행정·정책·연구용 데이터 인사이트 발굴
같은 간접적·보조적 용도가 먼저 확산될 가능성이 큽니다.
중기에는
영상 판독 초안 작성
병력·영상·랩 데이터 통합 요약
진료 후 설명 자료 자동 생성
같이 “의사가 최종 확인하는 보조 도구”가 자리 잡을 수 있습니다.
기술적으로는 MedGemma 1.5 4B가 비교적 작은 모델이라, 병원 내부 서버나 온프레미스 환경에서 돌리기 수월합니다3. 개인정보(특히 의료정보)를 외부로 보내기 어려운 기관 입장에서는 상당히 매력적인 지점입니다.
또 구글은 MedGemma Impact Challenge라는 대회까지 열어 10만 달러 규모의 상금을 걸고, 이 생태계를 키우려 하고 있습니다34. 오픈AI의 ChatGPT Health, Anthropic의 Claude for Healthcare 등과 함께, “의료 AI 플랫폼 전쟁”이 본격적으로 시작된 모양새입니다132.
시사점 및 개발자·의료기관을 위한 제안
정리해 보면, MedGemma 1.5와 MedASR은 의료 AI에서 세 가지 큰 흐름을 상징합니다.
2D에서 3D·시계열·다중모달로의 확장
텍스트·영상·음성을 아우르는 “의료 전용 파운데이션 모델”의 등장
폐쇄형 SaaS 대신, 각 기관이 자체 튜닝·배포할 수 있는 오픈소스/오픈웨이트 모델의 부상
개인적인 견해를 덧붙이면, 지금 시점에서 이 모델을 “당장 임상을 뒤집을 기술”로 보는 것은 과장이고, “의료 데이터 파이프라인과 워크플로를 근본적으로 재설계할 도구 상자”에 가깝습니다.
그래서 병원·스타트업 입장에서는 다음과 같은 전략이 현실적입니다.
당장 해볼 만한 것
CT/MRI·X-ray 판독 리포트 초안 자동 생성
과거 EHR·병리 리포트 대량 분석 후 인사이트 뽑기
의료진이 말로 남긴 소견을 MedASR로 받아 적고, MedGemma로 구조화·요약하기
반드시 지켜야 할 것
모델 출력은 “참고 의견”으로만 사용하고, 의료진이 최종 판단
규제(의료기기 인허가) 및 라이선스 조건을 꼼꼼히 검토
내부 데이터로 재학습(파인튜닝) 시, 개인정보·보안 규정을 엄격히 준수
장기적으로 준비할 것
병원 PACS, EMR, LIS 등 기존 시스템과 AI 모델을 연결하는 통합 아키텍처 설계
AI 출력물을 어떻게 의사·간호사·코디네이터의 실제 화면과 업무 흐름에 녹여 넣을지 UX 레벨에서 고민
마지막으로, AI가 아무리 좋아져도 “책임”은 결국 사람에게 있습니다. MedGemma 1.5처럼 강력한 오픈 모델일수록, “어디까지 AI에게 맡기고 어디서부터 사람이 개입해야 하는지” 경계를 명확히 그리는 것이, 앞으로 의료 AI 프로젝트 성공 여부를 가르는 핵심이 될 것입니다.
참고
1Google's MedGemma 1.5 brings 3D CT and MRI analysis to open-source medical AI
3Google's MedGemma 1.5 Can Now Read CT Scans and MRIs
4MedGemma 1.5 & MedASR explained: High-dimensional imaging and medical speech-to-text