메인 콘텐츠로 건너뛰기
page thumbnail

Olmo 3: 인공지능의 투명한 진화, 오픈소스로 AI의 미래를 열다

AI에서 ‘오픈소스’는 이제 진짜 혁신의 이름입니다. 복잡하고 거대한 언어 모델이 점점 더 우리의 삶과 업무에 깊이 스며들면서, 모델을 만드는 모든 과정까지 공개하는 움직임이 중요한 화두가 되고 있습니다. 오늘 소개할 Olmo 3는 이런 철학을 한 단계 더 끌어올린 인공지능 대표주자입니다. 이 글에서는 Olmo 3가 선사하는 투명성, 효율성, 그리고 AI 발전의 열린 미래를 쉽고 흥미롭게 풀어봅니다.

AI 도구의 진짜 '오픈'이란 무엇인가: 모델 플로우의 전면 공개

대부분의 공개 AI 모델들은 사실, 최종 완성된 ‘무게(weight)’만을 겨우 내놓습니다. 데이터는 감춰지고, 내부 훈련 과정은 블랙박스로 남죠. 하지만 Olmo 3는 달랐습니다. 이 모델은 설계, 데이터 수집, 각종 훈련 및 강화 학습 단계, 중간 체크포인트까지 개발 전체 '모델 플로우'를 전면 공개합니다.
이 흐름의 가장 큰 장점은 ‘신뢰성’과 ‘확장성’입니다. 연구자나 개발자는 Olmo 3의 훈련 과정을 실시간으로 추적하고, 필요한 시점의 데이터를 직접 확인하며, 각 단계마다 자신의 목적에 맞게 개조하거나 새로운 실험을 시도할 수 있습니다. OlmoTrace 같은 도구로 답변이 어떤 데이터를 근거로 만들어져 있는지를 투명하게 검증할 수 있죠.

절대 뒤처지지 않는 성능, 그리고 놀라운 효율성

투명성만으로는 경쟁이 힘듭니다. 그래서 Olmo 3의 성능도 한층 업그레이드되었습니다.

  • Olmo 3-Base는 7B 및 32B 파라미터로 구성되어, 프로그래밍과 읽기, 수학 문제 해결 등 다양한 분야에서 최고 수준의 결과를 보여줍니다. 확장된 컨텍스트 윈도우(65,000 토큰) 덕분에 긴 문서도 무리 없이 분석합니다.

  • Olmo 3-Think는 복잡한 추론과 수학, 코딩, 창의적 문제 해결 능력을 집중적으로 강화한 모델입니다. 특히 ‘중간 추론 과정’을 추적할 수 있어, 모델의 사고 과정을 연구하고 설명하는 데 매우 강력한 도구가 됩니다.

  • Olmo 3-Instruct는 실용적인 채팅과 도구 사용, 명령 이행에 특화된 모델입니다. 효율성과 빠른 반응 속도까지 잡아서, Qwen, Gemma, Llama 등 주요 오픈소스 경쟁 모델 대비 뛰어난 성능을 보입니다.

  • Olmo 3-RL Zero는 베이스 모델을 바로 강화학습(RL)로 튜닝하는 실험용 체크포인트를 제공합니다. 특히 수학, 코드, 지시 따르기 분야에서 RL 기반 벤치마킹에 탁월하죠.

이미지 출처: allenai.org
Olmo 3의 다양한 모델 구조와 성능 비교 이미지 출처: allenai

본 모델들의 벤치마크 결과를 살펴보면, Olmo 3-Base 32B는 Qwen 2.5, Gemma 3, Marin 등 오픈 경쟁모델을 능가하거나 근접한 점수를 여러 분야에서 기록했습니다. Olmo 3-Think 32B 역시 수학, 코딩, 복합 추론 문제에서 Qwen 3 32B와 거의 대등하거나 앞서는 결과를 내놓았습니다. 중요한 점은, 이 성능을 훨씬 적은 훈련 데이터와 효율적인 연산으로 달성했다는 것!

데이터셋과 훈련 노하우까지 완전히 공개

Olmo 3가 진짜 오픈소스인 이유는 ‘데이터’에 있습니다.

  • Dolma 3라는 6~9조 토큰 규모의 초대형 데이터셋으로 웹, 논문, 코드, 수학 문제 등을 망라해 훈련했습니다. 수집과 정제 과정 역시 엄격하게 공개합니다.

  • 각 단계별로 필요한 중간 데이터셋(Dolma 3 Dolmino, Longmino, Dolci-Think-SFT 등)까지 분류해 누구나 내려받고, 자신의 프로젝트나 연구에 맞게 재사용이 가능합니다.

  • 데이터 가공 툴도 오픈되어 있어, 개발자는 폐지/중복/오염된 데이터를 자동 걸러내고 직접 토크나이징, 훈련커브 재현, 다양한 실험을 자유롭게 할 수 있습니다.

이렇게 완전한 커스텀화와 검증이 가능한 모델과 데이터의 공개는, AI 개발에서 진정한 책임성과 재현성을 실현할 수 있는 대안이 됩니다.

훈련 및 튜닝 파이프라인: 효율적, 확장 가능, 누구나 검증 가능

Olmo 3의 개발 과정은 크게 다음과 같은 단계로 이루어져 있습니다.

  • Pretraining: 광범위한 일반 텍스트, 코드, 수학 데이터로 모델의 기본 지능을 크게 성장시킵니다.

  • Mid-training: 더 어려운 문제, 복잡한 데이터(수학, 코드, 읽기 이해)로 모델의 심층 추론 능력을 전문적으로 강화합니다.

  • Long-context training: 긴 문서나 구조화된 데이터를 분석하는 훈련으로, 컨텍스트 길이를 기존 모델의 16배 이상으로 늘리는 데 성공했습니다.

  • Post-training: 각 분야별 최적화(SFT → DPO → RLVR)로 ‘Think’, ‘Instruct’, ‘RL Zero’ 등 목적별 모델을 튜닝합니다.

이 모든 과정의 데이터, 코드, 체크포인트가 오픈되어 있어서, 개발자나 연구자는 중간 단계부터 바로 fork하거나, 필요한 곳만 개조하여 새로운 목적의 모델을 쉽게 만들 수 있습니다.

오픈소스 AI의 새로운 표준: 투명성과 협업의 미래

Olmo 3의 가장 큰 특징은 연구자, 개발자, 산업체 누구나 쉽게 실험하고, 개선하고, 검증할 수 있다는 점입니다.

  • 모든 훈련 데이터와 체크포인트, 실험 로그까지 실시간으로 추적할 수 있어 AI의 ‘신뢰와 검증’을 한 단계 높입니다.

  • 한 모델의 다양한 목적(채팅, 추론, RL 실험 등)에 맞게 손쉽게 확장할 수 있는 ‘모델 플로우’ 구조는 협업과 지속적 혁신을 유도합니다.

  • 오픈소스 라이선스(Apache 2.0)로 상업적 사용도 자유롭고, 누구나 배포 및 맞춤형 개발이 가능합니다.

이미지 출처: allenai.org
Olmo 3의 모델 투명성과 데이터셋 아키텍처 이미지 출처: allenai

마무리: 누구나 만드는 신뢰할 수 있는 인공지능, 그 시작

지금까지 Olmo 3가 만들어낸 ‘진짜’ 오픈소스 AI의 모습을 살펴봤습니다. 단순히 모델을 내놓고 끝나는 것이 아니라, 데이터와 훈련부터 튜닝, 체크포인트까지 전 과정을 공개하는 Olmo 3는 AI 개발 생태계의 신뢰, 투명성, 협업, 혁신을 모두 실현하는 모델입니다.
앞으로 AI를 연구하거나 자신만의 지능형 시스템을 만들고 싶은 사람이라면, Olmo 3처럼 투명한 기술을 적극 탐구하고 활용해 보는 것을 추천합니다. 누구나 이해하고 개선할 수 있는 AI, 바로 Olmo 3에서 시작해보세요!

참고

[1] Olmo 3: America’s truly open reasoning models - Interconnects

[2] Olmo 3: Charting a Path Through the Model Flow to Lead Open Source AI - BusinessWire

[3] OLMo 3 debuts as the first fully open "thinking" model with step-by-step logic exposed to users - The Decoder

[4] Olmo 3 공식 블로그 - Allen Institute for AI