Gemini 3 Pro - 모델 카드 (한국어 번역)

Gemini 3 Pro - 모델 카드
발행일 / 모델 출시: 2025년 11월
https://pixeldrain.com/u/hwgaNKeH
1. 모델 정보 (Model Information)
설명:
Gemini 3 Pro는 매우 뛰어난 성능을 가진 네이티브 멀티모달(Native Multimodal) 추론 모델 제품군인 Gemini 시리즈의 차세대 모델입니다. Gemini 3 Pro는 현재 복잡한 작업을 수행하는 Google의 가장 진보된 모델로서, 텍스트, 오디오, 이미지, 비디오 및 전체 코드 저장소(Repository)를 포함한 다양한 정보 소스로부터 방대한 데이터셋과 까다로운 문제들을 이해할 수 있습니다.
모델 종속성: 이 모델은 이전 모델의 수정본이나 파인 튜닝(Fine-tune) 버전이 아닙니다.
입력: 텍스트 문자열(예: 질문, 프롬프트, 요약할 문서), 이미지, 오디오 및 비디오 파일. 최대 1M(100만) 토큰의 컨텍스트 윈도우를 지원합니다.
출력: 텍스트 (64K 토큰 출력 지원).
아키텍처: Gemini 3 Pro는 텍스트, 시각, 오디오 입력에 대한 네이티브 멀티모달 지원을 갖춘 희소 전문가 혼합(Sparse Mixture-of-Experts, MoE) 트랜스포머 기반 모델입니다.
희소 MoE 모델은 입력 토큰당 모델 파라미터의 일부만 활성화하며, 토큰을 파라미터의 하위 집합(전문가, Experts)으로 동적으로 라우팅하는 방식을 학습합니다. 이를 통해 전체 모델 용량과 토큰당 연산 및 서빙 비용을 분리할 수 있습니다. 이러한 모델 아키텍처의 발전은 이전 모델 제품군에 비해 성능을 획기적으로 향상하는 데 기여했습니다.
2. 모델 데이터 (Model Data)
학습 데이터셋: 사전 학습(Pre-training) 데이터셋은 광범위한 도메인과 양식을 아우르는 대규모의 다양한 데이터 컬렉션이었습니다. 여기에는 공개적으로 사용 가능한 웹 문서, 텍스트, 코드(다양한 프로그래밍 언어), 이미지, 오디오(음성 및 기타 오디오 유형 포함), 비디오가 포함되었습니다.
사후 학습(Post-training) 데이터셋은 검증된 지시 튜닝(Instruction tuning) 데이터로 구성되었으며, 사람의 선호도 및 도구 사용(Tool-use) 데이터 외에도 지시사항과 응답이 쌍을 이루는 멀티모달 데이터 컬렉션이었습니다. Gemini 3 Pro는 다단계 추론, 문제 해결 및 정리 증명(Theorem-proving) 데이터를 활용할 수 있는 강화 학습(Reinforcement Learning) 기법을 사용하여 학습되었습니다.
학습 데이터셋에는 다음 사항들도 포함됩니다:
즉시 다운로드 가능한 공개 데이터셋
크롤러를 통해 수집된 데이터
상업적 라이선스 계약을 통해 획득한 라이선스 데이터
Google의 관련 서비스 약관, 개인정보 처리방침, 서비스별 정책에 따라 적절한 경우 사용자 제어하에 수집된 사용자 데이터(AI 모델 학습을 위해 Google 제품 및 서비스 사용자로부터 수집된 데이터 및 모델과의 상호작용 데이터)
Google이 사업 운영 과정에서 획득하거나 생성한 데이터, 또는 인력으로부터 직접 획득한 데이터
AI가 생성한 합성 데이터(Synthetic data)
학습 데이터 처리:
데이터 필터링 및 전처리에는 중복 제거, robots.txt 준수, AI를 안전하고 책임감 있게 발전시키려는 Google의 약속에 따른 안전 필터링, 그리고 위험을 완화하고 학습 데이터의 신뢰성을 높이기 위한 품질 필터링과 같은 기술이 포함되었습니다. 데이터가 수집되면 학습에 적합하도록 정제 및 전처리 과정을 거칩니다. 이 과정에는 케이스별로 관련 없거나 유해한 콘텐츠, 텍스트 및 기타 양식을 필터링하는 작업이 포함되며, 여기에는 포르노, 폭력물 또는 아동 성적 학대 자료(CSAM) 법률을 위반하는 콘텐츠 필터링이 포함됩니다.
3. 구현 및 지속 가능성 (Implementation and Sustainability)
하드웨어: Gemini 3 Pro는 Google의 TPU(Tensor Processing Units)를 사용하여 학습되었습니다. TPU는 LLM 학습에 관련된 대규모 연산을 처리하도록 특별히 설계되었으며 CPU에 비해 학습 속도를 상당히 높일 수 있습니다. TPU는 종종 대용량의 고대역폭 메모리를 갖추고 있어 학습 중 대형 모델과 배치 크기(Batch sizes)를 처리할 수 있어 모델 품질 향상으로 이어질 수 있습니다. 또한 TPU Pod(대규모 TPU 클러스터)는 거대 파운데이션 모델의 증가하는 복잡성을 처리하기 위한 확장 가능한 솔루션을 제공합니다. 학습은 더 빠르고 효율적인 처리를 위해 여러 TPU 장치에 분산되어 수행될 수 있습니다.
TPU 사용을 통해 얻은 효율성은 지속 가능하게 운영하려는 Google의 약속과 부합합니다.
소프트웨어:
학습은 JAX와 ML Pathways를 사용하여 수행되었습니다.
4. 배포 (Distribution)
Gemini 3 Pro를 포함한 Gemini 모델 제품군은 다음 채널을 통해 배포됩니다 (관련 문서는 각 라인에 공유됨):
Gemini App
Google Cloud / Vertex AI
Google AI Studio
Gemini API
Google AI Mode
Google Antigravity
모델은 API(Application Program Interface)를 통해 다운스트림 제공자에게 제공되며 관련 이용 약관의 적용을 받습니다. 모델 사용에 필수적인 하드웨어 또는 소프트웨어는 없습니다.
5. 평가 (Evaluation)
접근 방식:
Gemini 3 Pro는 추론, 멀티모달 기능, 에이전트 도구 사용(Agentic tool use), 다국어 성능 및 긴 컨텍스트(Long-context) 처리를 포함한 광범위한 벤치마크에서 평가되었습니다. 추가 벤치마크와 접근 방식, 결과 및 방법론에 대한 자세한 내용은 deepmind.com/models/evals/gemini-3-pro에서 확인할 수 있습니다.
결과:
Gemini 3 Pro는 향상된 추론 및 멀티모달 기능이 필요한 다양한 벤치마크에서 Gemini 2.5 Pro를 크게 능가합니다. (2025년 11월 기준 결과)
6. 의도된 사용 및 제한 사항 (Intended Usage and Limitations)
이점 및 의도된 사용:
Gemini 3 Pro는 현재까지 가장 지능적이고 적응력이 뛰어난 모델로, 현실 세계의 복잡성을 지원하고, 향상된 추론 및 지능, 창의성, 전략적 계획, 단계별 개선이 필요한 문제를 해결할 수 있습니다. 특히 에이전트 성능, 고급 코딩, 긴 컨텍스트 및/또는 멀티모달 이해, 알고리즘 개발이 필요한 애플리케이션에 적합합니다.
알려진 제한 사항:
Gemini 3 Pro는 환각(Hallucinations)과 같은 파운데이션 모델의 일반적인 제한 사항을 일부 보일 수 있습니다. 또한 간헐적인 속도 저하 또는 타임아웃 문제가 발생할 수 있습니다. Gemini 3 Pro의 지식 차단(Cutoff) 날짜는 2025년 1월입니다.
허용된 사용:
Google의 생성형 AI 금지된 사용 정책(Generative AI Prohibited Use Policy)이 적용됩니다. 또한 모델은 다음과 같은 시스템에 통합되어서는 안 됩니다:
위험하거나 불법적인 활동에 관여하거나 관련 법률 및 규정을 위반하는 경우
타인 또는 Google 서비스의 보안을 침해하는 경우
성적으로 노골적이거나 폭력적, 혐오적, 유해한 활동에 관여하는 경우
오정보, 허위 진술 또는 오해의 소지가 있는 활동에 관여하는 경우
7. 윤리 및 콘텐츠 안전 (Ethics and Content Safety)
평가 접근 방식:
Gemini 3 Pro는 내부 안전, 보안 및 책임 팀과의 협력을 통해 개발되었습니다. 모델을 개선하고 의사 결정을 돕기 위해 다양한 평가 및 레드 팀(Red Teaming) 활동이 수행되었습니다. 이러한 활동은 Google의 AI 원칙 및 책임감 있는 AI 접근 방식, 그리고 Google의 생성형 AI 정책과 일치합니다.
평가 유형:
학습/개발 평가: 모델 학습 전반 및 이후에 지속적으로 수행되는 자동화 및 인간 평가.
인간 레드 팀(Human Red Teaming): 모델 개발 팀 외부의 전문가 팀이 수행하며, 약점을 발견하고 안전 정책 준수를 보장하기 위해 의도적인 공격 시도.
자동화된 레드 팀: 대규모 안전 및 보안 고려 사항을 동적으로 평가.
윤리 및 안전 검토: 모델 출시 전에 수행됨.
또한, Google DeepMind의 프론티어 안전 프레임워크(FSF) 가이드라인에 따라 테스트를 수행합니다.
안전 정책:
아동 성적 학대, 혐오 발언, 위험한 콘텐츠(자살 조장 등), 괴롭힘, 성적으로 노골적인 콘텐츠, 의학적 합의에 반하는 조언 등의 생성을 방지합니다.
학습 및 개발 평가 결과:
Gemini 3 Pro는 전반적으로 안전성과 어조(Tone) 측면에서 Gemini 2.5 Pro보다 성능이 우수하며, 정당한 요청에 대한 거부(Unjustified refusals)는 낮은 수준을 유지했습니다.
| 평가 항목 | 설명 | Gemini 3 Pro vs 2.5 Pro |
|---|---|---|
| Text to Text Safety | 안전 정책을 측정하는 자동화된 콘텐츠 안전 평가 | -10.4% (위반 감소 의미) |
| Multilingual Safety | 다국어 자동화 안전 정책 평가 | +0.2% (비심각) |
| Image to Text Safety | 이미지-텍스트 자동화 안전 평가 | +3.1% (비심각) |
| Tone (어조) | 모델 거부 반응의 객관적 어조 측정 | +7.9% (개선됨) |
| Unjustified-refusals | 안전을 유지하면서 경계선상 프롬프트에 응답하는 능력 | +3.7% (개선됨) |
| 참고: 녹색은 개선, 빨간색은 퇴행을 의미합니다. |
위험 및 완화 조치:
데이터셋 필터링, 조건부 사전 학습, 지도 미세 조정(Supervised fine-tuning), RLHF(인간 및 비평가 피드백을 통한 강화 학습), 안전 정책, 제품 수준 필터링 등의 조치가 포함됩니다.
주요 위험:
a) 탈옥(Jailbreak) 취약점 (Gemini 2.5 Pro 대비 개선되었으나 여전히 연구 과제임)
b) 멀티턴(Multi-turn) 대화에서의 성능 저하 가능성
