Google은 새로운 Deep Think 모드를 사용하여 고급 추론 능력을 갖춘 Gemini 2.5 Pro를 업그레이드했습니다.
- Google는 Gemini 2.5 Pro에 새로운 "Deep Think" 모드를 추가하여 더 깊은 추론 능력과 음성 출력을 지원하는 실험적인 모드를 테스트 중입니다.
- "Deep Think" 모드는 여러 가설을 평가한 후 답변하도록 설계되어 있으며, 한정된 Gemini API 사용자 그룹과 테스트 중입니다.
- 이 모드는 USAMO 2025 수학 테스트, LiveCodeBench 프로그래밍 벤치마크, 그리고 MMMU 다중 모드 추론 테스트에서 OpenAI의 o3 모델을 능가합니다.
- Google은 또한 2.5 Flash 모델을 업그레이드하여 추론, 다중 모드 작업, 코드 생성에서 더 우수한 성능을 발휘하며, 동일한 출력에 대해 20~30% 적은 토큰을 사용합니다.
- Gemini 2.5 Flash 모델은 Google AI Studio, Vertex AI 및 Gemini 앱에서 사용할 수 있으며, 6월 초에 생산 사용을 위한 일반 출시가 예상됩니다.
- Gemini 2.5 Pro와 Flash는 이제 여러 스피커 프로파일을 지원하는 음성 출력 기능을 갖추고 있으며, 개발자는 Live API를 통해 억양, 톤, 말하기 스타일을 제어할 수 있습니다.
- "Affective Dialogue"와 "Proactive Audio"이라는 두 가지 새로운 기능은 보다 자연스러운 음성 상호작용을 목표로 합니다.
- Google은 Project Mariner의 기능을 Gemini API와 Vertex AI에 도입하여 웹 브라우저 같은 컴퓨터 애플리케이션을 제어할 수 있도록 하고 있습니다.
- Gemini API는 이제 Anthropic의 Model Context Protocol (MCP)를 지원하여 오픈 소스 도구와의 통합을 쉽게 합니다.
- Google은 모바일 기기 전용으로 개발된 새로운 경량 오픈 소스 모델 Gemma 3n을 추가하여 인공지능 라인업을 확장했습니다.
- Gemma 3n은 강력한 다중 모드 기능을 제공하고 리소스 사용을 최소화합니다.
- 이 모델은 텍스트, 오디오, 이미지 처리 등을 지원하며, "Mix-n-Match"라는 기능을 통해 주 모델 구조에서 더 작은 하위 모델을 추출할 수 있습니다.
- 특히 독일어, 일본어, 한국어, 스페인어, 프랑스어 등의 다국어 기능이 개선되었습니다.
5the-decoder.com링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.