Google I/O 2025 총정리: 제미나이 2.5 혁신, AI 에이전트, 생성형 미디어, 검색 등 구글 AI 신기능 완벽 분석
Google I/O 2025 행사는 인공지능(AI) 기술이 구글의 모든 제품과 플랫폼에 깊숙이 통합되는 AI 중심의 미래 비전을 명확하게 제시한 자리였습니다. 특히, 더욱 강력해진 제미나이(Gemini) 2.5 모델 시리즈의 발전과 이를 기반으로 한 다양한 AI 에이전트, 생성형 미디어 도구, 그리고 검색을 포함한 핵심 서비스의 혁신이 두드러졌습니다. 개발자들을 위한 새로운 도구와 API 공개, 안드로이드 및 확장 현실(XR) 분야의 진전, 차세대 커뮤니케이션 플랫폼의 등장 또한 이번 행사의 주요 특징으로, 구글이 AI 기술을 통해 사용자 경험을 개인화하고 지능화하며, 나아가 사용자를 위해 능동적으로 작업을 수행하는 시대로 나아가고 있음을 시사했습니다. 이번 보고서는 Google I/O 2025에서 발표된 핵심 내용들을 극도로 상세하고 구체적으로 분석하여 제공하고자 합니다.
Detailed Report
제미나이(Gemini) AI: 구글 AI 전략의 핵심 동력
Google I/O 2025의 가장 핵심적인 주제는 단연 제미나이 AI의 발전과 확장이었습니다. 구글은 제미나이 모델의 성능 향상, 새로운 기능 추가, 그리고 이를 다양한 서비스와 제품에 통합하는 계획을 대대적으로 발표하며 AI 기술 리더십을 공고히 하려는 의지를 보였습니다.
Google I/O 2025 Hero Image
제미나이 2.5 모델 시리즈 업데이트
구글은 제미나이 2.5 모델 시리즈, 즉 2.5 프로(Pro)와 2.5 플래시(Flash)에 대한 주요 업데이트를 발표하며, 모델의 성능과 효율성을 한층 끌어올렸습니다.
제미나이 2.5 프로 (Gemini 2.5 Pro):
제미나이 2.5 프로는 개발자들 사이에서 최고의 코딩 모델로 꾸준히 인정받고 있으며, 이번 업데이트를 통해 그 성능이 더욱 강화되었습니다. 학술적 벤치마크에서 뛰어난 성능을 입증했을 뿐만 아니라, WebDev Arena 리더보드에서 ELO 점수 1420점으로 1위를 차지하고, LMArena 리더보드의 모든 항목에서도 타의 추종을 불허하는 성능을 기록했습니다. 이는 제미나이 2.5 프로가 다양한 환경에서 인간의 선호도를 가장 잘 충족시키는 모델임을 의미합니다. 특히 100만 토큰 규모의 컨텍스트 윈도우를 통해 긴 컨텍스트 처리와 영상 이해력 면에서 최고 수준의 성능을 자랑합니다.
교육 분야 전문가들과 협력하여 구축된 구글의 학습 모델 제품군인 런LM(LearnLM)을 통합한 이후, 제미나이 2.5 프로는 학습 분야 최고 모델로 인정받고 있습니다. 교육자와 전문가들은 다양한 시나리오에서 제미나이 2.5 프로의 교육 방법론과 효과를 평가하는 일대일 비교에서 다른 모델들보다 제미나이 2.5 프로를 일관되게 선호했으며, 학습을 위한 AI 시스템 구축에 사용되는 학습 과학의 다섯 가지 원리 모두에서 다른 우수 모델들을 능가하는 성능을 보였습니다.제미나이 2.5 프로 블로그 히어로 이미지
딥 씽크 (Deep Think):
제미나이 2.5 프로에는 고난도 수학 및 코딩 작업을 위한 실험적인 고급 추론 모드인 '딥 씽크(Deep Think)'가 도입되어 모델의 사고 능력을 한층 더 끌어올렸습니다. 딥 씽크는 여러 접근 방식을 고려한 후 응답하는 알고리즘 개선과 최첨단 연구를 활용하여, 복잡하고 다층적인 문제 해결 능력을 향상시키는 것을 목표로 합니다.
제미나이 2.5 프로 '딥 씽크'는 난이도가 가장 높은 수학 벤치마크 중 하나인 USAMO(미국수학올림피아드) 2025에서 우수한 성적을 기록했으며, 코딩 벤치마크인 LiveCodeBench에서 선도적인 위치를 차지하고, 멀티모달 추론을 테스트하는 MMMU에서 84.0%의 정답률을 기록하는 등 인상적인 성능을 보여주었습니다. 구글은 엄선된 안전성 전문가 그룹과 신뢰할 수 있는 테스터들에게 제미나이 API를 통해 딥 씽크 기능을 우선 제공하여 피드백을 수렴하고, 본격적인 출시에 앞서 최첨단 안전성 평가와 사용자 피드백을 기반으로 지속적인 개선을 진행할 예정입니다.제미나이 2.5 프로 딥 씽크 벤치마크 그래프
제미나이 2.5 플래시 (Gemini 2.5 Flash):
제미나이 2.5 플래시는 빠르고 경쟁력 있는 비용을 위해 설계된 구글의 강력하고 가장 효율적인 핵심 모델로, 이번 업데이트를 통해 거의 모든 부문에서 기능이 더욱 향상되었습니다. 추론, 멀티모달리티, 코드 및 긴 컨텍스트 처리에 대한 주요 벤치마크에서 상당 부분 개선이 이루어졌으며, 평가 결과 토큰 사용량은 20-30% 감소하여 효율성 또한 크게 높아졌습니다.
새로운 2.5 플래시는 현재 개발자를 위한 구글 AI 스튜디오(Google AI Studio)와 기업용 버텍스 AI(Vertex AI), 그리고 모든 사용자를 위한 제미나이 앱(Gemini App)에서 미리보기로 제공되며, 2025년 6월 초 정식 출시되어 프로덕션 환경에서 사용할 수 있게 될 예정입니다. 2.5 프로 모델 또한 곧 업데이트된 버전이 출시될 예정입니다.제미나이 2.5 플래시 벤치마크 테이블
제미나이 2.5의 새로운 기능:
네이티브 오디오 출력 및 Live API 향상: Live API에는 2.5 플래시 기반의 '네이티브 오디오 출력(Native Audio output)' 미리보기 버전이 포함되어, 더욱 자연스럽고 표현력이 풍부한 제미나이 기반 대화 경험 구축을 지원합니다. 사용자는 모델의 어조, 억양, 화법 등을 조절할 수 있으며, 모델은 사용자를 대신해 검색할 수 있는 툴 사용 기능도 지원합니다. 초기 기능으로는 사용자의 목소리에서 감정을 감지하고 적절히 반응하는 감정 기반 대화(Affective Dialogue), 화자의 음성과 배경음을 구분해 정확한 타이밍에 응답하는 능동형 오디오(Proactive Audio), 그리고 복잡한 임무 수행을 위한 씽킹 모드(Thinking Mode)가 포함됩니다.
텍스트-음성 변환(Text-to-Speech, TTS) 기능 강화: 제미나이 2.5 프로 및 2.5 플래시에서는 새로운 TTS 프리뷰 버전이 제공됩니다. 이 기능은 네이티브 오디오 출력을 통해 두 개의 음성으로 TTS를 지원하는 최초의 다중 화자 지원 기능을 통해 더욱 생생하고 표현력 있는 대화를 구현하며, 속삭임과 같은 미묘한 뉘앙스까지 포착할 수 있습니다. 한국어를 포함해 24개 이상의 언어로 이용 가능하며, 언어 간 전환도 원활합니다. 이 기능은 제미나이 API에서 사용할 수 있습니다.
고급 보안 기능: 구글은 간접 프롬프트 주입(indirect prompt injections)과 같은 보안 위협에 대한 보호 기능을 대폭 강화했습니다. 새로운 보안 접근 방식을 통해 툴 사용 중 간접 프롬프트 주입 공격에 대한 제미나이의 보호율이 크게 향상되어, 제미나이 2.5는 현재까지 가장 안전한 모델 제품군이 되었습니다. 관련 내용은 구글 딥마인드 블로그와 백서를 통해 더 자세히 확인할 수 있습니다.
프로젝트 마리너(Project Mariner)의 컴퓨터 작업 수행 능력 통합: 제미나이 2.5 프로와 2.5 플래시에는 프로젝트 마리너의 컴퓨터 작업 수행 능력이 포함되어, 모델이 웹 환경에서 자율적으로 작업을 수행하는 기능이 강화되었습니다.
제미나이 앱 사용 현황:
제미나이 앱의 월간 활성 이용자(MAU) 수는 4억 명을 돌파했으며, 특히 제미나이 앱에서 제미나이 2.5 프로의 사용량이 45% 증가하는 등 제미나이 2.5 시리즈 모델의 사용 사례는 눈에 띄는 성장세와 높은 참여율을 보였습니다. 이는 사용자들이 제미나이의 향상된 기능을 적극적으로 활용하고 있음을 나타냅니다.Gemini App Hero Image
AI 에이전트: 프로젝트 아스트라(Project Astra)와 프로젝트 마리너(Project Mariner)
구글은 단순한 정보 제공을 넘어 사용자와 실시간으로 상호작용하고 작업을 수행할 수 있는 AI 에이전트 개발에 박차를 가하고 있음을 분명히 했습니다.
프로젝트 아스트라 (Project Astra) → 제미나이 라이브 (Gemini Live):
I/O에서 처음 선보였던 프로젝트 아스트라는 사용자의 주변 환경을 이해할 수 있는 범용 AI 어시스턴트(Universal AI Assistant)를 목표로 하는 연구 프로젝트였습니다. 제미나이 라이브(Gemini Live)는 이 프로젝트 아스트라의 카메라 및 화면 공유 기능을 통합하여, 사용자가 면접 준비부터 마라톤 훈련까지 다양한 방식으로 AI의 도움을 받을 수 있도록 합니다. 이 기능은 이미 모든 안드로이드 사용자에게 제공되고 있으며, I/O 2025 발표 시점부터 iOS 사용자에게도 순차적으로 출시될 예정입니다. 제미나이 라이브는 사용자와 거의 실시간으로 음성 대화를 나누면서 스마트폰 카메라나 화면을 통해 스트리밍되는 영상을 AI 모델이 함께 보고 이해하는 방식으로 작동합니다. 제미나이 라이브 대화는 평균적으로 텍스트 기반 대화보다 5배 더 길다고 하며, 이는 사용자들이 시각적 상호작용을 통해 더 깊이 있는 도움을 받고 있음을 시사합니다. 향후 몇 주 내에 구글 지도에서 길 안내를 받거나, 구글 캘린더에 일정을 만들고, 구글 할 일(Tasks)로 할 일 목록을 만드는 등 다른 구글 앱과의 통합도 심화될 예정입니다. 이러한 기능은 구글 검색 등 구글의 다양한 제품에도 추가적으로 적용될 예정입니다.Project Astra on glasses
프로젝트 마리너 (Project Mariner):
프로젝트 마리너는 웹 환경에서 자율적으로 탐색하고 작업을 수행할 수 있는 AI 에이전트입니다. 예를 들어, 사용자가 특정 정보를 찾거나 특정 작업(예: 티켓 구매, 식료품 온라인 주문, 정보 요약)을 요청하면, 마리너가 사용자를 대신하여 웹사이트를 방문하고 필요한 조치를 취하는 방식입니다. 구글은 프로젝트 마리너의 작동 방식을 크게 업데이트하여 한 번에 거의 12개의 작업을 처리할 수 있도록 했으며, 이 기능을 사용자들에게 점진적으로 배포하고 있습니다. AI Studio의 코드 내에서 'Computer Use'라는 키워드가 발견되면서 이 기능이 개발자들에게 공개될 가능성도 제기된 바 있습니다. 제미나이 2.5 모델에 프로젝트 마리너의 컴퓨터 작업 수행 능력이 통합된 것은 이러한 AI 에이전트 기술의 발전을 보여주는 사례입니다.
새로운 AI 구독 플랜: Google AI Pro 및 Google AI Ultra
구글은 AI 기능의 세분화 및 맞춤형 제공 전략의 일환으로 새로운 유료 구독 플랜을 도입했습니다.
Google AI Pro:
월 19.99달러의 이 플랜은 기존의 Gemini Advanced를 대체하고 확장하는 개념입니다. 제미나이 앱 경험을 향상시키며, 플로우(Flow), 노트북LM(NotebookLM) 등과 같은 AI 도구들을 특별 기능 및 더 높은 사용량 제한과 함께 제공합니다. 미국, 브라질, 인도네시아, 일본, 영국 등의 대학생들은 1년 동안 Google AI Pro 플랜을 무료로 이용할 수 있는 혜택도 제공됩니다.Google AI Ultra:
월 249.99달러의 프리미엄 플랜으로, 구글의 가장 강력한 모델에 대한 최고 수준의 접근 권한, 가장 높은 사용량 제한, 그리고 가장 흥미로운 실험적 AI 제품에 대한 조기 액세스를 제공합니다. AI Ultra 구독자는 제미나이 앱에서 비오 3(Veo 3) 및 출시 예정인 2.5 프로 딥 씽크(Deep Think) 모드를 가장 먼저 사용할 수 있으며, 곧 데스크톱에 출시될 새로운 실험적 기능인 에이전트 모드(Agent Mode)에 대한 조기 액세스도 얻게 됩니다. 에이전트 모드는 사용자가 목표를 말하면 제미나이가 지능적으로 단계를 조율하여 목표를 달성하는 기능으로, 라이브 웹 브라우징, 심층 연구, 구글 앱과의 스마트 통합과 같은 고급 기능을 결합합니다. 또한, 30TB의 클라우드 스토리지(구글 드라이브, 구글 포토, 지메일 통합), 유튜브 프리미엄 등의 혜택도 포함됩니다. 이 플랜은 개발자, 창의적인 전문가, 통합 도구를 찾는 기업을 대상으로 합니다.
제미나이 활용 개발자 및 토큰 처리량 증가
구글은 AI 기술의 빠른 확산과 채택을 보여주는 주요 지표들을 공개했습니다.
제미나이를 활용 중인 개발자 수는 700만 명 이상으로, 전년 동기 대비 5배 증가했습니다.
구글 제품과 API를 통해 처리되는 월간 토큰 수는 480조 개 이상으로, 작년의 9.7조 개에서 50배나 증가한 수치입니다.
기업용 AI 플랫폼인 버텍스 AI(Vertex AI)에서의 제미나이 사용량은 40배 증가했습니다.
이러한 수치들은 개발자와 기업들이 구글의 AI 기술을 적극적으로 도입하고 활용하고 있음을 명확히 보여줍니다.
생성형 미디어 및 창작 도구의 혁신
구글은 이미지, 비디오, 오디오 등 다양한 형태의 콘텐츠를 생성하고 편집할 수 있는 새로운 생성형 AI 모델과 도구들을 대거 공개하며, 창작자들의 잠재력을 최대한 발휘할 수 있도록 지원하겠다는 의지를 밝혔습니다.
비오 3 (Veo 3): 차세대 영상 생성 AI 모델
비오 3(Veo 3)는 구글의 최첨단 영상 생성 AI 모델로, 이전 버전인 비오 2(Veo 2)에 비해 영상 품질이 향상되었을 뿐만 아니라, 세계 최초로 효과음, 배경 소음, 심지어 캐릭터 간의 대화까지 네이티브로 지원하는 기능을 갖추었습니다. 이는 단순한 영상 생성을 넘어, 소리까지 포함된 완전한 장면을 만들어낼 수 있음을 의미합니다. 비오 3는 텍스트나 이미지 프롬프트를 통해 영상을 생성할 수 있으며, Google AI Ultra 구독자를 대상으로 제미나이 앱에서 미국부터 사용 가능하게 되었습니다. 이 모델은 영화 제작 도구인 플로우(Flow)의 핵심 엔진으로도 활용됩니다.
이마젠 4 (Imagen 4): 고품질 이미지 생성 AI 모델
이마젠 4(Imagen 4)는 구글의 최신 AI 이미지 생성 모델로, 이전 모델인 이마젠 3보다 속도가 빠르며, 향후 이마젠 3보다 최대 10배 빠른 변형 모델을 출시할 계획이라고 밝혔습니다. 이마젠 4는 직물, 물방울, 동물의 털과 같은 미세한 디테일을 정교하게 렌더링할 수 있으며, 사진처럼 사실적인 스타일부터 추상적인 스타일까지 다양한 표현이 가능합니다. 또한, 다양한 화면 비율과 최대 2K 해상도의 이미지를 생성할 수 있습니다. 이마젠 4는 제미나이 앱에서 모든 사용자가 사용할 수 있게 되었으며, 비오 3와 마찬가지로 플로우(Flow)에서도 활용됩니다.
Imagen 4 Sample Image
플로우 (Flow): AI 기반 영화 제작 도구
구글은 창작자들과 함께 만든 AI 기반 영화 제작 도구 '플로우(Flow)'를 공개했습니다. 플로우는 비오 3와 이마젠 4 모델을 원활한 사용자 인터페이스(UI) 아래 결합하여, 사용자가 자연어를 사용해 비디오 클립, 전체 장면, 캐릭터 대화, 그래픽 등을 생성하고 편집할 수 있도록 지원합니다. 이는 전문적인 영상 편집 기술이 없는 사람도 손쉽게 고품질 영상을 제작할 수 있는 가능성을 열어줍니다. 플로우는 Google AI Ultra 플랜을 통해 제공됩니다. 또한, 구글은 영화감독 대런 애로노프스키(Darren Aronofsky)의 제작사 Primordial Soup 및 구글 딥마인드와 파트너십을 맺고 AI가 스토리텔링에 미치는 역할을 탐구한다고 발표했습니다.
신스ID 디텍터 (SynthID Detector): AI 생성 콘텐츠 식별 포털
생성형 AI 기술의 발전과 함께 AI로 생성된 콘텐츠를 식별하는 것의 중요성이 커지고 있는 가운데, 구글은 '신스ID 디텍터(SynthID Detector)'라는 새로운 포털을 선보였습니다. 이 포털은 구글 AI로 생성된 콘텐츠를 빠르고 효율적으로 식별할 수 있도록 돕고, 다양한 형태의 콘텐츠를 한 곳에서 검토할 수 있는 기능을 제공하여 생성형 미디어 환경에서의 투명성 확보에 기여할 것으로 기대됩니다. 특히, 업로드된 파일에서 워터마크를 감지하여 사용자가 AI 생성 콘텐츠를 식별하는 데 도움을 줄 수 있습니다.
스티치 (Stitch): AI 기반 UI/UX 디자인 도구
스티치(Stitch)는 개발자와 디자이너가 웹 및 모바일 애플리케이션의 프론트엔드 UI를 손쉽게 디자인할 수 있도록 돕는 AI 기반 도구입니다. 사용자는 몇 마디의 텍스트 설명이나 이미지를 프롬프트로 제공하여 앱 UI를 생성할 수 있으며, 스티치는 해당 디자인에 필요한 HTML 및 CSS 마크업을 제공합니다. 다른 코딩 제품에 비해 기능이 다소 제한적일 수 있지만, 다양한 사용자 정의 옵션을 제공하여 창의적인 UI 디자인을 지원합니다.
캔버스 (Canvas) 및 딥 리서치 (Deep Research) 업데이트
제미나이 앱 내의 창작 공간인 캔버스(Canvas)와 심층 정보 분석 도구인 딥 리서치(Deep Research)도 주요 업데이트를 통해 기능이 대폭 강화되었습니다.
캔버스 (Canvas): 제미나이 2.5 모델을 기반으로 더욱 직관적이고 강력해진 캔버스는 사용자가 설명하는 모든 것을 구축할 수 있는 창의적인 공간입니다. 인터랙티브 인포그래픽, 퀴즈, 심지어 45개 언어로 제공되는 팟캐스트 스타일의 오디오 개요(Audio Overviews)까지 생성할 수 있습니다. 특히 제미나이 2.5 프로의 강력한 코딩 능력을 활용하여, 간단한 설명을 통해 전체 애플리케이션을 빠르게 구현하는 '바이브 코딩(Vibe coding)'이 가능해져 소프트웨어 제작의 장벽을 낮추고 새로운 아이디어의 프로토타이핑 속도를 획기적으로 높일 수 있습니다.
딥 리서치 (Deep Research): 사용자가 자신의 개인 PDF 파일과 이미지를 업로드하여 공개 데이터와 결합한 맞춤형 심층 연구 보고서를 생성할 수 있게 되었습니다. 이를 통해 사용자는 자신만의 고유한 지식과 광범위한 시장 동향을 한 곳에서 교차 참조하여 시간을 절약하고 새로운 통찰력을 얻을 수 있습니다. 예를 들어, 시장 조사원은 내부 판매 수치(PDF)를 업로드하여 공개 시장 동향과 비교 분석할 수 있고, 학자는 특정 저널 논문을 가져와 문헌 연구를 풍부하게 할 수 있습니다. 향후에는 구글 드라이브 및 지메일의 정보를 가져와 연구에 활용할 수 있도록 지원할 예정입니다.
검색 및 구글 제품 전반의 AI 통합
Google I/O 2025에서는 구글 검색을 비롯한 주요 구글 제품 및 서비스에 제미나이 AI가 깊숙이 통합되어 사용자 경험을 혁신하는 다양한 사례들이 발표되었습니다. 구글은 사용자들이 이미 익숙하게 사용하고 있는 서비스에 AI를 자연스럽게 녹여내어, AI를 경쟁자가 아닌 자사 서비스 DNA의 일부로 만들겠다는 전략을 분명히 했습니다.
구글 검색의 진화: AI 모드 (AI Mode) 및 서치 라이브 (Search Live)
구글 검색은 지난 25년간 인터넷 정보 검색의 대명사였지만, 생성형 AI의 등장으로 새로운 변화의 국면에 접어들었습니다. 구글은 이에 대응하여 검색이 사라지는 것이 아니라 '진화'하고 있음을 강조하며, 그 핵심으로 'AI 모드(AI Mode)'를 선보였습니다.
AI 모드 (AI Mode):
AI 모드는 구글 검색에 직접 통합된 AI 기반 경험으로, 제미나이 2.5 모델로 구동됩니다. 이 모드는 기존 검색보다 훨씬 복잡하고 다층적인 질문(multi-part questions)을 처리할 수 있으며, 더 깊이 있는 분석을 위해 질문을 여러 개의 검색으로 분할하는 '질의 팬-아웃(query fan-out)' 기법을 사용합니다. 예를 들어, 특정 행사의 가장 저렴한 티켓을 찾는 데 활용될 수 있는데, 수백 개의 티켓 옵션을 다양한 웹사이트에서 실시간 가격과 재고 정보를 기준으로 분석해줍니다.
또한, 맞춤형 차트와 인터랙티브 그래픽을 생성할 수 있는 기능도 제공되며, 우선 스포츠와 금융 관련 질문에 적용될 예정입니다. AI 모드는 몇 가지 새로운 쇼핑 기능도 지원하는데, 사용자가 자신의 사진을 업로드하면 가상의 자신에게 어떤 옷이 어울릴지 미리 볼 수 있게 해주거나, 원하는 상품이 원하는 가격에 할인 판매될 때 알려주는 기능 등이 포함됩니다.
AI 모드는 발표 당일(2025년 5월 20일)부터 미국 사용자들을 대상으로 우선 출시되었으며, 향후 다른 국가로도 확대될 예정이지만 구체적인 시기는 아직 알려지지 않았습니다. 이 기능은 이미 매월 15억 명 이상이 사용하고 있는 AI 개요(AI Overviews)의 성공을 기반으로 하며, AI 개요 자체도 200개 이상의 국가 및 지역으로 확대 출시되었습니다. 구글의 리즈 레이드(Liz Reid)는 "이것이 구글 검색의 미래이며, 정보를 넘어 지능으로 나아가는 검색"이라고 강조했습니다. Gmail의 개인화된 컨텍스트도 AI 모드에서 지원되는 첫 번째 앱입니다.서치 라이브 (Search Live):
올 여름 구글 랩스(Labs)를 통해 출시될 예정인 '서치 라이브(Search Live)'는 프로젝트 아스트라의 기능을 검색에 직접 통합하여, 사용자가 스마트폰 카메라를 통해 보고 있는 내용에 대해 실시간으로 문맥적인 질문을 할 수 있게 해주는 기능입니다. 예를 들어, 제품을 카메라로 비추며 더 많은 정보를 얻거나, 카메라를 사용하여 문제 해결 도움을 받을 수 있습니다.
구글 앱 내 제미나이 통합
제미나이 AI는 검색뿐만 아니라 지메일, 크롬, 구글 밋 등 다양한 구글 애플리케이션에도 통합되어 사용자 편의성을 높이고 새로운 기능을 제공합니다.
지메일 (Gmail):
지메일에는 사용자의 과거 이메일, 메모, 구글 문서 등을 검색하여 사용자의 톤과 스타일에 맞춰 개인화된, 더욱 스마트한 답장을 생성해주는 기능이 올 여름 출시될 예정입니다. 이는 단순한 자동 완성을 넘어, 사용자의 커뮤니케이션 스타일을 학습하여 맞춤형 응답을 제공하는 한 단계 발전된 기능입니다.크롬 (Chrome):
크롬 브라우저에도 제미나이가 통합되어, 현재 작업 중인 내용이나 열려 있는 탭에 대한 질문에 답변하고, 모든 웹페이지의 복잡한 정보를 명확하게 표시하거나 긴 페이지를 요약하는 기능을 제공합니다. 작업 표시줄에서 제미나이로 바로 이동할 수 있게 되어 접근성도 향상됩니다. 이 기능은 데스크톱용 크롬의 베타 및 개발 빌드에서 Google AI Pro 및 Google AI Ultra 구독자를 대상으로 미국에서 영어 사용 환경부터 우선적으로 출시됩니다. 향후 제미나이는 여러 탭에 걸쳐 작업하거나 사용자를 대신하여 웹사이트를 탐색하는 기능도 수행할 수 있게 될 것입니다.구글 밋 (Google Meet):
화상회의 도구인 구글 밋에는 실시간 음성 번역 기능이 새롭게 추가되었습니다. 처음에는 영어와 스페인어 간의 번역을 베타 버전으로 제공하며, 향후 더 많은 언어로 확대될 예정입니다. 이 기능은 화자의 목소리와 톤, 심지어 표현까지 매칭시켜 여러 언어 간 보다 자연스럽고 유창한 대화를 가능하게 하며, 기업용 구글 워크스페이스(Workspace) 고객을 대상으로 올해 초기 테스트 형태로 제공될 예정입니다.
학습 및 교육 분야 AI 활용: 런LM (LearnLM)
구글은 교육 분야에서도 AI의 잠재력을 적극적으로 활용하고 있습니다. 런LM(LearnLM)은 교육 분야 전문가들과 협력하여 구축한 구글의 학습 모델 제품군으로, 제미나이 2.5 프로에 직접 통합되어 학습 경험을 향상시키는 데 기여하고 있습니다. 제미나이 2.5 프로는 런LM 통합 이후 학습 분야 최고 모델로 인정받았으며, 교육자와 전문가들로부터 높은 평가를 받았습니다.
제미나이 앱에는 사용자가 특정 주제에 대해 인터랙티브한 퀴즈를 생성하여 학습 효과를 높일 수 있는 기능이 새롭게 추가되었습니다. 예를 들어, "열역학에 대한 연습 퀴즈를 만들어줘"라고 요청하면 맞춤형 학습 경험이 제공되며, 답변에 따라 즉각적인 피드백과 함께 취약한 부분을 보완할 수 있는 개인화된 후속 퀴즈도 제공됩니다. 이 기능은 데스크톱과 모바일에서 전 세계 모든 제미나이 사용자에게 제공됩니다.
또한, 구글은 미국, 브라질, 인도네시아, 일본, 영국의 대학생들을 대상으로 Google AI Pro 플랜을 1년 동안 무료로 제공하는 프로그램을 시작했으며, 향후 더 많은 국가로 확대할 예정입니다.
안드로이드(Android) 및 확장 현실(XR)의 미래
Google I/O 2025에서는 안드로이드 운영체제의 최신 업데이트와 함께, 제미나이 AI를 중심으로 한 확장 현실(XR) 기술의 미래 비전이 제시되었습니다. 안드로이드 관련 상세 내용은 별도의 가상 이벤트인 'The Android Show'를 통해 주로 발표되었으며, I/O 키노트에서는 AI와 XR의 결합에 더 중점을 두는 모습을 보였습니다.
Android Stage at Google I/O 2025
안드로이드 16 (Android 16)
안드로이드 16은 사용자 경험 강화, 특히 일상적인 보안 문제 해결과 디자인 개선에 초점을 맞춘 업데이트를 선보였습니다.
보안 기능 강화:
실종 기기 탐색 기능 개선: 분실된 안드로이드 기기나 기타 물품을 더 빠르고 정확하게 찾을 수 있는 기술이 추가되었습니다. 구글의 '내 기기 찾기(Find My Device)'는 '파인드 허브(Find Hub)'로 명칭이 변경되며 기능이 확장되었습니다.
Advanced Protection 프로그램 확장: 기기 수준에서의 사기 및 도난 방지 기능이 더욱 강화되었습니다. 이는 점점 더 다양한 기기를 연결하고 사용하는 환경을 고려한 조치입니다.
Material 3 Expressive:
구글은 새로운 디자인 언어인 Material 3 Expressive를 공개하며 사용자 인터페이스(UI) 및 사용자 경험(UX) 개선에 박차를 가하고 있습니다. 이 디자인 언어는 감정, 맥락, 사용자 반응에 따른 유연하고 감성적인 시각적 표현을 가능하게 하며, 개발자가 더욱 창의적으로 UI를 구성할 수 있도록 지원합니다.
안드로이드 XR (Android XR)
구글은 안드로이드 XR 플랫폼을 통해 제미나이 AI를 XR 안경 및 헤드셋에 통합하여 더욱 쉽고 몰입도 있는 경험을 제공하겠다는 비전을 밝혔습니다.
제미나이 기반 XR 경험:
안드로이드 XR 기기에 제미나이가 탑재되어, 사용자는 실시간 언어 번역, 상황 인식 정보 오버레이 등 다양한 AI 기반 기능을 XR 환경에서 경험할 수 있게 됩니다. 행사에서는 안드로이드 XR 안경을 통해 실시간으로 영어, 페르시아어, 힌디어로 대화하는 시연이 이루어졌으며, AI의 오작동으로 데모가 잠시 실패하는 해프닝도 있었으나, 안경이 예상대로 작동하는 순간도 보여주었습니다.파트너십 및 기기 출시:
구글은 안드로이드 XR을 기반으로 한 헤드셋과 스마트 안경 개발을 위해 다양한 제조사들과 협력하고 있습니다.삼성전자: 삼성전자와는 XR 헤드셋을 공동 개발 중이며, 첫 번째 안드로이드 XR 헤드셋은 올해 말 출시될 예정입니다.
스마트 안경 파트너: 한국의 선글라스 업체 젠틀몬스터(Gentle Monster), 미국의 안경 브랜드 와비파커(Warby Parker), 그리고 엑스리얼(Xreal) 등과 협력하여 안드로이드 XR 운영체제를 접목한 스마트 안경을 개발 중이라고 밝혔습니다. 프로젝트 아스트라 기반의 안경도 이들 파트너와 함께 개발 중입니다.
차세대 커뮤니케이션 및 개발자 생태계 강화
Google I/O 2025에서는 AI 기술을 활용한 혁신적인 커뮤니케이션 플랫폼과 함께, 개발자들이 AI 애플리케이션을 더욱 쉽게 구축하고 배포할 수 있도록 지원하는 다양한 도구와 플랫폼 업데이트가 발표되었습니다.
AI Stage at Google I/O 2025
구글 빔 (Google Beam): 3D 영상 커뮤니케이션 플랫폼
몇 년 전 I/O에서 처음 선보였던 획기적인 3D 비디오 기술 '프로젝트 스타라인(Project Starline)'이 '구글 빔(Google Beam)'이라는 새로운 AI 중심 영상 커뮤니케이션 플랫폼으로 발전하여 공개되었습니다. 구글 빔의 목표는 상대방과 멀리 떨어져 있어도 마치 같은 공간에 있는 듯한 느낌을 구현하는 것입니다.
기술적 특징: 구글 빔은 최첨단 비디오 모델을 사용하여 2D 비디오 스트림을 사실적인 3D 경험으로 변환합니다. 6대의 카메라 배열과 AI를 이용하여 비디오 스트림을 병합하고, 3D 라이트필드 디스플레이(lightfield display)에 렌더링하여 사용자의 모습을 사실적으로 구현합니다. 또한, 밀리미터 단위의 정밀한 헤드 트래킹(head tracking)과 초당 60프레임의 실시간 처리를 통해 훨씬 자연스럽고 몰입감 있는 대화 경험을 제공합니다. 실시간 번역 기능도 포함될 예정입니다.
상용화 계획: 구글은 HP와의 협업을 통해, 최초의 구글 빔 기기를 올해 말 초기 고객들에게 선보일 예정입니다.
개발자 도구 및 플랫폼
구글은 개발자들이 제미나이 AI 모델을 비롯한 최신 AI 기술을 활용하여 혁신적인 애플리케이션을 구축할 수 있도록 다양한 도구와 플랫폼 지원을 강화했습니다.
제미나이 코드 어시스트 (Gemini Code Assist):
개인용 제미나이 코드 어시스트(Gemini Code Assist for individuals)와 깃허브용 제미나이 코드 어시스트(Gemini Code Assist for GitHub)가 정식 출시되어, 누구나 1분 이내에 쉽게 코딩을 시작하고 생산성을 높일 수 있게 되었습니다. 이 도구들은 제미나이 2.5 모델을 기반으로 합니다.쥴스 (Jules):
쥴스(Jules)는 개발 작업을 자동화하는 자율 코딩 에이전트로, 이번 I/O에서 공개 베타 버전으로 전 세계에 출시되었습니다. 쥴스는 개발자가 복잡한 코드를 이해하고, GitHub에서 풀 리퀘스트(pull request)를 생성하며, 특정 백로그 항목 및 프로그래밍 작업을 처리하는 데 도움을 줄 수 있습니다.제미나이 및 버텍스 AI API 업데이트:
제미나이 API와 버텍스 AI에는 개발자 경험을 향상시키기 위한 새로운 기능들이 추가되었습니다.사고 요약 (Thought summaries): 2.5 프로 및 플래시 모델에서 지원되며, 모델의 원시적인 생각들을 머리글, 주요 세부 정보, 툴 사용 시점과 같은 모델 행동 정보와 함께 명확한 형식으로 정리하여 제공합니다. 이를 통해 개발자와 사용자는 제미나이 모델과의 상호작용을 더 쉽게 이해하고 디버깅할 수 있습니다.
사고 예산 (Thinking budgets): 2.5 플래시에 이어 2.5 프로 모델에도 확장 적용되어, 개발자들이 지연 시간과 품질의 균형을 맞춰 비용을 더욱 효과적으로 제어할 수 있게 합니다. 모델이 응답하기 전 사고하는 데 사용하는 토큰 수를 제어하거나, 심지어 사고 기능을 끌 수도 있습니다.
모델 컨텍스트 프로토콜 (MCP) 지원: 오픈소스 툴과의 간편한 통합을 위해, 제미나이 API에 모델 컨텍스트 프로토콜(MCP) 정의를 지원하는 네이티브 SDK가 추가되었습니다. 또한, 개발자들이 에이전트 기반 애플리케이션을 더욱 쉽게 구축할 수 있도록 MCP 서버 및 기타 호스팅 툴 배포 방안도 모색 중입니다.
젬마 (Gemma):
구글은 자체 AI 모델인 제미나이 시리즈 외에도, 오픈 소스 기반의 AI 모델인 젬마(Gemma)를 통해 개발자 커뮤니티와의 연결을 강화하고 있습니다. 이번 I/O에서는 특히 모바일 우선 AI를 위한 강력하고 효율적인 Gemma 3n 프리뷰가 발표되었습니다. 젬마는 가볍고 접근성이 높아 실험적 개발이나 연구 목적에 적합하며, 제미나이 모델의 일부 기능을 커스터마이징하여 사용할 수 있습니다.Firebase 업데이트:
Firebase는 차세대 애플리케이션 구축을 돕기 위해 애플리케이션 전체 수명 주기를 가속화하는 엔드투엔드 플랫폼을 제공하는 방향으로 업데이트되었습니다.에이전트 개발 도구:
구글은 지능형 에이전트가 단순한 도구를 넘어 협력적인 파트너가 되는 미래를 구상하며, 에이전트 개발 키트(ADK, Agent Development Kit), 에이전트 엔진(Agent Engine), 그리고 A2A(App-to-Agent) 향상 기능을 발표했습니다.버텍스 AI(Vertex AI) 미디어 모델:
기업용 AI 플랫폼인 버텍스 AI에는 Veo 3 (비디오), Imagen 4 (이미지), 그리고 Lyria 2 (음악 생성)와 같은 차세대 생성형 AI 미디어 모델이 도입되어, 기업들이 자체 서비스에 강력한 미디어 생성 기능을 통합할 수 있도록 지원합니다.
기타 주요 발표
제미나이 디퓨전 (Gemini Diffusion):
구글 딥마인드는 최신 연구 모델인 제미나이 디퓨전을 공개했습니다. 이는 텍스트 확산 모델(text diffusion model)로, 실험적인 연구 단계에 있는 기술입니다.구글 워크스페이스 (Google Workspace) 제미나이 통합 지속:
구글은 워크스페이스에 AI를 지속적으로 통합하여 사용자들이 매일 최고의 업무 성과를 낼 수 있도록 지원하겠다는 계획을 재확인했습니다.
Google I/O 2025는 AI가 단순한 기술적 발전을 넘어, 우리의 일상과 업무, 창작 활동 전반에 걸쳐 혁명적인 변화를 가져올 핵심 동력임을 분명히 보여주었습니다. 구글은 제미나이를 중심으로 한 강력한 AI 생태계를 구축하고, 이를 통해 사용자에게 더욱 개인화되고 지능적이며 능동적인 경험을 제공하려는 확고한 의지를 드러냈습니다. 앞으로 이러한 기술들이 실제 제품과 서비스에 어떻게 구현되고 발전해 나갈지 귀추가 주목됩니다.