메인 콘텐츠로 건너뛰기
page thumbnail

Meta AI 안경과 2025년 12월 업데이트 동향 종합 정리

요약

개요

Meta의 AI 안경(대표적으로 Ray‑Ban | Meta 스마트 안경)은 카메라·마이크·스피커를 안경 테두리에 통합해, 손을 쓰지 않고 사진·영상 촬영, 통화, 음악 감상, 그리고 대화형 AI 이용까지 가능하게 만든 웨어러블 기기이다.1 스마트폰 화면을 계속 들여다보지 않고도 일상 속 순간을 기록하고, AI의 도움을 받는 것을 목표로 한다.

Generated Image

2024년에는 대화형 AI인 Meta AI와의 연속 대화, 시각 인식("내가 보고 있는 것"에 대한 질문), 리마인더, 실시간 번역, 접근성 파트너십, 음악·오디오 서비스 통합 등이 본격 도입되었고, 2024년 말에는 라이브 비디오 기반 'Live AI'와 실시간 음성 번역, Shazam 연동이 더해졌다.12 2025년에는 하드웨어 측면에서 2세대 Ray‑Ban Meta가 출시되며 배터리 수명과 카메라가 크게 개선되었고, 소프트웨어 측면에서는 대화에 집중해 주변 사람의 음성을 더 잘 듣게 해 주는 기능 등 'AI 안경을 일상에서 오래, 자연스럽게 쓰게 만드는' 방향으로 업데이트가 이어지고 있다.23

이 글에서는 2025년 12월까지의 공개 정보를 바탕으로 Meta AI 안경의 주요 기능, 2025년 하드웨어·소프트웨어 업데이트 흐름, 그리고 다른 기업들의 AI 안경·XR 동향과의 관계를 위키피디아 스타일로 정리한다.

Meta AI 안경과 2025년 12월 업데이트 동향 종합 정리 image 2

이미지 출처: Wareable - Ray‑Ban Meta (Gen 2) smart glasses get a huge battery life boost and 3K video

Meta AI 안경과 Ray‑Ban | Meta 제품 라인업

Meta의 AI 안경은 Meta 자체 브랜드의 "AI glasses"와 Ray‑Ban과 협업한 Ray‑Ban | Meta 스마트 안경이 대표적이다. Ray‑Ban 모델은 기존 Wayfarer, Headliner와 같은 클래식 선글라스 디자인을 유지하면서, 내부에 카메라·스피커·마이크를 넣어 외형상 일반 안경과 비슷한 느낌을 준다.3 이를 통해 "기기처럼 보이지 않는" 자연스러운 착용 경험을 제공하는 것이 핵심 전략이다.

2025년에는 Ray‑Ban Meta 2세대(Gen 2) 모델이 발표되었는데, 전체적인 디자인은 1세대와 크게 달라지지 않았지만 배터리와 카메라 같은 내부 사양이 크게 강화된 것이 특징이다.3 동시에 Meta는 Meta 브랜드의 AI 안경에 대해서도 기능 업데이트를 이어 가며, 'AI glasses'라는 보다 넓은 카테고리를 구축하고 있다.5

초기 AI 기능: 음성 제어와 시각 인식

Ray‑Ban Meta 안경은 "Hey Meta"라는 호출어로 Meta AI를 깨우고 질문할 수 있는 음성 인터페이스를 중심으로 설계되어 왔다.1 2024년 업데이트에서는 초기에만 "Hey Meta"라고 부르고 이후에는 계속해서 후속 질문을 할 수 있도록 개선되어, 마치 이어지는 대화처럼 사용할 수 있게 되었다.1 이는 사용자가 짧은 질의응답이 아니라 자연스러운 대화를 이어 가는 경험을 제공한다.

또한 카메라를 활용해 "지금 내가 보고 있는 것"에 대해 AI에게 직접 물어볼 수 있도록 시각 인식 기능이 강화되었다.1 예를 들어 여행지에서 건물을 바라보며 "이 건물이 뭐야?", 마트에서 상품을 집어 들고 "이 소스는 아까 추천한 파스타 레시피랑 잘 어울려?"와 같이 질문할 수 있으며, 사용자는 휴대폰을 꺼내 검색하는 과정을 생략할 수 있다.1 이를 통해 AI는 단순한 음성 비서에서, 주변 환경을 '보는' 동반자에 가까운 역할로 확장되었다.

기억과 리마인더: '외장 기억장치'로의 진화

Meta는 안경을 단순한 입출력 장치를 넘어 사용자의 기억을 돕는 도구로 확장하려 하고 있다. 2024년 기능 추가로, 사용자가 "공항 장기주차장 위치를 기억해 줘"와 같은 방식으로 특정 정보를 안경에 '기억시키고', 나중에 다시 물어볼 수 있게 되었다.1 또한 "3시간 뒤에 엄마에게 문자하라고 알려줘"와 같이 음성으로 리마인더를 설정하는 기능도 제공된다.1

2025년 8월 이후에는 Meta AI 안경에서 Google·Outlook.com 캘린더를 연결해 일정 정보를 활용할 수 있는 기능도 순차적으로 제공되기 시작했다.5 덕분에 안경을 통해 일정 확인과 리마인더 설정을 통합적으로 처리하는, 보다 강력한 개인 비서 형태에 가까워지고 있다.5 이런 기능들은 모두 '사용자가 잊기 쉬운 정보를 대신 기억하고, 적절한 타이밍에 알려주는' 방향으로 설계되어 있다는 점에서 일관성을 가진다.

커뮤니케이션과 콘텐츠: 메시지·음악·오디오 통합

Meta AI 안경은 메시지와 음악, 오디오 콘텐츠를 안경에서 바로 다룰 수 있게 하며, 스마트폰에 의존하던 여러 활동을 얼굴 위로 옮겨 놓고 있다. 2024년 업데이트에서는 WhatsApp·Messenger에서 Meta AI에게 음성으로 지시해 음성 메시지를 녹음·전송할 수 있게 되었는데, 손이 자유롭지 않을 때 특히 유용하다.1 예를 들어 장을 보면서 "Hey Meta, 엄마한테 5분 뒤에 전화한다고 음성 메시지 보내 줘"라고 말하는 식이다.

음악과 오디오 콘텐츠 측면에서는 Spotify·Amazon Music와의 통합을 강화하고, Audible·iHeart와의 신규 파트너십을 추가했다.1 사용자는 "어떤 노래 틀어 줘" 수준을 넘어, 곡명·가수·앨범·오디오북 제목으로 검색하거나, "이 노래가 어떤 앨범에 들어 있는지"를 묻는 등 세밀한 제어를 음성으로 수행할 수 있다.1 2024년 말에는 Shazam 통합이 추가되어, 주변에서 흘러나오는 곡에 대해 "Hey Meta, what is this song?"이라고 물으면 안경이 자동으로 인식해 곡 정보를 알려주는 기능도 도입되었다.2

이러한 통합은 음악 감상·오디오북·팟캐스트 소비를 스마트폰 화면이 아니라, 귀와 목소리만으로 처리하는 환경을 만들어 주며, 특히 이동 중이나 운동 중에 큰 장점을 제공한다.12

실시간 번역과 접근성 기능

실시간 번역은 Meta AI 안경의 대표적인 '여행용' 기능으로 자리잡고 있다. 2024년 발표 당시, 안경은 스페인어·프랑스어·이탈리아어로 말하는 사람의 말을 영어로 실시간 번역해 안경 스피커로 들려주는 기능을 제공했다.12 반대로 사용자가 영어로 말한 내용을 상대 언어로 번역해 보여주거나 들려주는 것도 가능해, 언어 장벽을 줄이는 도구로 기대를 모았다.2

더 나아가 Meta는 시각장애인·저시력 사용자를 위해 Be My Eyes와 협력하고 있다.1 이 서비스는 안경의 POV(사용자 시점) 영상 통화를 활용해, 자원 봉사자가 사용자가 보고 있는 장면을 함께 보며 실시간으로 주변 환경 설명이나 간단한 작업(편지 분류, 온도 조절 등)을 도와주는 구조이다.1 스마트폰 카메라로 화면을 비춰야 했던 기존 방식과 달리, 안경에 내장된 카메라 덕분에 손을 자유롭게 유지하면서 도움을 받을 수 있다는 점에서 접근성 측면의 의미가 크다.

2025년에는 Meta AI 안경 소프트웨어 전반에서 실시간 번역 지원 언어가 점차 확대되고 있으며, 전체 AI 안경 라인업에 실시간 번역이 보편 기능으로 자리잡는 방향으로 업데이트가 이어지고 있다.3

Live AI: 지속적인 비디오 기반 AI 상호작용

2024년 12월 Ray‑Ban Meta 안경 v11 소프트웨어 업데이트에서 도입된 'Live AI'는 기존의 사진 한 장·짧은 질문 단위 상호작용을 넘어, 카메라에서 들어오는 영상을 계속 보면서 AI가 사용자와 상호작용하는 기능이다.2 라이브 AI 세션 동안 Meta AI는 사용자가 보고 있는 장면을 연속적으로 인식하며, 요리·정원 가꾸기·동네 탐색 등 일상 활동을 실시간으로 도와줄 수 있다.2

이 모드에서는 매번 "Hey Meta"라고 부를 필요 없이 계속해서 질문을 던질 수 있고, 이전 대화 내용을 참조하며 대화를 이어 가며, 사용자가 중간에 끼어들어 주제를 바꾸는 것도 가능하다.2 Meta는 장기적으로, AI가 사용자가 요청하기 전에 '적절한 순간'에 먼저 유용한 제안을 하는 방향으로 발전시킬 계획이라고 밝히고 있다.2 이는 "수동적으로 부르면 답하는 AI"에서 "주변 맥락을 보고 먼저 제안하는 능동적 AI 동반자"로의 전환을 시사한다.

2025년 2세대 Ray‑Ban Meta: 배터리와 카메라의 대폭 개선

2025년 9월, Meta는 Ray‑Ban Meta 2세대(Gen 2) 스마트 안경을 발표했다.3 디자인은 여전히 클래식 Ray‑Ban 스타일을 유지하지만, 내부 사양에서는 큰 변화가 있었다. 가장 중요한 개선은 배터리 수명으로, Meta는 2세대 모델이 '일반적인 사용 기준 최대 8시간'까지 사용 가능하다고 밝히며, 1세대가 많은 사용자의 하루 사용을 충분히 커버하지 못했다는 평가를 의식한 업데이트를 내놓았다.3 충전 케이스 역시 이동 중 추가로 최대 48시간 분량의 충전을 제공해, 실제 체감 사용 시간은 더 길어졌다.3

카메라도 3K Ultra HD 급 영상 촬영이 가능하도록 업그레이드되어, 더 선명하고 생생한 영상 기록이 가능해졌다.3 Meta는 이 카메라 업그레이드에 맞춰, 하이퍼랩스(hyperlapse)와 슬로 모션과 같은 새로운 소프트웨어 기반 촬영 모드를 2025년 가을에 모든 AI 안경 라인업에 제공할 예정이라고 밝혔다.3 이를 통해 사용자들은 단순한 'POV 동영상'뿐 아니라, 보다 창의적인 콘텐츠를 안경만으로 제작할 수 있게 된다.

이러한 업데이트는 1세대 제품 리뷰에서 지적되었던 단점(짧은 배터리 수명)을 정면으로 보완하고, 이미 높은 평가를 받던 디자인·오디오·카메라 경험을 한 단계 끌어올려 경쟁 제품과의 격차를 더 벌리는 효과를 가져온다는 평가를 받는다.3

대화 초점과 소프트웨어 업데이트 동향(2025년 말)

2025년 말 기준 Meta AI 안경의 소프트웨어 업데이트 방향은 "더 오래 쓰기 편하고, 주변 사람과의 상호작용을 방해하지 않는" 쪽으로 수렴하고 있다. 전체 AI 안경 라인업에는 'Conversation focus(대화 집중)' 기능이 도입될 예정인데, 이는 오픈이어 스피커를 이용해 사용자가 대화하고 있는 사람의 목소리를 배경 소음 대비 더 잘 들리게 해 주는 기능이다.3 혼잡한 카페나 거리에서 실제 대화 상대의 목소리를 강조함으로써, AI·음악·알림이 흐르는 환경에서도 인간 대화에 집중할 수 있게 돕는다.3

또한 2025년 12월에 공개된 AI 안경 v21 업데이트에서는 Conversation focus, Meta AI의 응답 품질 개선, Spotify와 연계해 주변 상황에 맞는 음악을 추천·재생하는 "soundtrack your world"와 같은 기능이 포함되는 것으로 소개되었다.2 이처럼 정기적인 소프트웨어 업데이트를 통해 Meta는 하드웨어 세대를 넘어서도 기존 사용자들의 안경을 계속 '새로운 기기처럼' 느껴지게 만들고 있다.23

경쟁 및 생태계 동향: Android XR와 AI 안경

Meta의 AI 안경 전략은 다른 빅테크 기업들의 XR·AI 안경 전략과 함께 '다음 세대 컴퓨팅 플랫폼'을 둘러싼 경쟁 구도를 형성하고 있다. 예를 들어 Google은 Android XR을 통해 헤드셋과 함께 AI 안경, 유선 XR 안경을 지원하는 생태계를 구축하고 있으며, 삼성·Gentle Monster·Warby Parker 등과 협력해 두 가지 유형의 안경(화면 없는 AI glasses, 디스플레이 내장 AI glasses)을 개발 중이라고 밝혔다.4 이들 안경은 카메라·마이크·스피커를 활용해 Gemini와 대화하고, 사진 촬영과 주변 인식 도움을 받는다는 점에서 Meta AI 안경과 유사한 방향성을 갖는다.4

또한 디스플레이를 내장한 유형은 시야 안에 내비게이션, 실시간 번역 자막 같은 정보를 띄워 주는 '디스플레이형 AI 안경'을 지향하는데, 이는 현재 카메라+오디오 중심인 Ray‑Ban Meta와는 다른 지향점이다.4 Google은 2025년 개발자 미리보기(Developer Preview)를 통해 이러한 기기용 앱 생태계를 준비하고 있으며, 2026년 이후 실제 제품 출시가 예고된 상태다.4 이와 같은 움직임은 Meta가 AI 안경·XR 기기에서 빠르게 사용자 기반을 확보하는 것이 향후 경쟁에 왜 중요한지를 보여준다.

일상 활용과 고려해야 할 점

Meta AI 안경은 여행, 스포츠 관람, 일상 산책 등에서 '손을 쓰지 않고 순간을 기록하고 공유하는 도구'로 활용되고 있다.1 또한 요리를 하며 레시피를 묻거나, 길을 걷다가 보이는 건물을 물어보거나, 마트에서 상품을 비교하는 등 "보면서 묻는" 시나리오에서 특히 강점을 가진다.12 실시간 번역과 Shazam 통합, 음악·오디오북 재생 기능은 여행·통근·운동 중에 유용하다.12

한편, 카메라가 항상 얼굴 방향을 향하고 있다는 점에서 프라이버시와 주변 사람의 동의 문제도 중요하다. Meta는 촬영 시 LED 인디케이터를 켜는 등 기본적인 장치를 두고 있지만, 사용자는 공공장소에서 촬영이나 라이브 AI 기능을 사용할 때 주변 사람에게 알리거나, 촬영이 금지된 환경에서는 카메라 사용을 자제하는 등 사회적 규범을 고려할 필요가 있다. 배터리 측면에서는 2세대에서 크게 개선되었지만, Live AI처럼 영상·AI 기능을 많이 쓰면 사용 시간이 줄어들 수 있으므로, 사용 목적에 맞는 전원 관리가 중요하다.23

정리

2025년 12월 기준 Meta의 AI 안경은 하드웨어와 소프트웨어 양면에서 빠르게 진화하고 있다. 디자인은 기존 선글라스를 최대한 유지하면서, 2세대에서 배터리와 카메라를 크게 강화했고, 소프트웨어는 Live AI, 실시간 번역, Shazam 연동, 대화 집중 모드, 다양한 음악·오디오 파트너십 같은 기능을 통해 '항상 쓰고 다니는 AI 동반자'에 가까워지고 있다.123 동시에 Google·삼성 등도 AI 안경과 XR 기기를 준비하며 경쟁에 뛰어들고 있어, 2026년 전후로 AI 안경 시장은 더욱 빠르게 변화할 것으로 보인다.4

사용자 입장에서는 "어떤 기능을 가장 자주 쓸지", "얼마나 오랫동안 착용할지", "프라이버시를 어떻게 관리할지"를 기준으로 AI 안경의 장단점을 살펴보는 것이 중요하다. 이런 점을 고려하면 Meta AI 안경은 '손을 쓰지 않고 기록·번역·검색·콘텐츠 소비를 하고 싶은 사람'에게 특히 매력적인 선택지로 자리 잡고 있으며, 2025년 이후 업데이트를 통해 그 가능성은 계속 확장되고 있다.

참고

1Ray‑Ban | Meta Glasses Are Getting New AI Features and More Partner Integrations - https://about.fb.com/news/2024/09/ray-ban-meta-glasses-new-ai-features-and-partner-integrations/

2Ray‑Ban Meta Glasses Add Live AI, Live Translation, & Shazam Support | Meta Quest Blog | Meta Store - https://www.meta.com/blog/ray-ban-meta-v11-software-update-live-ai-translation-shazam/

3Ray‑Ban Meta (Gen 2) smart glasses get a huge battery life boost and 3K video - https://www.wareable.com/wearable-tech/ray-ban-meta-gen-2-smart-glasses-price-features-upgrade

4The Android Show: New features for Galaxy XR and a look at future devices - https://blog.google/products/android/android-show-xr-edition-updates/

5AI glasses release notes | AI Glasses Help | Meta Store - https://www.meta.com/help/ai-glasses/1809764829519902/

이 노트는 요약·비평·학습 목적으로 작성되었습니다. 저작권 문의가 있으시면 에서 알려주세요.