검색
검색
공개 노트 검색
회원가입로그인

제미나이 1.5 프로 - 백만 토큰 컨텍스트 러닝

Gemini 1.5 Pro

  • Mixture–of-Experts(MoE) 아키텍처 바탕. (신경망에서 가장 관련성이 높은 전문 영역 경로만을 선택적으로 활성화)

  • 제미나이 1.0 울트라에 필적하는 성능.

  • 12만 8천개의 토큰 컨텍스트 윈도우. 일부 그룹에게 1백만 토큰 컨텍스트 윈도우 (context window) 제공하여 실험 중.

  • 제미나이 AI 스튜디오버텍스AI에서 제미나이 API와 함께 1.0 울트라를 활용해 개발을 시작할 수 있다.

제미나이 1.5 프로 - 백만 토큰 컨텍스트 러닝 image 1

이걸보면 1M까지 처리가 가능하다. 연구 상으로는 10M까지 처리가 가능하다고 한다.

이걸 활용하면 문맥 기반 학습(in-context learning) 기능을 활용할 수 있다.

  • 우주선 아폴로 11호와 관련된 402페이지 분량의 텍스트를 입력하고 문서 전반에서 발견되는 모든 자세한 정보들과 대화, 사건, 이미지 등을 종합해 추론 가능.

  • 44분 짜리 무성 영화를 입력해서 주요 줄거리 포인트 분석 및 디테일 추론.

구글 AI 스튜디오에서 대기자 등록해서 사용할 수 있다.

생각

gemini 1.5 프로도 의미가 깊은데 백만 토큰까지 처리할 수 있다고 한다. 예를 들어 우리가 어떤 일을 처리할 때 관련 정보를 그냥 같이 입력해 버리면 해당 일에 대해 LLM이 on the fly 로 학습을 하면서 문제를 해결할 수 있다. 여기에서 추가적으로 필요한 정보를 retrieval하거나 reasoning 이 발전한다면 정말 많은 문제들이 이걸로 풀릴 수 있을 것 같다.

딥마인드에 기대하는 것이 이 reasoning 부분인데 이 부분이 기초적인 사고를 할 수 있을 정도로 발달한다면 도대체 어디까지 가능하게 될까?

AI로 인한 변화는 내가 생각하는 것 보다 빠르고 심층적으로 진행되고 있다.

공유하기
카카오로 공유하기
페이스북 공유하기
트위터로 공유하기
url 복사하기
조회수 : 252
heart
T
페이지 기반 대답
AI Chat