Apple 연구원들은 최대 30B 매개변수가 있는 일련의 멀티모달 LLM인 MM1에 대해 자세히 설명하며, 여러 AI 벤치마크에서 최첨단 성능을 달성한다고 말합니다
- 애플 연구원들이 텍스트와 이미지를 모두 활용하는 대규모 언어 모델을 학습시키는 새로운 방법을 개발함.
- 연구 논문 "MM1: Methods, Analysis & Insights from Multimodal LLM Pre-training"에서 고급 성능을 달성하기 위한 학습 데이터와 모델 구조의 조합을 설명함.
- MM1 모델은 시각적 및 언어 정보를 포함하는 다양한 데이터셋 학습을 통해 이미지 캡션 생성, 시각적 질문 응답, 자연어 추론과 같은 작업에서 우수한 결과를 보임.
- 이미지 인코더의 선택과 입력 이미지의 해상도가 모델 성능에 중요한 영향을 미침.
- 대규모 다모달 모델이 복잡한, 개방형 문제를 처리하는 데 있어 중요한 가능성을 보임.
- 애플은 인공지능 개발에 연간 10억 달러를 투자하면서 경쟁사와의 격차를 좁히기 위해 노력 중임.
- 애플은 "Ajax"라는 대규모 언어 모델 프레임워크와 "Apple GPT"라는 내부 챗봇을 개발 중이라고 함.
- 이 기술들은 Siri, 메시지, 애플 뮤직 등의 서비스와 앱에 통합될 예정이며, 개인 맞춤형 플레이리스트 자동 생성, 개발자 코드 작성 보조, 대화 및 작업 수행 등에 AI가 사용될 수 있음.
- 애플 CEO 팀 쿡은 기술 투자와 개발에 대한 강한 의지를 밝히면서, 향후 제품 발전에 AI와 ML 기술이 핵심적 역할을 할 것이라 언급함.
- AI 분야에서의 경쟁이 치열해짐에 따라 애플은 혁신적인 발전을 이루기 위한 자원과 인력을 갖추고 있지만, 비밀주의적인 기업 문화로 인해 경쟁에 뒤처질 가능성도 존재함.
- 6월에 열리는 애플의 세계 개발자 회의(WWDC)에서 새로운 AI 기능과 개발자 도구를 선보일 것으로 기대됨.
4venturebeat.com링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약(GPT-4 활용)한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.