키미 K2 씽킹

  • Moonshot의 중국 AI 연구소는 Kimi K2 Thinking을 출시하여 1조 개의 매개변수로 구성된 대형 모델을 선보였습니다.

  • 이 모델은 새로운 도구 도입과 단계별 이유형성을 통해 Humanity's Last Exam (HLE) 및 BrowseComp 등의 벤치마크에서 최첨단 성과를 달성했습니다.

  • Kimi K2 Thinking은 INT4 양자화를 통해 감손 없는 추론 지연 감소와 GPU 메모리 사용을 실현하여 256k 컨텍스트 윈도우를 갖추고 있습니다.

  • Hugging Face에서 모델의 용량은 594GB로, 이전의 Kimi K2 모델이 1.03TB 였던 것과 비교할 때 양자화 덕분에 저렴하고 고속으로 호스팅할 수 있습니다.

  • 현재 이 모델은 Moonshot 스스로 호스팅하고 있으며, OpenRouter 프록시 및 관련 플러그인을 통해 사용할 수 있습니다.

  • K2 Thinking은 OpenAI와 Anthropic의 최신 모델들(예: GPT-5, Sonnet 4.5 Thinking)과 경쟁할 수 있는 모델로 평가받으며 긍정적 반응을 얻고 있습니다.

  • AI 모델 벤치마크에서 "Agentic Reasoning"와 "Agentic Search" 부분에서 높은 점수를 기록했지만, "Coding"에서는 최상위를 차지하지 못했습니다.

  • K2 Thinking은 𝜏²-Bench Telecom 벤치마크에서 독립 측정 시 최고의 점수인 93%를 기록하였으며, 이는 고객 서비스 에이전트 역할에서 높은 성과를 보여줍니다.

  • CNBC에 따르면, Kimi K2 Thinking 모델의 훈련 비용은 약 460만 달러입니다.

  • MLX 개발자 Awni Hannun은 두 개의 512GB M3 Ultra Mac Studios에서 이 모델을 성공적으로 실행하였으며, INT4 양자화 인식 훈련(qat)으로 모델 품질의 손실 없이 효율성을 발휘하고 있습니다.


4simonwillison.net링크 복사하기
AI 뉴스 요약은 뉴스의 내용을 AI가 요약 한 것입니다. 따라서 틀린 내용을 포함할 수 있습니다. 뉴스의 자세한 내용을 확인하시려면 해당 뉴스 링크를 클릭해주세요.
원본 뉴스 보기