Ollama 로컬 AI 이미지 생성, Mac에서 드디어 열린다
Ollama가 macOS에서 “로컬 AI 이미지 생성”을 실험적으로 지원하기 시작했습니다. 이제 맥에서도 클라우드에 올리지 않고, 내 컴퓨터에서 바로 이미지를 뽑아볼 수 있다는 뜻이죠. 이번 업데이트의 핵심은 두 가지 이미지 모델(Z-Image Turbo, Flux 2 Klein)과 함께 “저장 방식(현재 폴더에 바로 저장)”, “조절 가능한 생성 옵션(크기·스텝·시드)” 같은 실사용 포인트가 확실히 들어왔다는 점입니다.
이번 글에서는 맥에서 Ollama로 이미지 생성이 왜 의미 있는지, 두 모델은 어떤 성격인지, 성능/그래픽카드 요구사항과 라이선스까지 ‘실제로 써먹을 수 있는 관점’으로 정리해볼게요.
Ollama 이미지 생성이 의미 있는 이유: 로컬에서 끝나는 작업
AI 이미지 생성은 늘 편리했지만, 그 편리함의 대가로 프롬프트와 결과물이 서비스 서버를 거치는 경우가 많았습니다. 로컬 생성은 이 흐름을 뒤집습니다. 네트워크가 불안정해도 되고, 작업물이 외부로 나가지 않으며, 반복 실험도 “요금 걱정 없이” 마음껏 할 수 있죠.
특히 Ollama는 원래 로컬 LLM을 쉽게 돌리는 경험으로 유명했는데, 이미지까지 같은 철학으로 가져오면 “텍스트(LLM) → 이미지” 제작 루프를 한 컴퓨터 안에서 깔끔하게 닫을 수 있습니다. 초안 카피를 만들고, 그 분위기에 맞는 썸네일을 바로 뽑고, 다시 문구를 다듬는 식의 왕복이 빨라져요.
macOS 실험 지원, 그리고 Windows·Linux도 따라온다
현재는 macOS에서 먼저 “실험 단계”로 이미지 생성이 열렸고, Windows와 Linux 지원도 예정되어 있습니다. 즉, 지금은 맥이 먼저 맛보는 프리뷰 느낌이고, 곧 다른 OS로 확장되는 흐름에 가깝습니다.
이 단계에서 중요한 포인트는 “지금 당장 완성형 툴”이라기보다, 추가 모델과 이미지 편집 기능까지 염두에 둔 출발점이라는 점입니다. 작업 파이프라인을 로컬로 옮기고 싶은 사람이라면 지금부터 익숙해져 두는 게 이득일 수 있어요.
출시 모델 1: Z-Image Turbo — ‘텍스트 잘 쓰는’ 사실주의 쪽
Z-Image Turbo는 Alibaba Tongyi Lab이 만든 60억(6B) 파라미터 모델로, 사실적인 이미지를 만들고 텍스트 렌더링(영어/중국어)에 강점이 있다고 알려졌습니다.
여기서 “텍스트 렌더링”은 생각보다 체감이 큽니다. 포스터나 패키지 시안처럼 글자가 들어가는 이미지에서, 기존 생성 모델은 글씨가 쉽게 뭉개지거나 의미 없는 낙서가 되는 경우가 많았거든요. Z-Image Turbo 계열은 이런 용도에서 시도해볼 가치가 있습니다. (물론 로컬 환경과 설정에 따라 결과는 달라질 수 있어요.)
출시 모델 2: Flux 2 Klein — ‘초고속 생성’으로 흐름을 바꾼다
Flux 2 Klein은 Black Forest Labs의 이미지 모델이며, 4B와 9B 변형이 함께 언급됩니다. 핵심 캐릭터는 “속도”예요. 커뮤니티와 툴 생태계(예: ComfyUI)에서도 Klein 계열은 빠른 추론을 전면에 내세우는 흐름으로 정리됩니다.12
특히 4B 버전은 상대적으로 가벼운 편이라 로컬 워크플로우에 넣기 좋고, 9B는 더 높은 품질을 기대할 수 있지만 그만큼 제약(하드웨어·라이선스)이 생깁니다. 어떤 모델이 정답이라기보다, “내가 지금 필요한 속도와 품질의 균형”이 선택 기준이 됩니다.
최소 사양과 VRAM: ‘내 맥에서 되나요?’를 현실적으로 말하자면
Flux 2 Klein 4B는 Nvidia RTX 3090 또는 4070처럼 최소 13GB VRAM을 가진 표준 그래픽 카드에서 실행된다고 소개됩니다.2 이 말은 곧, 고성능 Nvidia GPU가 있는 데스크톱 환경에서는 ‘로컬 초고속 생성’이 현실적인 목표라는 뜻입니다.
다만 맥 사용자 입장에선 여기서 한 번 생각이 멈춥니다. 맥은 Nvidia GPU를 쓰지 않는 경우가 대부분이니까요. 그래서 현재 macOS 지원이 “된대!” 수준의 뉴스로 끝나지 않으려면, 애플 실리콘에서의 최적화 경험이 얼마나 매끄럽게 제공되는지가 관건입니다. 실험 단계라는 표현도, 바로 이 지점을 포함한 다양한 환경 변수를 의미한다고 보는 게 자연스럽습니다.
결론적으로, 지금은 “맥에서 곧바로 고성능 로컬 이미지 생성이 모두에게 보장된다”라기보다, Ollama가 이미지 생성까지 로컬로 가져오는 큰 방향성이 확인됐고, 각 환경에 맞는 성숙도가 따라오는 중이라고 이해하는 편이 정확합니다.
라이선스 체크: 4B는 상업 가능, 큰 버전은 제한
이미지 모델을 업무에 쓰려면 성능보다 먼저 봐야 하는 게 라이선스입니다. 알려진 내용에 따르면 소형 버전은 상업적 사용이 가능하지만, 대형 버전은 비상업적 용도로 제한됩니다.3 즉, “좋아 보이니까 큰 거!”라고 가면 나중에 발목을 잡힐 수 있어요.
블로그 썸네일, 쇼핑몰 배너 시안, 앱 온보딩 일러스트처럼 상업 프로젝트에 넣을 계획이라면, 애초에 상업 사용이 명확히 허용된 모델을 중심으로 워크플로우를 짜는 것이 안전합니다. 모델 선택이 ‘품질’이 아니라 ‘리스크 관리’가 되는 순간이 꼭 오거든요.
생성 옵션과 저장 방식: 지금 당장 유용한 소소한 디테일
이번 macOS 이미지 생성 지원에서 반가운 부분은 결과물이 “현재 디렉토리(폴더)”에 바로 저장된다는 점입니다. 따로 웹 UI에서 다운로드하거나, 임시 저장소를 뒤질 필요가 줄어들죠.
또 이미지 크기, 스텝 수, 시드 값을 조정할 수 있습니다. 스텝은 대체로 품질과 속도의 줄다리기고, 시드는 “같은 프롬프트로도 결과를 재현”하거나 “조금씩만 변주”할 때 유용합니다. 이런 옵션이 있다는 건, Ollama가 단순 데모가 아니라 ‘반복 작업’까지 고려하고 있다는 신호로 볼 수 있어요.
마지막으로, 추가 모델과 이미지 편집 기능도 계획되어 있다고 하니(예: 기존 이미지를 받아 수정하는 워크플로우), 텍스트 생성→이미지 생성→이미지 편집까지 한 흐름으로 엮이는 그림도 충분히 기대해볼 만합니다.
시사점 내용을 바탕으로 정리해보면 이렇습니다. Ollama가 맥에서 로컬 AI 이미지 생성을 열었다는 건, 단순히 기능 하나가 늘어난 게 아니라 “로컬 크리에이티브 스택(텍스트+이미지)”이 현실로 들어오기 시작했다는 뜻입니다.
처음 시작은 가볍게 추천합니다. 초고속 반복이 필요하면 Flux 2 Klein 쪽으로, 텍스트가 들어간 사실주의 결과물이 필요하면 Z-Image Turbo를 먼저 만져보세요. 그리고 업무에 쓸 계획이 있다면, 모델 성능보다 라이선스를 먼저 확인하는 습관을 꼭 들이시길 권합니다.
참고
1FLUX.2 [klein] 4B & 9B - Fast local image editing and generation
2FLUX 2 Klein: The Fastest AI Image Generation Model with 9B and 4B Parameters | GLM-Image
3Flux.2 Klein Models (9B & 4B): Guide to Base vs Distilled on RunDiffusion