먼저, 결론부터 말씀드리면 공식 “Google Gemini CLI” 도구는 클라우드 기반이므로 오프라인에서 작동하지 않습니다.
하지만 Google이 공개한 **오픈형 모델인 “Gemma(젬마)”**를 사용하면, 내 컴퓨터(로컬)에서 Gemini와 거의 동일한 기술을 오프라인 CLI 환경으로 사용할 수 있습니다.
실질적으로 “Gemini를 오프라인 CLI로 쓰는 방법”인 Gemma 모델 사용법을 중심으로 안내해 드리겠습니다.
1. 공식 Gemini CLI vs. 오프라인 Gemma (비교)
| 구분 | Gemini CLI (공식) | Gemma (오프라인용) |
| 작동 방식 | 클라우드 API 연동 (인터넷 필수) | 로컬 PC에서 직접 실행 (오프라인 가능) |
| 모델 | Gemini 1.5 / 2.5 Pro, Flash 등 | Gemma 2 (2B, 9B, 27B) |
| 장점 | 매우 똑똑하고 최신 정보 검색 가능 | 인터넷 없이 무료로 사용, 데이터 보안 우수 |
| 설치 도구 | npm (@google/gemini-cli) | Ollama, LM Studio 등 |
2. 오프라인에서 Gemini 기술 사용하기 (Gemma + Ollama)
가장 쉽고 대중적인 방법은 Ollama라는 도구를 통해 Google의 Gemma 모델을 터미널에서 실행하는 것입니다.
1단계: Ollama 설치
Ollama는 복잡한 설정 없이 터미널에서 AI 모델을 다운로드하고 실행해 주는 도구입니다.
-
다운로드: Ollama 공식 홈페이지(ollama.com)에서 OS(Windows/Mac/Linux)에 맞는 버전을 설치하세요.
2단계: 터미널에서 Gemma 모델 실행
설치가 끝나면 터미널(CMD, PowerShell, iTerm 등)을 열고 아래 명령어를 입력합니다.
# 최신 Gemma 2 모델 (9B 사이즈 - 일반적인 PC 추천)
ollama run gemma2
# 사양이 낮은 PC라면 가벼운 버전 (2B 사이즈)
ollama run gemma2:2b
명령어를 입력하면 자동으로 모델을 다운로드(최초 1회)한 후, 채팅 프롬프트가 실행됩니다. 인터넷 연결을 끊어도 대화가 가능합니다.
3. (참고) 브라우저용 초경량 모델: Gemini Nano
PC에 별도 설치 없이 크롬 브라우저 내장 기능으로 오프라인 AI를 쓰는 방법도 있습니다.
-
Gemini Nano: 크롬 브라우저(Chrome 128+ 버전)에 내장된 초경량 모델입니다.
-
사용법: 크롬 주소창에 chrome://flags를 입력하여 ‘Gemini Nano’ 관련 플래그를 켜야 하며, 개발자 도구 콘솔(window.ai)을 통해 접근해야 하므로 일반적인 CLI 사용성보다는 웹 개발 테스트용에 가깝습니다.
요약

**”Gemini CLI를 오프라인에서 쓰고 싶다”**는 목적을 달성하려면, **Ollama**를 설치하고 터미널에서 **ollama run gemma2**를 실행하는 것이 가장 확실한 방법입니다.