Gemini CLI를 오프라인에서 사용하는 것에 대해 정리

먼저, 결론부터 말씀드리면 공식 “Google Gemini CLI” 도구는 클라우드 기반이므로 오프라인에서 작동하지 않습니다.

하지만 Google이 공개한 **오픈형 모델인 “Gemma(젬마)”**를 사용하면, 내 컴퓨터(로컬)에서 Gemini와 거의 동일한 기술을 오프라인 CLI 환경으로 사용할 수 있습니다.

실질적으로 “Gemini를 오프라인 CLI로 쓰는 방법”인 Gemma 모델 사용법을 중심으로 안내해 드리겠습니다.


1. 공식 Gemini CLI vs. 오프라인 Gemma (비교)

구분 Gemini CLI (공식) Gemma (오프라인용)
작동 방식 클라우드 API 연동 (인터넷 필수) 로컬 PC에서 직접 실행 (오프라인 가능)
모델 Gemini 1.5 / 2.5 Pro, Flash 등 Gemma 2 (2B, 9B, 27B)
장점 매우 똑똑하고 최신 정보 검색 가능 인터넷 없이 무료로 사용, 데이터 보안 우수
설치 도구 npm (@google/gemini-cli) Ollama, LM Studio 등

2. 오프라인에서 Gemini 기술 사용하기 (Gemma + Ollama)

가장 쉽고 대중적인 방법은 Ollama라는 도구를 통해 Google의 Gemma 모델을 터미널에서 실행하는 것입니다.

1단계: Ollama 설치

Ollama는 복잡한 설정 없이 터미널에서 AI 모델을 다운로드하고 실행해 주는 도구입니다.

2단계: 터미널에서 Gemma 모델 실행

설치가 끝나면 터미널(CMD, PowerShell, iTerm 등)을 열고 아래 명령어를 입력합니다.

Bash

# 최신 Gemma 2 모델 (9B 사이즈 - 일반적인 PC 추천)
ollama run gemma2

# 사양이 낮은 PC라면 가벼운 버전 (2B 사이즈)
ollama run gemma2:2b

명령어를 입력하면 자동으로 모델을 다운로드(최초 1회)한 후, 채팅 프롬프트가 실행됩니다. 인터넷 연결을 끊어도 대화가 가능합니다.


3. (참고) 브라우저용 초경량 모델: Gemini Nano

PC에 별도 설치 없이 크롬 브라우저 내장 기능으로 오프라인 AI를 쓰는 방법도 있습니다.

  • Gemini Nano: 크롬 브라우저(Chrome 128+ 버전)에 내장된 초경량 모델입니다.

  • 사용법: 크롬 주소창에 chrome://flags를 입력하여 ‘Gemini Nano’ 관련 플래그를 켜야 하며, 개발자 도구 콘솔(window.ai)을 통해 접근해야 하므로 일반적인 CLI 사용성보다는 웹 개발 테스트용에 가깝습니다.

요약

Gemini CLI를 오프라인에서 사용하는 것에 대해 정리

**”Gemini CLI를 오프라인에서 쓰고 싶다”**는 목적을 달성하려면, **Ollama**를 설치하고 터미널에서 **ollama run gemma2**를 실행하는 것이 가장 확실한 방법입니다.