폐쇠망(인터넷 차단 환경)에서 Windows 11에 Ollama 모델을 사용하는 OpenClaw를 설치

WSL2(권장)를 이용해 OpenClaw와 Ollama를 로컬에 설치·모델 다운로드한 뒤 OpenClaw가 로컬 Ollama 엔드포인트를 가리키도록 설정하는 방식이 필요합니다.

아래는 폐쇠망 기준으로 단계별 실전 절차(준비 → 설치 → 설정 → 검증)입니다. 각 단계 끝마다 필요한 명령과 주의점을 간단히 적었습니다.

  1. 사전 준비 (인터넷이 가능한 곳에서 먼저 수행)

  • Windows 11에 WSL2(예: Ubuntu 24.04)와 systemd 활성화 설정을 미리 완료해 둡니다. PowerShell(관리자)에서 wsl –install -d Ubuntu-24.04 후 /etc/wsl.conf에 systemd=true 설정을 적용하세요.

  • Ollama 설치 파일(Windows 또는 Linux/WSL용 바이너리)과 원하는 Ollama 모델(예: llama3.1, gemma3 등)을 인터넷 환경에서 미리 pull/persist합니다(ollama pull <model>). 또한 OpenClaw 설치 패키지(npm 패키지 또는 설치 스크립트)와 필요한 Node.js LTS 설치 파일을 확보해 둡니다.

  • 모델·토큰·설정 전달수단 준비: USB 또는 내부 파일서버(폐쇠망으로 옮길 수 있는 매체)와 민감정보(토큰 등)의 안전 전달 절차를 마련하세요.

  1. WSL2에서 기본 환경 구성 (폐쇠망으로 옮긴 후)

  • WSL 재실행 확인: PowerShell에서 wsl –shutdown 후 Ubuntu 재시작. WSL 내부에서 systemd 동작 확인(systemctl –user status)하세요.

  • Node.js 설치: 오프라인으로 가져온 Node 설치 파일(또는 이미 설치된 nvm)을 사용해 WSL에서 Node 22+를 설치합니다(또는 윈도우 네이티브 PowerShell에 설치 가능).

  • 패키지 매니저 준비: pnpm 또는 npm이 필요하면 오프라인 패키지로 설치/설정하세요.

  1. Ollama 설치 및 모델 배치 (로컬 LLM 준비)

  • Ollama 바이너리 설치: 폐쇠망 환경에 옮긴 설치 파일로 WSL(권장) 또는 Windows에 Ollama를 설치합니다(ollama 명령어가 동작하도록). 설치 후 ollama –version으로 확인하세요.

  • 모델 복사/로드: 인터넷에서 미리 다운로드한 Ollama 모델 파일(ollama pull로 받은 모델 캐시)을 폐쇠망으로 복사하고 Ollama가 해당 모델을 인식하도록 모델 저장소(ollama data 경로)에 배치합니다. 그런 다음 ollama list 또는 ollama run <model>로 모델이 정상 동작하는지 확인하세요.

  • (선택) Ollama에서 openclaw 위한 편의 명령: 인터넷 환경에서 가능하면 ollama launch openclaw 같은 자동화 명령 구성을 미리 테스트해두면 이후 설정이 수월합니다.

  1. OpenClaw 오프라인 설치 (WSL 내부 권장)

  • OpenClaw 패키지 설치: 오프라인으로 가져온 openclaw.tgz 또는 설치 스크립트를 WSL에 복사한 뒤 npm install -g /path/to/openclaw.tgz 또는 pnpm으로 설치합니다. 설치 후 openclaw –version, openclaw doctor로 검증하세요.

  • Gateway(데몬) 설치: systemd가 활성화된 WSL에서 openclaw onboard –install-daemon 또는 openclaw gateway install 명령으로 게이트웨이/데몬을 설치합니다(이 단계로 OpenClaw 서비스가 부팅시 자동 시작되도록 구성).

  1. OpenClaw → Ollama 연결 설정 (핵심)

  • OpenClaw provider 설정: OpenClaw 설정 파일(보통 ~/.config/openclaw/config.json 또는 openclaw configure 명령)에서 provider를 ollama로 지정하고 baseUrl을 Ollama의 로컬 HTTP 포트로 설정합니다(기본 예: “http://localhost:11434” 또는 Ollama 문서의 포트).
    예시(설정 항목): { “agent”: { “provider”: “ollama”, “model”: “llama3.1:8b”, “baseUrl”: “http://localhost:11434” } }.

  • Ollama-OpenClaw 자동 연동: Ollama가 제공하는 ollama launch openclaw을 사용할 수 있다면(미리 테스트), 해당 명령이 생성하는 설정을 참고해 동일한 설정값을 수동으로 적용하면 됩니다.

  • 로컬 모델 우선: 폐쇄망에서는 외부 API 토큰이 쓸모없으므로 OpenClaw가 로컬 Ollama를 기본 모델로 사용하도록 확실히 지정하세요.

  1. 채널·권한 설정 및 민감 정보 입력

  • 외부 채널 필요 여부 확인: Telegram 등 외부 채널을 통한 알림/연동은 폐쇄망에서 불가하므로 내부 채널(사내 메시지 시스템 등)로 대체하거나 비활성화하세요.

  • 토큰/키: 외부 모델 API 토큰은 필요하지 않으나 내부 서비스(사내 LLM 인증 등)가 필요하면 인터넷 환경에서 사전에 발급·안전 전달해 수동 등록하세요.

  1. 서비스 시작 및 검증 테스트

  • 데몬 시작/로그 확인: sudo systemctl –user start openclaw-gateway (또는 openclaw gateway start) 후 systemctl –user status openclaw-gateway와 journalctl로 로그를 확인하세요.

  • 상태 확인: openclaw status, openclaw doctor로 문제점(포트, 모델연결 등)을 점검합니다.

  • 간단한 대화 테스트: openclaw converse 또는 Web UI(로컬)에서 간단 질문을 던져 Ollama 모델이 응답하는지 확인하세요. Ollama 모델의 응답이 돌아오면 성공입니다.

오프라인 설치 시 체크리스트(다운로드할 항목)

  • WSL2 설치 패키지 및 배포판(또는 WSL 이미 미설치 상태라면 설치 스크립트).

  • Node.js LTS 설치 파일 또는 nvm/메타파일.

  • OpenClaw npm 패키지(.tgz) 또는 설치 스크립트.

  • Ollama 설치 파일(Windows/WSL용) 및 ollama가 사용하는 모델 데이터(ollama pull로 받은 모델 디렉터리).

  • (선택) OpenClaw 설정 템플릿 파일과 서비스 유닛 파일 복사본.

주의사항 및 팁

  • OpenClaw 설치 스크립트는 기본적으로 인터넷을 사용하므로, 오프라인 설치는 모든 의존성을 수동으로 해결해야 합니다(특히 npm 패키지 의존성).

  • Ollama 모델은 용량이 크므로 모델 파일 전송(USB 등) 전에 저장공간과 전송 방법을 미리 검토하세요.

  • systemd와 게이트웨이 자동 시작이 핵심입니다—WSL에서 systemd=true 설정을 반드시 확인하세요.

  • Ollama의 ollama launch openclaw 명령은 자동설정 편의 기능을 제공하므로(인터넷 환경에서) 해당 명령으로 생성된 설정을 오프라인 환경에 그대로 복사하면 설정 오류를 줄일 수 있습니다.

 

1. 사전 준비 (인터넷 PC에서 진행)

  1. Ollama 설치 파일 다운로드
  2. Node.js 설치 파일 다운로드 (LTS 버전 추천)
    • nodejs.org → Windows Installer (.msi) 다운로드.
  3. 필요한 Ollama 모델 다운로드 (폐쇠망에서 사용할 모델)
    • 인터넷 PC에서 ollama pull로 모델 다운로드 (예: qwen3, llama3.3, gemma4 등).
    • 모델 파일 위치: %USERPROFILE%\.ollama\models (blob, manifest 등 전체 폴더 복사).
    • 권장: 8B~27B급 모델 (VRAM 확인 필수).
  4. OpenClaw 관련 파일 준비 (선택)
    • npm 패키지 미리 다운로드하거나, installer script를 텍스트로 저장 (직접 npm install 어려울 수 있음).
  5. USB 또는 외장 드라이브에 모두 복사.

2. Windows 11 대상 PC 설치 단계

단계 1: PowerShell 실행 정책 변경 (관리자 권한)

  1. PowerShell을 관리자 권한으로 실행.
  2. 다음 명령어 실행:
    PowerShell

    Set-ExecutionPolicy RemoteSigned -Scope CurrentUser

    (Y 입력 확인)

단계 2: Node.js 설치

  1. 준비한 Node.js .msi 파일 실행 → Next로 기본 설치.
  2. 설치 후 PowerShell에서 확인:
    PowerShell

    node --version
    npm --version

단계 3: Ollama 설치

  1. 준비한 Ollama .exe 설치 파일 실행.
  2. 설치 완료 후 서비스 확인 (PowerShell):
    PowerShell

    ollama --version
    ollama serve   # 백그라운드 실행 (새 창에서)
  3. 모델 복사: 인터넷 PC에서 복사한 .ollama\models 폴더를 대상 PC의 %USERPROFILE%\.ollama\models에 붙여넣기.
  4. 모델 확인:
    PowerShell

    ollama list

단계 4: OpenClaw 설치

방법 A: npm 사용 (권장, Node.js 설치 후)

PowerShell

npm install -g openclaw@latest

방법 B: Installer script 사용 (인터넷 PC에서 script 미리 저장한 경우)

PowerShell

iwr -useb https://openclaw.ai/install.ps1 | iex   # script를 미리 다운로드해서 로컬 실행 권장

설치 후 확인:

PowerShell

openclaw --version

단계 5: OpenClaw Ollama 연동 및 구성

  1. Ollama 서비스가 실행 중인지 확인 (ollama serve).
  2. Onboarding 실행:
    PowerShell

    openclaw onboard
    • Ollama provider 선택.
    • Local only 모드 선택.
    • baseUrl: http://localhost:11434 (또는 http://127.0.0.1:11434).
    • 사용할 모델 선택 (예: ollama/qwen3 등).
  3. 수동 config 설정이 필요하면 (~/.openclaw/openclaw.json 또는 %USERPROFILE%\.openclaw\openclaw.json):
    JSON

    {
      "models": {
        "providers": {
          "ollama": {
            "baseUrl": "http://localhost:11434",
            "apiKey": "ollama-local"
          }
        }
      },
      "agents": {
        "defaults": {
          "model": { "primary": "ollama/당신의모델명" }
        }
      }
    }
  4. Gateway 시작:
    PowerShell

    openclaw gateway start
  5. 상태 확인:
    PowerShell

    openclaw status
    openclaw models list

3. 폐쇠망 추가 팁 및 주의사항

  • 웹 검색/외부 기능: 완전 폐쇠망에서는 동작 안 함 (로컬 모델만 사용).
  • WSL2 추천: 안정성 위해 WSL + Ubuntu 설치 후 OpenClaw 실행 고려 (별도 가이드 필요).
  • GPU 지원: NVIDIA/AMD GPU 드라이버 미리 설치 (Ollama가 GPU 인식).
  • 문제 해결:
    • Ollama 연결 실패 → OLLAMA_HOST=0.0.0.0 환경 변수 설정 + 방화벽 확인.
    • Config 오류 → openclaw doctor 또는 openclaw configure 실행.
    • 모델 안 보임 → ollama list로 확인 후 재시작.

4. 실행 및 테스트

  • openclaw 명령어로 TUI 실행하거나, messaging app (Telegram 등) 연동.
  • 완전 로컬: ollama run 당신모델로 테스트 후 OpenClaw에서 사용.