LM Studio를 VS Code와 연동하는 핵심

**LM Studio를 VS Code와 연동하는 핵심은 “LM Studio를 로컬 OpenAI 호환 API 서버로 띄우고, VS Code 확장 프로그램이 그 서버를 바라보게 하는 것”**입니다. LM Studio 공식 문서도 외부 도구 연동의 기본 방식으로 http://localhost:1234를 사용하라고 안내하고 있고, OpenAI 호환 엔드포인트를 제공한다고 명시합니다. Source Source


1) 전체 구조 한눈에 보기

흐름은 보통 이렇습니다.

LM Studio 설치 → 모델 다운로드/로드 → Developer 탭에서 서버 시작 → VS Code 확장에서 Base URL을 LM Studio로 설정 → 모델 ID 지정 → 사용 시작 Source Source

LM Studio는 로컬 서버를 localhost 또는 네트워크로 제공할 수 있고, OpenAI 호환 방식으로 /v1/models/v1/chat/completions/v1/responses/v1/completions/v1/embeddings 같은 엔드포인트를 지원합니다. 그래서 VS Code 쪽에서 “OpenAI-compatible provider”만 지원하면 대부분 연결 가능합니다. Source Source


2) LM Studio 쪽 준비

2-1. 모델 다운로드 및 로드

먼저 LM Studio에서 사용할 LLM을 다운로드하고, 실제로 로드된 상태로 만들어야 합니다.
VS Code가 연결되더라도, LM Studio 쪽에 모델이 안 올라가 있으면 응답이 안 오거나 모델을 못 찾는 오류가 날 수 있습니다.

2-2. 로컬 서버 시작

LM Studio 공식 문서 기준으로, Developer 탭에서 “Start server”를 켜면 API 서버가 시작됩니다. CLI로는 lms server start도 가능합니다. Source

실무적으로는 보통 아래 값을 기억하면 됩니다.

  • Base URLhttp://localhost:1234/v1
  • 기본 포트 예시: 1234 Source

LM Studio 공식 예시도 OpenAI 클라이언트의 base URL을 http://localhost:1234/v1로 바꾸는 방식입니다. Source


3) VS Code에서 연동하는 가장 쉬운 방법

LM Studio가 VS Code 전용 플러그인을 직접 제공하는 방식이라기보다,
VS Code의 AI 확장 프로그램이 LM Studio의 OpenAI 호환 API를 사용하게 만드는 방식이 일반적입니다. LM Studio의 공식 연동 페이지도 “좋아하는 도구에 base URL만 LM Studio로 지정하면 된다”는 방향으로 설명합니다. Source

대표적으로 많이 쓰는 방식은 아래 2가지입니다.


4) Continue로 연결하기

Continue 문서에 따르면, OpenAI 호환 서버를 붙일 때 핵심 항목은 다음입니다.

  • provider: openai
  • model
  • apiBase
  • apiKey Source

즉, LM Studio를 Continue에 붙일 때는 apiBase를 LM Studio 주소로 바꾸면 됩니다.

예시 설정

name: My Config
version: 0.0.1
schema: v1

models:
  - name: LM Studio Local
    provider: openai
    model: <LM_STUDIO의_모델_ID>
    apiBase: http://localhost:1234/v1
    apiKey: dummy

여기서 중요한 건 <LM_STUDIO의_모델_ID> 부분입니다.
이 값은 LM Studio에서 현재 서버에 올린 모델 식별자와 맞아야 합니다.

Continue 연결 절차

  1. VS Code에 Continue 설치
  2. Continue 설정 파일 열기
  3. provider: openai로 설정
  4. apiBase를 http://localhost:1234/v1로 지정
  5. model에 LM Studio 모델 ID 입력
  6. 저장 후 Continue에서 해당 모델 선택

Continue 공식 문서는 OpenAI 호환 제공자에 대해 apiBase를 변경해 로컬 서버를 붙일 수 있다고 설명합니다. Source

Continue에서 자주 보는 이슈

Continue 문서에는 특정 상황에서 /responses 대신 /chat/completions를 쓰도록 useResponsesApi: false를 설정하는 방법도 나와 있습니다.
만약 연결은 되는데 reasoning/streaming 관련 오류가 난다면 이 옵션을 검토해볼 수 있습니다. Source

예:

models:
  - name: LM Studio Local
    provider: openai
    model: <LM_STUDIO의_모델_ID>
    apiBase: http://localhost:1234/v1
    apiKey: dummy
    useResponsesApi: false

5) Cline으로 연결하기

Cline 공식 문서에 따르면 OpenAI Compatible provider를 설정할 때 필요한 핵심 항목은 다음 3개입니다.

  • Base URL
  • API Key
  • Model ID Source

또한 Cline 문서는 로컬 모델을 LM Studio 같은 도구를 통해 연결할 수 있다고 명시합니다. Source

Cline 연결 절차

  1. VS Code에 Cline 설치
  2. Cline 설정 패널 열기
  3. API Provider = OpenAI Compatible 선택
  4. Base URL = http://localhost:1234/v1 입력
  5. API Key 입력
  6. Model ID에 LM Studio의 모델 ID 입력
  7. Verify 또는 테스트 요청으로 연결 확인

Cline 공식 문서도 OpenAI Compatible provider 사용 시 Base URL, API Key, Model ID를 입력하라고 안내합니다. Source


6) 실제로 많이 헷갈리는 포인트

6-1. localhost:1234 vs localhost:1234/v1

문서상 OpenAI 호환 클라이언트 예시는 보통 **http://localhost:1234/v1**를 사용합니다.
특히 VS Code 확장이 OpenAI 형식으로 붙는다면 이 주소를 쓰는 편이 가장 안전합니다. Source

6-2. 모델 이름은 “내가 임의로 지으면” 안 됨

model 또는 Model ID는 LM Studio 서버가 인식하는 모델 식별자와 일치해야 합니다.
LM Studio OpenAI 호환 예시도 “LM Studio의 model identifier를 사용하라”고 설명합니다. Source

6-3. LM Studio 서버가 켜져 있어야 함

VS Code만 켜져 있어도 안 되고, LM Studio 앱에서 서버가 실행 중이어야 합니다.
공식 문서 기준으로 Developer 탭에서 Start server를 켜야 합니다. Source


7) 가장 간단한 추천 조합

목적별로 정리하면 이렇습니다.

코드 보조를 가볍게 붙이고 싶다

Continue + LM Studio가 설정 파일 기반이라 비교적 단순합니다.
apiBase만 LM Studio로 바꾸면 되는 구조라 이해하기 쉽습니다. Source

에이전트형 코딩 워크플로를 쓰고 싶다

Cline + LM Studio 조합이 잘 맞습니다.
Cline은 OpenAI Compatible provider를 공식 지원하고, LM Studio 같은 로컬 모델 서버도 지원 범주에 포함합니다. Source


8) 문제 생길 때 체크리스트

LM Studio를 VS Code와 연동하는 핵심

아래 순서로 보면 대부분 해결됩니다.

  1. LM Studio에서 모델이 실제로 로드되어 있는가
  2. Developer 탭에서 서버가 켜져 있는가
  3. Base URL이 http://localhost:1234/v1로 맞는가
  4. VS Code 확장에 입력한 모델 ID가 LM Studio 모델 식별자와 일치하는가
  5. Continue라면 필요 시 useResponsesApi: false를 검토했는가 Source Source Source

Cline 공식 문서도 연결 오류 시 Base URL, 모델 ID, 네트워크 접근성을 우선 확인하라고 안내합니다. Source


9) 바로 써먹는 요약

가장 짧게 정리하면 아래입니다.

LM Studio

  • 모델 다운로드/로드
  • Developer 탭 → Start server
  • 로컬 주소 확인: http://localhost:1234/v1 Source Source

VS Code 확장

  • OpenAI 호환 제공자 선택
  • Base URL을 http://localhost:1234/v1로 설정
  • Model ID를 LM Studio 모델명으로 지정
  • 필요하면 API Key 입력 Source Source