目的: Open WebUI を Windows にインストールし、ローカル LLM を ChatGPT 風 UI で利用する 作成日: 2026-03-02 構成: Open WebUI + LM Studio(推奨) / Ollama(代替)


全体像

┌──────────────────┐      OpenAI互換API       ┌──────────────────┐
│   Open WebUI     │ ◄──────────────────────► │   LM Studio      │
│  (フロントエンド) │    http://localhost:1234  │  (モデル管理 +   │
│  localhost:8080   │                          │   推論サーバー)   │
└──────────────────┘                          └──────────────────┘
                                                ローカルGPU推論
                                              (GGUF / MLXモデル)

Open WebUI は OpenAI 互換 API を喋れるバックエンドなら何でも繋がる。 LM Studio も Ollama もこの API を提供しているので、どちらでも動く。


方法A: LM Studio バックエンド(推奨)

ステップ 1: LM Studio のインストール

  1. LM Studio 公式サイト にアクセス
  2. Windows 版インストーラーをダウンロード・実行
  3. インストール完了後、LM Studio を起動

ステップ 2: モデルのダウンロード

  1. LM Studio の Discover タブ(検索アイコン)を開く
  2. 使いたいモデルを検索(例: Qwen2.5, Llama 3, Gemma 2 など)
  3. GGUF 形式のモデルをダウンロード
    • VRAM に応じて量子化レベルを選択(RTX 5090 なら Q8 や FP16 も可)

ステップ 3: LM Studio のローカルサーバーを有効化

  1. 左サイドバーの Developer タブ(<> アイコン)をクリック
  2. Server Settings(歯車アイコン)を開き、以下を確認・有効化:
設定項目
Server Port 1234(デフォルト)
Enable CORS ON
Serve on Local Network 同一PC内なら OFF でよい
Just-In-Time Model Loading ON にしておくと、リクエスト時にモデルを自動ロードしてくれる
  1. Start Server をクリック
  2. ターミナルに Server started on port 1234 と表示されれば成功
  3. 確認: ブラウザで http://localhost:1234/v1/models にアクセスし、モデル一覧が JSON で返ればOK

ステップ 4: Open WebUI のインストール

方法 4a: Desktop 版(Alpha)

⚠️ Desktop 版は 2026年3月時点で Alpha 段階。安定性を重視するなら pip 版にしておいたほうがいい。

  1. Open WebUI Desktop Releases にアクセス
  2. 最新の Windows 用インストーラー(.exe)をダウンロード
  3. インストーラーを実行(依存関係は自動でセットアップされる)
  4. 起動後、ブラウザが自動で開く

方法 4b: pip 版(安定・推奨)

前提: Python 3.11 がインストール済みであること

# 仮想環境を作成(uv 推奨)
uv venv --python 3.11 open-webui-env
source open-webui-env/Scripts/activate  # Git Bash の場合

# インストール & 起動
uv pip install open-webui
open-webui serve

または uvx でワンライナー起動:

set DATA_DIR=~/.open-webui && uvx --python 3.11 open-webui@latest serve

起動後、http://localhost:8080 にアクセス。

方法 4c: Docker 版

docker run -d -p 3000:8080 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

起動後、http://localhost:3000 にアクセス。

ステップ 5: Open WebUI に LM Studio を接続

  1. 初回アクセス時に管理者アカウントを作成(最初のユーザーが管理者になる)
  2. ログイン後、左下の歯車アイコン → Admin SettingsConnections を開く
  3. OpenAI API セクションで以下を設定:
設定項目
API Base URL http://localhost:1234/v1
API Key 何でもいい(例: lm-studio)。認証はしないが空欄だとエラーになる

⚠️ Ollama 接続欄ではなく、必ず OpenAI API 接続欄に入力すること。 LM Studio を Ollama 欄に設定すると /api/tags 等の Ollama 固有エンドポイントにアクセスしようとしてエラーになる。

  1. Save をクリック
  2. チャット画面に戻り、モデルセレクタに LM Studio のモデルが出ていれば OK

ステップ 6: 動作確認

  1. チャット画面でモデルを選択
  2. メッセージを送信し、応答が返ることを確認
  3. LM Studio 側の Developer タブでリクエストログが表示されていることを確認

LM Studio 接続時の制限

  • トークン数や処理時間が Open WebUI 側に表示されないことがある。LM Studio 内部では計測しているが、API レスポンスにうまく乗らない
  • モデルの追加・削除は LM Studio 側でやる。Open WebUI からは操作できない
  • Just-In-Time Loading を ON にしておくと、Open WebUI でモデルを切り替えたときに自動でロード/アンロードされるので楽

方法B: Ollama バックエンド(代替)

LM Studio でうまくいかないとき、あるいは Open WebUI の画面からモデル管理までやりたい場合はこっち。

ステップ 1: Ollama のインストール

  1. Ollama 公式サイト にアクセス
  2. Download for Windows をクリック、インストーラーを実行
  3. インストール完了後、Ollama はバックグラウンドサービスとして自動起動する

モデル保存先の変更(オプション)

デフォルトの保存先: C:\Users\%USERNAME%\.ollama\models

変更する場合:

  1. Windows の「設定」→「システム」→「バージョン情報」→「システムの詳細設定」→「環境変数」
  2. ユーザー環境変数に追加:
    • 変数名: OLLAMA_MODELS
    • 値: 好きなパス(例: D:\OllamaModels

ステップ 2: モデルのダウンロード

# 例: Llama 3.1 8B
ollama pull llama3.1

# 例: Qwen2.5 7B
ollama pull qwen2.5

# 例: Gemma 2 9B
ollama pull gemma2

# インストール済みモデルの確認
ollama list

ステップ 3: Open WebUI のインストール

pip 版(ステップ 4b と同じ手順):

uv venv --python 3.11 open-webui-env
source open-webui-env/Scripts/activate

uv pip install open-webui
open-webui serve

Docker 版(Ollama 統合済み):

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

--add-host=host.docker.internal:host-gateway で、Docker コンテナからホスト上の Ollama(localhost:11434)に繋がるようになる。

ステップ 4: Open WebUI に Ollama を接続

  1. http://localhost:8080(pip版)または http://localhost:3000(Docker版)にアクセス
  2. 管理者アカウントを作成・ログイン
  3. Admin SettingsConnections を開く
  4. Ollama API セクションで以下を設定:
設定項目
API Base URL http://localhost:11434(デフォルト)
  1. Save して、チャット画面にモデルが出ていれば OK

なぜ Ollama にするか

  • Open WebUI の画面からモデルをダウンロード・削除できる(LM Studio だとこれができない)
  • Ollama は Open WebUI が最初から想定しているバックエンドなので、接続周りのトラブルが少ない
  • CLI が素直。ollama pull モデル名 で入る、ollama rm で消える
  • Docker で動かすときも設定がシンプル

トラブルシューティング

Open WebUI にモデルが表示されない

原因 対処法
LM Studio のサーバーが起動していない Developer タブで Start Server を押す
URL が間違っている LM Studio: http://localhost:1234/v1 / Ollama: http://localhost:11434
LM Studio を Ollama 欄に入力した OpenAI API 欄に入力し直す
CORS が無効 LM Studio の Server Settings で Enable CORS を ON にする
ファイアウォールが邪魔している Windows Defender のファイアウォールでポートを開ける

Open WebUI が起動しない(pip版)

# Python バージョン確認(3.11 必須)
python --version

# ポート競合の確認
netstat -an | grep 8080

LM Studio の応答が遅い

  • そもそもモデルが VRAM に収まっているか確認。はみ出すと CPU オフロードで極端に遅くなる
  • LM Studio の Model Settings で GPU オフロード量を調整
  • nvidia-smi で GPU 使用率を見て、ちゃんと GPU を使えているか確認

結局どれがいいのか

項目 選択肢
フロントエンド Open WebUI の pip 版が一番安定している。Desktop 版は Alpha なのでまだ様子見
バックエンド GUI でモデルを触りたいなら LM Studio、余計なこと考えずに繋ぎたいなら Ollama
インストール方法 pip + uv が軽くて楽。Docker は環境を汚さない点で良いが、やや手順が増える
接続方式 どちらも OpenAI 互換 API(/v1)経由

参考リンク