目的: Open WebUI を Windows にインストールし、ローカル LLM を ChatGPT 風 UI で利用する 作成日: 2026-03-02 構成: Open WebUI + LM Studio(推奨) / Ollama(代替)
全体像
┌──────────────────┐ OpenAI互換API ┌──────────────────┐
│ Open WebUI │ ◄──────────────────────► │ LM Studio │
│ (フロントエンド) │ http://localhost:1234 │ (モデル管理 + │
│ localhost:8080 │ │ 推論サーバー) │
└──────────────────┘ └──────────────────┘
│
ローカルGPU推論
(GGUF / MLXモデル)
Open WebUI は OpenAI 互換 API を喋れるバックエンドなら何でも繋がる。 LM Studio も Ollama もこの API を提供しているので、どちらでも動く。
方法A: LM Studio バックエンド(推奨)
ステップ 1: LM Studio のインストール
- LM Studio 公式サイト にアクセス
- Windows 版インストーラーをダウンロード・実行
- インストール完了後、LM Studio を起動
ステップ 2: モデルのダウンロード
- LM Studio の Discover タブ(検索アイコン)を開く
- 使いたいモデルを検索(例:
Qwen2.5,Llama 3,Gemma 2など) - GGUF 形式のモデルをダウンロード
- VRAM に応じて量子化レベルを選択(RTX 5090 なら Q8 や FP16 も可)
ステップ 3: LM Studio のローカルサーバーを有効化
- 左サイドバーの Developer タブ(
<>アイコン)をクリック - Server Settings(歯車アイコン)を開き、以下を確認・有効化:
| 設定項目 | 値 |
|---|---|
| Server Port | 1234(デフォルト) |
| Enable CORS | ON |
| Serve on Local Network | 同一PC内なら OFF でよい |
| Just-In-Time Model Loading | ON にしておくと、リクエスト時にモデルを自動ロードしてくれる |
- Start Server をクリック
- ターミナルに
Server started on port 1234と表示されれば成功 - 確認: ブラウザで
http://localhost:1234/v1/modelsにアクセスし、モデル一覧が JSON で返ればOK
ステップ 4: Open WebUI のインストール
方法 4a: Desktop 版(Alpha)
⚠️ Desktop 版は 2026年3月時点で Alpha 段階。安定性を重視するなら pip 版にしておいたほうがいい。
- Open WebUI Desktop Releases にアクセス
- 最新の Windows 用インストーラー(
.exe)をダウンロード - インストーラーを実行(依存関係は自動でセットアップされる)
- 起動後、ブラウザが自動で開く
方法 4b: pip 版(安定・推奨)
前提: Python 3.11 がインストール済みであること
# 仮想環境を作成(uv 推奨)
uv venv --python 3.11 open-webui-env
source open-webui-env/Scripts/activate # Git Bash の場合
# インストール & 起動
uv pip install open-webui
open-webui serve
または uvx でワンライナー起動:
set DATA_DIR=~/.open-webui && uvx --python 3.11 open-webui@latest serve
起動後、http://localhost:8080 にアクセス。
方法 4c: Docker 版
docker run -d -p 3000:8080 \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
起動後、http://localhost:3000 にアクセス。
ステップ 5: Open WebUI に LM Studio を接続
- 初回アクセス時に管理者アカウントを作成(最初のユーザーが管理者になる)
- ログイン後、左下の歯車アイコン → Admin Settings → Connections を開く
- OpenAI API セクションで以下を設定:
| 設定項目 | 値 |
|---|---|
| API Base URL | http://localhost:1234/v1 |
| API Key | 何でもいい(例: lm-studio)。認証はしないが空欄だとエラーになる |
⚠️ Ollama 接続欄ではなく、必ず OpenAI API 接続欄に入力すること。 LM Studio を Ollama 欄に設定すると
/api/tags等の Ollama 固有エンドポイントにアクセスしようとしてエラーになる。
- Save をクリック
- チャット画面に戻り、モデルセレクタに LM Studio のモデルが出ていれば OK
ステップ 6: 動作確認
- チャット画面でモデルを選択
- メッセージを送信し、応答が返ることを確認
- LM Studio 側の Developer タブでリクエストログが表示されていることを確認
LM Studio 接続時の制限
- トークン数や処理時間が Open WebUI 側に表示されないことがある。LM Studio 内部では計測しているが、API レスポンスにうまく乗らない
- モデルの追加・削除は LM Studio 側でやる。Open WebUI からは操作できない
- Just-In-Time Loading を ON にしておくと、Open WebUI でモデルを切り替えたときに自動でロード/アンロードされるので楽
方法B: Ollama バックエンド(代替)
LM Studio でうまくいかないとき、あるいは Open WebUI の画面からモデル管理までやりたい場合はこっち。
ステップ 1: Ollama のインストール
- Ollama 公式サイト にアクセス
- Download for Windows をクリック、インストーラーを実行
- インストール完了後、Ollama はバックグラウンドサービスとして自動起動する
モデル保存先の変更(オプション)
デフォルトの保存先: C:\Users\%USERNAME%\.ollama\models
変更する場合:
- Windows の「設定」→「システム」→「バージョン情報」→「システムの詳細設定」→「環境変数」
- ユーザー環境変数に追加:
- 変数名:
OLLAMA_MODELS - 値: 好きなパス(例:
D:\OllamaModels)
- 変数名:
ステップ 2: モデルのダウンロード
# 例: Llama 3.1 8B
ollama pull llama3.1
# 例: Qwen2.5 7B
ollama pull qwen2.5
# 例: Gemma 2 9B
ollama pull gemma2
# インストール済みモデルの確認
ollama list
ステップ 3: Open WebUI のインストール
pip 版(ステップ 4b と同じ手順):
uv venv --python 3.11 open-webui-env
source open-webui-env/Scripts/activate
uv pip install open-webui
open-webui serve
Docker 版(Ollama 統合済み):
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
--add-host=host.docker.internal:host-gatewayで、Docker コンテナからホスト上の Ollama(localhost:11434)に繋がるようになる。
ステップ 4: Open WebUI に Ollama を接続
http://localhost:8080(pip版)またはhttp://localhost:3000(Docker版)にアクセス- 管理者アカウントを作成・ログイン
- Admin Settings → Connections を開く
- Ollama API セクションで以下を設定:
| 設定項目 | 値 |
|---|---|
| API Base URL | http://localhost:11434(デフォルト) |
- Save して、チャット画面にモデルが出ていれば OK
なぜ Ollama にするか
- Open WebUI の画面からモデルをダウンロード・削除できる(LM Studio だとこれができない)
- Ollama は Open WebUI が最初から想定しているバックエンドなので、接続周りのトラブルが少ない
- CLI が素直。
ollama pull モデル名で入る、ollama rmで消える - Docker で動かすときも設定がシンプル
トラブルシューティング
Open WebUI にモデルが表示されない
| 原因 | 対処法 |
|---|---|
| LM Studio のサーバーが起動していない | Developer タブで Start Server を押す |
| URL が間違っている | LM Studio: http://localhost:1234/v1 / Ollama: http://localhost:11434 |
| LM Studio を Ollama 欄に入力した | OpenAI API 欄に入力し直す |
| CORS が無効 | LM Studio の Server Settings で Enable CORS を ON にする |
| ファイアウォールが邪魔している | Windows Defender のファイアウォールでポートを開ける |
Open WebUI が起動しない(pip版)
# Python バージョン確認(3.11 必須)
python --version
# ポート競合の確認
netstat -an | grep 8080
LM Studio の応答が遅い
- そもそもモデルが VRAM に収まっているか確認。はみ出すと CPU オフロードで極端に遅くなる
- LM Studio の Model Settings で GPU オフロード量を調整
nvidia-smiで GPU 使用率を見て、ちゃんと GPU を使えているか確認
結局どれがいいのか
| 項目 | 選択肢 |
|---|---|
| フロントエンド | Open WebUI の pip 版が一番安定している。Desktop 版は Alpha なのでまだ様子見 |
| バックエンド | GUI でモデルを触りたいなら LM Studio、余計なこと考えずに繋ぎたいなら Ollama |
| インストール方法 | pip + uv が軽くて楽。Docker は環境を汚さない点で良いが、やや手順が増える |
| 接続方式 | どちらも OpenAI 互換 API(/v1)経由 |