Apple M5 Max はローカルLLMの夢を見るか? ― GPT-OSS-120Bほか主要モデルの推論速度試算

2026年3月3日、AppleがMacBook Pro向けの M5 Pro / M5 Max チップを正式発表した。18コアCPU、40コアGPU(Neural Accelerator内蔵)、最大128GBの統合メモリ、メモリ帯域幅 614 GB/s。 ...

March 3, 2026 · 8 分

Open WebUI セットアップ手順書(Windows + ローカルモデル)

目的: Open WebUI を Windows にインストールし、ローカル LLM を ChatGPT 風 UI で利用する 作成日: 2026-03-02 構成: Open WebUI + LM Studio(推奨) / Ollama(代替) 全体像 ┌──────────────────┐ OpenAI互換API ┌──────────────────┐ │ Open WebUI │ ◄──────────────────────► │ LM Studio │ │ (フロントエンド) │ http://localhost:1234 │ (モデル管理 + │ │ localhost:8080 │ │ 推論サーバー) │ └──────────────────┘ └──────────────────┘ │ ローカルGPU推論 (GGUF / MLXモデル) Open WebUI は OpenAI 互換 API を喋れるバックエンドなら何でも繋がる。 LM Studio も Ollama もこの API を提供しているので、どちらでも動く。 ...

March 2, 2026 · 6 分