Open WebUIをVPSでセルフホストする方法【ローカルLLMをChatGPT風UIで使う】

ChatGPTと同じ感覚でローカルLLMを使いたい。でもデータは外に出したくない。

そんな人にぴったりなのが Open WebUI です。OllamaなどのローカルLLMをChatGPTライクなUIで操作できるOSSで、GitHubのスター数は70,000超え。2024〜2025年で最も急成長したAI系リポジトリの一つです。

この記事では、Open WebUIをVPSにDockerでセルフホストする手順を解説します。

Open WebUIとは?

一言でいうと「ローカルLLMをChatGPTみたいなUIで使えるようにするツール」です。

主な機能:

  • Ollama連携でgemma3・llama3・mistralなどを使える
  • Claude API・OpenAI APIとも接続可能
  • チャット履歴の保存・管理
  • RAG(文書を読ませて質問する機能)
  • 複数ユーザー管理

全データがローカル(またはVPS内)に保存されるので、社内文書や個人情報を外部に送らずに済みます。

必要なもの

  • VPS(メモリ4GB以上推奨。Ollama + Open WebUIを同時に動かすため)
  • Docker・Docker Compose

メモリ4GB以上のVPSが必要です。コスパのいい選択肢:

  • ConoHa VPS 4GBプラン:月額約2,200円

  • Vultr 4GBプラン:月$24〜(※アフィリエイトリンク)

Step 1: Ollamaをインストール

まずLLMを動かすOllamaをインストールします。

curl -fsSL https://ollama.com/install.sh | sh

ollama --version

ollama pull gemma3:4b

Step 2: Open WebUIをDockerで起動

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

http://localhost:3000 でUIが起動します。

Step 3: Nginxでhttps化

外からアクセスするためにNginxとSSLを設定します。

sudo apt install nginx certbot python3-certbot-nginx -y

sudo nano /etc/nginx/sites-available/open-webui

Nginx設定:

server {
    server_name your-domain.com;
    location / {
        proxy_pass http://localhost:3000;
        proxy_http_version 1.1;
        proxy_set_header Upgrade $http_upgrade;
        proxy_set_header Connection 'upgrade';
        proxy_set_header Host $host;
        proxy_cache_bypass $http_upgrade;
    }
    listen 80;
}
sudo ln -s /etc/nginx/sites-available/open-webui /etc/nginx/sites-enabled/
sudo nginx -t && sudo systemctl reload nginx
sudo certbot --nginx -d your-domain.com --email your@email.com --agree-tos --non-interactive

実際に使ってみた感想

正直、OllamaにUIをつけただけでしょ?と思っていたのですが、使ってみると機能が充実していて驚きました。

特に良かった点

  • RAGが普通に使える:PDFをアップロードして質問できる。ローカルで動くので社内文書も安心
  • モデル切り替えが楽:Ollama・OpenAI・Claude APIをUI上で切り替えられる
  • チャット履歴が残る:ChatGPTと同じ感覚。過去の会話を検索できる

向いている人・向いていない人

向いている人

  • ChatGPTのデータをローカル管理したい人
  • 複数のLLMを比較したい人
  • チームでセルフホストLLMを使いたい人

向いていない人

  • Dockerが難しいと感じる初心者
  • GPT-4相当の性能が欲しい人(ローカルLLMはスペック依存)
  • スマホからメインで使いたい人

まとめ

Open WebUIはローカルLLMを実用的に使うための最良のフロントエンドです。VPSさえあればデータをローカルに保ちながらChatGPTと同等のUXが手に入ります。

  • GitHub: https://github.com/open-webui/open-webui(スター70,000+)

関連記事

コメント

タイトルとURLをコピーしました