Onyxをセルフホストする方法:マルチLLM対応AIチャット基盤を個人開発に活用する完全ガイド
ChatGPTは便利だけど、社内の機密情報を食わせるのはちょっと怖い。ClaudeもGPTも使いたいけど、毎月のAPI代が読めない。そういう悩みを持ったエンジニアに刺さるOSSが Onyx(旧Danswer)です。
スター数19,051(2026年3月時点)。一言で言うと「Claude、GPT、Llamaなどどのモデルでも動かせる、セルフホスト可能なAIチャット+RAGプラットフォーム」です。
実際に手元のVPSで動かしてみたんですが、最初の印象より機能が充実していてびっくりしました。特にRAG(Retrieval-Augmented Generation)の精度とコネクタの多さが想定外で、NotionのワークスペースをそのままAIに食わせて自然言語で検索できるのが地味に感動ポイントでした。
この記事では、Dockerでのセルフホスト手順から副業・個人開発での活用事例まで、実際に動かした内容をベースに解説します。
Onyxって何?一言で言うと「自分で管理できるChatGPT基盤」
ChatGPTと何が違うの?
ChatGPTとの最大の違いは「どこで動かすか」と「どのモデルを使うか」の自由度です。
ChatGPTはOpenAIのサーバー上で動く。データはOpenAI側に送られる。モデルも基本的にGPTシリーズのみ。
Onyxは自分のサーバーで動く。データは外に出ない。使うモデルはClaude、GPT-4o、Llama、Mistralなど好きなものに切り替えられる。
企業向けのユースケースだと「社内の機密文書をAIに学習させたい。でもクラウドに送りたくない」という需要が多い。そこでセルフホスト型のRAGプラットフォームとして注目されているのがOnyxです。
なぜ今Onyxが注目されているのか
元々 Danswer という名前で開発されていたプロジェクトが、2024年にブランド名を Onyx に変更。Community Edition(MIT)とEnterprise Editionの2本立てに整理されました。
無料のCommunity Editionでも、RAG・マルチLLM・カスタムエージェント・Deep Researchなど主要機能はフルで使えます。個人開発や副業で使うぶんには十分すぎるレベルです。
Onyxでできること:主要機能を整理する
マルチLLM対応:プロバイダーロックインなし
Onyxに繋げられるLLMの例:
- OpenAI: GPT-4o、GPT-4 Turbo
- Anthropic: Claude 3.5 Sonnet、Claude 3 Opus
- Google: Gemini Pro
- ローカルLLM: Ollama経由でLlama 3、Mistral、Qwen等
モデルを1つに縛られないのは地味に大きい。コストを抑えたいときはOllamaでローカルLlamaを動かして、精度が必要な調査タスクだけClaudeに切り替える、という運用が普通にできます。
RAGシステム:40以上のコネクタで知識を活用
OnyxのRAGはハイブリッド検索(キーワード+セマンティック)+ナレッジグラフを組み合わせた仕組みで、単純なベクトル検索より精度が高いです。
接続できるサービスは40種類以上:
- ドキュメント系: Notion、Confluence、Google Drive、Dropbox
- コミュニケーション系: Slack、Gmail、Discord
- 開発系: GitHub、GitLab、Jira、Linear
- Web系: Webページ、RSS、Sitemap
実際にNotionのワークスペースをコネクタで接続してみたところ、5,000ページ程度のインデックス化が30分程度で完了しました。「あのときまとめた〇〇の情報どこだっけ」が自然言語で引き出せるようになるのは、思っていた以上に便利です。
Deep Research:複雑な調査を自動化
Deep Researchは「複数ステップで自動的に情報を収集・分析するAIエージェント」機能です。
「競合他社AとBの料金プランを比較して、自社製品の差別化ポイントを整理して」というリクエストを投げると、Web検索 → 情報収集 → 分析 → レポート生成まで自動でやってくれます。Google、Exa、SerperなどのWeb検索プロバイダと連携できるので、外部情報も加味したリサーチが可能です。
Onyxをセルフホストする手順(Docker編)
事前準備
必要なものは2つだけ:
- Docker(24.0以上推奨)
- Docker Compose(v2.x以上)


コメント