Local Deep ResearchでPerplexity要らず|ローカルLLMで95%精度のAI調査システムを無料で自作する

Uncategorized

Perplexity・ChatGPT Deep Researchは便利だけど、コストとプライバシーが気になる

AIを使った調査・情報収集は、もはやエンジニアの必需品になってきました。Perplexityは月20ドル(Pro)、ChatGPT Deep Researchが使えるPlusプランは月20ドル。どちらも素晴らしいサービスですが、副業や個人プロジェクトで毎月コンスタントに使い続けると、年間費用はあっという間に数万円に膨らみます。

そしてもう一つの問題がプライバシーです。競合分析、クライアント案件の技術調査、未発表プロダクトのリサーチ——こういった「外部に出したくない」調査クエリをクラウドサービスに投げ続けることに抵抗を感じるエンジニアは少なくないはずです。

Local Deep Researchは、その両方の課題を一気に解決してくれるOSSです。GitHubスター数7,000超、Pythonベース、Docker対応。RTX 3090上でQwen3.6-27Bを動かした結果、SimpleQAで95%・xbench-DeepSearchで77%という精度を記録しており、商用サービスと遜色ないパフォーマンスを誇ります。

この記事では、Local Deep Researchのセットアップから副業エンジニアならではの活用法まで、実用的な視点で解説していきます。


Local Deep Researchとは?4つの調査モードを解説

Local Deep Researchは、ローカルLLMとウェブ検索を組み合わせたAI調査アシスタントです。単なるチャットbotとは異なり、複数のウェブソースを自動収集・要約・構造化して回答を生成します。用途に応じて4つのモードを使い分けられます。

Quick Summary(クイック要約)

最もシンプルなモードです。質問を投げると、30秒〜3分以内に引用付きの回答が返ってきます。「この技術の概要を知りたい」「最新ニュースをざっくり把握したい」といった日常的な調査に最適です。

Detailed Research(詳細リサーチ)

複数のウェブソースを深掘りし、構造化された詳細分析を生成します。技術選定の比較検討や、特定ライブラリの仕様調査など、踏み込んだ調査が必要なシーンで活躍します。

Report Generation(レポート生成)

目次付きのプロフェッショナルなレポートを自動生成します。PDF・Markdownでのエクスポートにも対応しており、クライアントへの提出資料やチームへの共有ドキュメントとしてそのまま使えます。

Document Analysis(ドキュメント分析)

プライベートなドキュメント(社内資料、PDFなど)をアップロードしてAIで検索・分析できます。クラウドに一切データを送らずに、機密文書の横断検索が可能です。PDFをRAGで活用する方法については、RAG-AnythingでマルチモーダルRAGを構築という記事も参考にしてください。


Docker Composeで5分セットアップ

セットアップはDocker Composeで完結します。全プラットフォーム(Windows/Mac/Linux)に対応しており、GPU非搭載マシンでも動かせます。

# docker-compose.ymlをダウンロード
curl -O https://raw.githubusercontent.com/LearningCircuit/local-deep-research/main/docker-compose.yml

# バックグラウンドで起動
docker compose up -d

起動後はブラウザで http://localhost:5000 にアクセスするだけです。デフォルトの検索バックエンドはSearXNG(セルフホスト)またはDuckDuckGo/Googleが選べます。

pipでのインストールも可能です。

pip install local-deep-research
local-deep-research   # ブラウザUIを起動

LLMのバックエンドはOllamaを使えばローカルで完結します。Qwen3.6-27B、Llama3などの主要モデルに対応しており、Open WebUIをセルフホストする方法で紹介しているUIと組み合わせると、調査とチャットを同一環境で管理できます。


GPU非搭載でも使える!APIモード活用術

「ローカルLLMを動かすにはGPUが必要では?」と思う方も多いですが、Local Deep ResearchはOpenAI・Anthropic・Google Gemini・Grokなど100以上のクラウドAPIモデルにも対応しています。

この構成であれば、安価なVPSにデプロイして24時間稼働のリサーチアシスタントが作れます。たとえばConoHa VPS(月額最安クラスのVPS)にDockerでLocal Deep Researchを立ち上げ、APIキーを設定すれば、月数百円のインフラコストで「いつでもどこからでもアクセスできる調査アシスタント」が完成します。

APIモードの設定は環境変数で管理できます。

# OpenAIを使う場合の例
OPENAI_API_KEY=your_key_here
LDR_DEFAULT_MODEL=gpt-4o-mini

コスト管理のために、Local Deep Researchにはコスト・パフォーマンス分析ダッシュボードも内蔵されています。どの調査でどれだけAPIトークンを消費したか可視化できるので、予算管理がしやすいのも嬉しいポイントです。

GPUなしでLLMを動かしたい場合は、BitNetでCPU推論という方法もあります。CPUオンリー環境でも実用的な速度が出せるモデルとの組み合わせも選択肢に入れてみてください。


副業エンジニアの実践ユースケース

Local Deep Researchは、副業エンジニアが日常的に行う「調査業務」を大幅に効率化できます。具体的なユースケースをいくつか紹介します。

市場調査・競合分析

「このSaaSカテゴリの競合一覧と機能比較をまとめたい」といったリクエストに対し、Report Generationモードで目次付きのマークダウンレポートを自動生成できます。調査〜資料化まで手動でやると数時間かかる作業が、30分以内に完了します。しかも調査クエリはローカルに閉じているので、クライアントの秘密情報が外部に漏れる心配がありません。

技術選定の比較検討

「NestJSとFastAPIを新プロジェクトに採用する場合の比較」「Prismaと TypeORMのパフォーマンス差異」といった技術調査に、Detailed Researchモードが使えます。複数の技術ブログや公式ドキュメントを自動収集・要約してくれるため、情報収集の時間を大幅に削減できます。

自動リサーチダイジェスト

日次・週次で特定テーマのリサーチダイジェストを自動配信する機能も内蔵されています。「毎朝、Rustの最新動向をまとめたメールを受け取る」といった使い方ができます。さらに踏み込んで自動化したい場合は、n8nのセルフホスト手順を参考にワークフローと組み合わせると、調査→Slack通知→Notionへの保存、といったパイプラインも構築できます。

社内ドキュメントの横断検索

LangChain統合により、任意のベクトルストアを検索エンジンとして利用できます。社内の仕様書・議事録・過去案件のドキュメントをインデックス化しておけば、「この機能の要件がどこに書いてあったか」を自然言語で検索できます。


高度な機能:エンタープライズ級の装備

Local Deep Researchは個人ツールに留まらず、チーム・組織での利用を想定した機能も充実しています。

REST API & WebSocket対応:認証付きHTTPエンドポイントが用意されており、既存のシステムやツールからAPIとして呼び出せます。WebSocketによるリアルタイム進捗更新で、長時間の調査でも進行状況が把握できます。

ジャーナル品質システム:212,000以上の学術ソースをインデックス化し、粗悪なジャーナルを自動検出します。信頼性の高い情報源に基づいた回答を重視する場合に有効です。

ユーザーごとの暗号化DB:マルチユーザー環境でも各ユーザーのデータを暗号化して管理します。チームで共有サーバーに立てても、他のメンバーの調査履歴が見えることはありません。

調査履歴の保存・再参照:過去の調査はすべて保存され、検索・再参照が可能です。「先月調べたあの技術の続きを深掘りしたい」といった継続的なリサーチ作業にも対応できます。


まとめ

Local Deep Researchは、Perplexity/ChatGPT Deep Researchの機能をローカル環境で再現する、副業・個人エンジニアにとって強力なツールです。

  • コスト0:GPU環境があればAPIコスト不要
  • プライバシー保護:調査クエリが外部に出ない
  • 柔軟な構成:ローカルLLM〜クラウドAPIまで選択可能
  • 実用的な精度:SimpleQA 95%は商用サービスと肩を並べるレベル

Docker Composeで5分もあれば立ち上がるので、まずは手元で試してみてください。「月額費用を払わずに深い調査ができる環境」を一度体験すると、もう有料サービスに戻れなくなるかもしれません。


よくある質問(FAQ)

Q. GPUがないと使えませんか?
いいえ、使えます。OpenAI・Anthropic・Geminiなどのクラウドモデルをバックエンドに設定すれば、GPU不要で動作します。VPSにデプロイすれば24時間稼働のリサーチアシスタントとして運用可能です。

Q. Ollamaはどうセットアップすればいいですか?
別途Ollamaの公式サイトからインストールし、使いたいモデルを ollama pull qwen2.5:7b などで取得しておくだけです。Local Deep Researchの設定画面でOllamaのエンドポイント(デフォルト: http://localhost:11434)を指定すれば連携できます。

Q. 日本語での調査・レポートは可能ですか?
はい、対応しています。Qwen系やLlama3の日本語対応モデルを使えば、日本語での質問・回答・レポート生成が可能です。ただし英語モデルと比べて精度が落ちるケースもあるため、モデル選定は実際に試しながら行うのがおすすめです。

Q. SearXNGのセットアップも必要ですか?
docker-compose.ymlを使った場合、SearXNGは自動的に同梱されます。別途セットアップ不要です。DuckDuckGoやGoogleをバックエンドにすることも設定で選択できます。

Q. 商用利用はできますか?
LicenseはMITベースですが、利用前に必ずリポジトリのライセンス条項を確認してください。クライアント案件への適用は自己責任で判断をお願いします。

コメント

タイトルとURLをコピーしました