「ChatGPTにコード貼るの、セキュリティ的にちょっと怖い……」って思ったことない?
業務コードや個人プロジェクトの機密情報をクラウドのAIに流すのは、確かにリスクがある。でも、手元にLLMを動かせたら話は変わる。APIキー代もかからない。インターネット接続も不要。ログも残らない。
それを一発で解決してくれるのが Ollama だ。
Ollamaを使えば、Llama3・Gemma・Mistralなどの最新LLMを自分のマシンにインストールして、CLIやAPIで自由に使える。しかもDockerいらず、難しい設定もなし。ollama run llama3 の1行で対話が始まる。
この記事では、インストール方法から実際のAPI活用、VPS上でのサーバー運用まで、実際に動かした手順を丸ごと共有する。
Ollamaとは?OSSのローカルLLMランタイム
なにがうれしいのか
Ollama(オラマ)は、LLMをローカルで実行するためのOSSツール。GitHubスター数は現在10万超。2023年末から急激に伸びて、今もアクティブに開発が続いている。
特徴をまとめると:
- 対応モデルが豊富: Llama 3、Gemma 3、Mistral、Phi-4、Qwen2.5、DeepSeek-R1など50種類以上
- CLIとREST APIの両対応: チャット対話もAPIもこれ1本
- マルチプラットフォーム: macOS・Linux・Windowsすべて対応
- OpenAI互換API: 既存のアプリをほぼ無改修で切り替えられる
どんなモデルが動くか
Ollama公式のモデルライブラリにアクセスすると、利用可能なモデルが一覧で見られる。代表的なものを整理した。
| モデル | サイズ | 用途 |
|---|---|---|
| llama3.2 | 3B / 8B | 汎用・コード補完 |
| gemma3 | 4B / 12B / 27B | 日本語含む多言語 |
| mistral | 7B | 英語タスク全般 |
| deepseek-r1 | 7B〜70B | 推論・コーディング |
| phi4 | 14B | 軽量で高性能 |
| qwen2.5-coder | 7B / 32B | コード特化 |
RAM 8GBのマシンなら7B前後のモデルが快適に動く。16GB以上あれば13B〜27Bクラスも試せる。
インストール方法【Mac / Linux / Windows】
macOS・Linuxへのインストール
macOSとLinuxは公式スクリプト1行でインストール完了。


コメント