OllamaでLLMをローカル実行する完全ガイド【2025年版】

Uncategorized

「ChatGPTにコード貼るの、セキュリティ的にちょっと怖い……」って思ったことない?

業務コードや個人プロジェクトの機密情報をクラウドのAIに流すのは、確かにリスクがある。でも、手元にLLMを動かせたら話は変わる。APIキー代もかからない。インターネット接続も不要。ログも残らない。

それを一発で解決してくれるのが Ollama だ。

Ollamaを使えば、Llama3・Gemma・Mistralなどの最新LLMを自分のマシンにインストールして、CLIやAPIで自由に使える。しかもDockerいらず、難しい設定もなし。ollama run llama3 の1行で対話が始まる。

この記事では、インストール方法から実際のAPI活用、VPS上でのサーバー運用まで、実際に動かした手順を丸ごと共有する。


Ollamaとは?OSSのローカルLLMランタイム

なにがうれしいのか

Ollama(オラマ)は、LLMをローカルで実行するためのOSSツール。GitHubスター数は現在10万超。2023年末から急激に伸びて、今もアクティブに開発が続いている。

特徴をまとめると:

  • 対応モデルが豊富: Llama 3、Gemma 3、Mistral、Phi-4、Qwen2.5、DeepSeek-R1など50種類以上
  • CLIとREST APIの両対応: チャット対話もAPIもこれ1本
  • マルチプラットフォーム: macOS・Linux・Windowsすべて対応
  • OpenAI互換API: 既存のアプリをほぼ無改修で切り替えられる

どんなモデルが動くか

Ollama公式のモデルライブラリにアクセスすると、利用可能なモデルが一覧で見られる。代表的なものを整理した。

モデル サイズ 用途
llama3.2 3B / 8B 汎用・コード補完
gemma3 4B / 12B / 27B 日本語含む多言語
mistral 7B 英語タスク全般
deepseek-r1 7B〜70B 推論・コーディング
phi4 14B 軽量で高性能
qwen2.5-coder 7B / 32B コード特化

RAM 8GBのマシンなら7B前後のモデルが快適に動く。16GB以上あれば13B〜27Bクラスも試せる。


インストール方法【Mac / Linux / Windows】

macOS・Linuxへのインストール

macOSとLinuxは公式スクリプト1行でインストール完了。

コメント

タイトルとURLをコピーしました