diff --git a/docs/ollama-local-ai-hub/index.md b/docs/ollama-local-ai-hub/index.md new file mode 100644 index 0000000..b546834 --- /dev/null +++ b/docs/ollama-local-ai-hub/index.md @@ -0,0 +1,177 @@ +--- +sidebar_position: 2 +title: Ollama がローカルAIのハブとしてめちゃ最強な件 +--- + +# Ollama がローカルAIのハブとしてめちゃ最強な件 + +## はじめに + +ローカルLLMを触る人なら一度は使ったことがあるであろう **Ollama**。最初は「ローカルでLLMを動かすツール」という位置づけだったが、2026年に入ってからの進化が凄まじい。気がつけば、ローカルAIエコシステム全体の「ハブ」として君臨しつつある。 + +この記事では、Ollamaが単なるLLMランナーからどうやって「ローカルAIのDocker」的存在に進化したのかを整理してみる。 + +## Ollama の現在地 + +### モデル配信プラットフォーム + +```bash +ollama pull qwen3:30b-a3b +ollama pull gpt-oss:120b +``` + +HuggingFaceのGGUFファイルも直接指定できる: + +```bash +ollama pull hf.co/mmnga-o/Qwen3-Swallow-30B-A3B-RL-v0.2-gguf:Q5_K_M +``` + +量子化バリアントの選択、ダウンロード、キャッシュ管理まで全部やってくれる。Docker Hubのイメージpullと同じ感覚。 + +### クラウドモデルの仲介 + +Ollama 0.17からは `cloud` タグでクラウドモデルも扱える: + +| モデル | 説明 | +|--------|------| +| `kimi-k2.5:cloud` | マルチモーダル推論 | +| `minimax-m2.5:cloud` | 高速コーディング | +| `glm-5:cloud` | 推論・コード生成 | + +ローカルモデルとクラウドモデルを **同じインターフェース** で扱えるのが強い。アプリ側はOllamaのAPI叩くだけで、バックエンドがローカルGPUなのかクラウドなのかを意識しなくていい。 + +### OpenAI互換API + +```bash +curl http://localhost:11434/v1/chat/completions \ + -H "Content-Type: application/json" \ + -d {model: qwen3:30b-a3b, messages: [{role: user, content: Hello}]} +``` + +OpenAI SDKがそのまま使える。既存のアプリケーションの `base_url` を `localhost:11434/v1` に変えるだけで、ローカルLLMに切り替わる。 + +### アプリランチャー + +Ollama 0.17の目玉機能。`ollama launch` でAIアプリケーションを直接起動できるようになった: + +```bash +ollama launch openclaw +``` + +これだけで: +1. OpenClawが未インストールなら自動インストール +2. セキュリティ通知の表示 +3. モデル選択画面 +4. Gateway起動 + TUI表示 + +**AIエージェントのパッケージマネージャー** としての機能が加わった形。 + +## なぜ Ollama が勝っているのか + +### 1. 圧倒的にシンプル + +```bash +# インストール +curl -fsSL https://ollama.com/install.sh | sh + +# モデルを動かす +ollama run qwen3:30b-a3b +``` + +2コマンドで動く。llama.cppのビルドもPythonの仮想環境も不要。 + +### 2. Modelfile によるカスタマイズ + +```dockerfile +FROM hf.co/mmnga-o/Qwen3-Swallow-30B-A3B-RL-v0.2-gguf:Q5_K_M + +TEMPLATE """ +{{- if .System }}<|im_start|>system +{{ .System }}<|im_end|> +{{ end }} +{{- range .Messages }} +{{- if eq .Role "user" }}<|im_start|>user +{{ .Content }}<|im_end|> +{{- else if eq .Role "assistant" }}<|im_start|>assistant +{{ .Content }}<|im_end|> +{{- end }} +{{- end }}<|im_start|>assistant +""" + +PARAMETER stop <|im_end|> +PARAMETER num_ctx 32768 +``` + +Dockerfileライクな宣言的設定。テンプレートやパラメータを簡単にカスタマイズできる。 + +### 3. エコシステムの広がり + +Ollamaをバックエンドとして使うツールが爆発的に増えている: + +- **OpenClaw / Clawdbot** — AIエージェント(メッセージング統合) +- **Open WebUI** — ChatGPT風のWeb UI +- **Continue** — VSCode/JetBrains向けAIコーディング +- **Aider** — ターミナルベースのAIコーディング +- **LangChain / LlamaIndex** — LLMアプリケーションフレームワーク + +全部 `OLLAMA_HOST=localhost:11434` で繋がる。 + +### 4. マルチGPU・リモートサーバー対応 + +```bash +# リモートサーバーのOllamaを使う +OLLAMA_HOST=http://dgx-spark:11434 ollama run gpt-oss:120b +``` + +自宅のGPUサーバーをOllamaで立てて、手元のノートPCから叩く。これだけでプライベートなLLM APIサーバーの完成。 + +## Docker との類似性 + +Ollamaの進化を見ていると、Dockerの歴史と重なる部分が多い: + +| Docker | Ollama | +|--------|--------| +| Docker Hub | Ollama Library | +| `docker pull` | `ollama pull` | +| `docker run` | `ollama run` | +| Dockerfile | Modelfile | +| Docker Compose | `ollama launch` (アプリ起動) | +| コンテナレジストリ | HuggingFace GGUF連携 | + +Dockerが「アプリケーションのデプロイを民主化」したように、Ollamaは「LLMの利用を民主化」している。 + +## 実際の運用例 + +筆者の環境では、NVIDIA DGX Spark上でOllamaを稼働させ、複数のモデルを管理している: + +``` +qwen3-swallow-30b 21 GB ← 日本語特化 +gpt-oss-swallow-20b 16 GB ← バイリンガル +qwen3:30b-a3b 18 GB ← 汎用 +gpt-oss:120b 65 GB ← 大規模推論 +``` + +これらをOpenClawのエージェントバックエンドとして利用し、Discord経由で日常的に使っている。モデルの追加・削除・切り替えがOllamaのコマンド一発で済むのは本当に楽。 + +## まとめ + +Ollamaはもはや「ローカルLLMを動かすツール」ではない。 + +- **モデル配信** — pull一発でモデル取得 +- **API標準化** — OpenAI互換で既存エコシステムと接続 +- **クラウド統合** — ローカルとクラウドを透過的に扱う +- **アプリランチャー** — AIエージェントの起動・管理 +- **カスタマイズ** — Modelfileで宣言的にモデルを定義 + +ローカルAIの「Docker」として、インフラの中心に座りつつある。これからLLMを触り始める人も、既に使いこなしている人も、Ollamaを起点にするのが最も効率的な選択肢だと思う。 + +## 参考リンク + +- [Ollama 公式サイト](https://ollama.com/) +- [Ollama 0.17 リリースノート](https://github.com/ollama/ollama/releases/tag/v0.17.0-rc1) +- [OpenClaw × Ollama チュートリアル](https://ollama.com/blog/openclaw-tutorial) +- [Ollama Modelfile リファレンス](https://github.com/ollama/ollama/blob/main/docs/modelfile.md) + +--- + +*この記事は2026年2月時点の情報です。*