Update: 文体をカジュアルに + 重複修正
All checks were successful
Deploy Docusaurus Site / deploy (push) Successful in 28s
All checks were successful
Deploy Docusaurus Site / deploy (push) Successful in 28s
This commit is contained in:
parent
64cb6a5d62
commit
5c7bfa0d14
@ -7,11 +7,9 @@ title: Ollama がローカルAIのハブとしてめちゃ最強な件
|
|||||||
|
|
||||||
## はじめに
|
## はじめに
|
||||||
|
|
||||||
ローカルLLMを触る人なら一度は使ったことがあるであろう **Ollama**。最初は「ローカルでLLMを動かすツール」という位置づけだったが、2026年に入ってからの進化が凄まじい。気がつけば、ローカルAIエコシステム全体の「ハブ」として君臨しつつある。
|
ローカルLLM触ってる人なら一度は使ったことあるよね、**Ollama**。最初は「ローカルでLLM動かすツール」ってだけだったんだけど、2026年に入ってからの進化がヤバい。気づいたらローカルAIエコシステム全体の「ハブ」になってた。
|
||||||
|
|
||||||
最近では コマンドで **Claude Code**、**Codex CLI**、**OpenCode** といったAIコーディングエージェントも一発で起動できるようになった。もはやLLMを動かすだけのツールではなく、AIツール全般のランチャー兼パッケージマネージャーだ。
|
しかも最近は `ollama launch` で **Claude Code** とか **Codex CLI**、**OpenCode**、**OpenClaw** みたいなAIコーディングエージェントまで一発起動できるようになった。
|
||||||
|
|
||||||
最近では `ollama launch` コマンドで **Claude Code**、**Codex CLI**、**OpenCode** といったAIコーディングエージェントも一発で起動できるようになった。もはやLLMを動かすだけのツールではなく、AIツール全般のランチャー兼パッケージマネージャーだ。
|
|
||||||
|
|
||||||
```bash
|
```bash
|
||||||
ollama launch claude-code
|
ollama launch claude-code
|
||||||
@ -20,7 +18,9 @@ ollama launch opencode
|
|||||||
ollama launch openclaw
|
ollama launch openclaw
|
||||||
```
|
```
|
||||||
|
|
||||||
この記事では、Ollamaが単なるLLMランナーからどうやって「ローカルAIのDocker」的存在に進化したのかを整理してみる。
|
もうLLM動かすだけのツールじゃなくて、AIツール全般のランチャー兼パッケージマネージャーなんだよね。
|
||||||
|
|
||||||
|
この記事では、Ollamaがどうやって「ローカルAIのDocker」みたいな存在に進化したのかをまとめてみる。
|
||||||
|
|
||||||
## Ollama の現在地
|
## Ollama の現在地
|
||||||
|
|
||||||
@ -31,17 +31,17 @@ ollama pull qwen3:30b-a3b
|
|||||||
ollama pull gpt-oss:120b
|
ollama pull gpt-oss:120b
|
||||||
```
|
```
|
||||||
|
|
||||||
HuggingFaceのGGUFファイルも直接指定できる:
|
HuggingFaceのGGUFも直接いける:
|
||||||
|
|
||||||
```bash
|
```bash
|
||||||
ollama pull hf.co/mmnga-o/Qwen3-Swallow-30B-A3B-RL-v0.2-gguf:Q5_K_M
|
ollama pull hf.co/mmnga-o/Qwen3-Swallow-30B-A3B-RL-v0.2-gguf:Q5_K_M
|
||||||
```
|
```
|
||||||
|
|
||||||
量子化バリアントの選択、ダウンロード、キャッシュ管理まで全部やってくれる。Docker Hubのイメージpullと同じ感覚。
|
量子化の選択、ダウンロード、キャッシュ管理まで全部やってくれる。Docker Hubからイメージ引っ張ってくるのと同じノリ。
|
||||||
|
|
||||||
### クラウドモデルの仲介
|
### クラウドモデルも使える
|
||||||
|
|
||||||
Ollama 0.17からは `cloud` タグでクラウドモデルも扱える:
|
Ollama 0.17からは `cloud` タグでクラウドモデルも扱えるようになった:
|
||||||
|
|
||||||
| モデル | 説明 |
|
| モデル | 説明 |
|
||||||
|--------|------|
|
|--------|------|
|
||||||
@ -49,35 +49,35 @@ Ollama 0.17からは `cloud` タグでクラウドモデルも扱える:
|
|||||||
| `minimax-m2.5:cloud` | 高速コーディング |
|
| `minimax-m2.5:cloud` | 高速コーディング |
|
||||||
| `glm-5:cloud` | 推論・コード生成 |
|
| `glm-5:cloud` | 推論・コード生成 |
|
||||||
|
|
||||||
ローカルモデルとクラウドモデルを **同じインターフェース** で扱えるのが強い。アプリ側はOllamaのAPI叩くだけで、バックエンドがローカルGPUなのかクラウドなのかを意識しなくていい。
|
ローカルとクラウドを **同じインターフェース** で扱えるのがめちゃ強い。アプリ側はOllamaのAPI叩くだけで、裏がローカルGPUなのかクラウドなのか意識しなくていい。
|
||||||
|
|
||||||
### OpenAI互換API
|
### OpenAI互換API
|
||||||
|
|
||||||
```bash
|
```bash
|
||||||
curl http://localhost:11434/v1/chat/completions \
|
curl http://localhost:11434/v1/chat/completions \
|
||||||
-H "Content-Type: application/json" \
|
-H "Content-Type: application/json" \
|
||||||
-d {model: qwen3:30b-a3b, messages: [{role: user, content: Hello}]}
|
-d '{"model": "qwen3:30b-a3b", "messages": [{"role": "user", "content": "Hello"}]}'
|
||||||
```
|
```
|
||||||
|
|
||||||
OpenAI SDKがそのまま使える。既存のアプリケーションの `base_url` を `localhost:11434/v1` に変えるだけで、ローカルLLMに切り替わる。
|
OpenAI SDKがそのまま使える。既存アプリの `base_url` を `localhost:11434/v1` に変えるだけでローカルLLMに切り替わる。これが地味にデカい。
|
||||||
|
|
||||||
### アプリランチャー
|
### アプリランチャー
|
||||||
|
|
||||||
Ollama 0.17の目玉機能。`ollama launch` でAIアプリケーションを直接起動できるようになった:
|
Ollama 0.17の目玉。`ollama launch` でAIアプリを直接起動できる:
|
||||||
|
|
||||||
```bash
|
```bash
|
||||||
ollama launch openclaw
|
ollama launch openclaw
|
||||||
```
|
```
|
||||||
|
|
||||||
これだけで:
|
これだけで:
|
||||||
1. OpenClawが未インストールなら自動インストール
|
1. 未インストールなら自動インストール
|
||||||
2. セキュリティ通知の表示
|
2. セキュリティ通知の表示
|
||||||
3. モデル選択画面
|
3. モデル選択画面
|
||||||
4. Gateway起動 + TUI表示
|
4. Gateway起動 + TUI表示
|
||||||
|
|
||||||
**AIエージェントのパッケージマネージャー** としての機能が加わった形。
|
完全に **AIエージェントのパッケージマネージャー** になってる。
|
||||||
|
|
||||||
## なぜ Ollama が勝っているのか
|
## なぜ Ollama が勝ってるのか
|
||||||
|
|
||||||
### 1. 圧倒的にシンプル
|
### 1. 圧倒的にシンプル
|
||||||
|
|
||||||
@ -85,13 +85,13 @@ ollama launch openclaw
|
|||||||
# インストール
|
# インストール
|
||||||
curl -fsSL https://ollama.com/install.sh | sh
|
curl -fsSL https://ollama.com/install.sh | sh
|
||||||
|
|
||||||
# モデルを動かす
|
# モデル動かす
|
||||||
ollama run qwen3:30b-a3b
|
ollama run qwen3:30b-a3b
|
||||||
```
|
```
|
||||||
|
|
||||||
2コマンドで動く。llama.cppのビルドもPythonの仮想環境も不要。
|
2コマンドで動く。llama.cppのビルドもPythonの仮想環境もいらない。この手軽さは正義。
|
||||||
|
|
||||||
### 2. Modelfile によるカスタマイズ
|
### 2. Modelfile でカスタマイズ
|
||||||
|
|
||||||
```dockerfile
|
```dockerfile
|
||||||
FROM hf.co/mmnga-o/Qwen3-Swallow-30B-A3B-RL-v0.2-gguf:Q5_K_M
|
FROM hf.co/mmnga-o/Qwen3-Swallow-30B-A3B-RL-v0.2-gguf:Q5_K_M
|
||||||
@ -113,19 +113,19 @@ PARAMETER stop <|im_end|>
|
|||||||
PARAMETER num_ctx 32768
|
PARAMETER num_ctx 32768
|
||||||
```
|
```
|
||||||
|
|
||||||
Dockerfileライクな宣言的設定。テンプレートやパラメータを簡単にカスタマイズできる。
|
Dockerfileっぽい宣言的な設定。テンプレートもパラメータもサクッとカスタマイズできる。
|
||||||
|
|
||||||
### 3. エコシステムの広がり
|
### 3. エコシステムがすごい
|
||||||
|
|
||||||
Ollamaをバックエンドとして使うツールが爆発的に増えている:
|
Ollamaをバックエンドに使うツールがめちゃくちゃ増えてる:
|
||||||
|
|
||||||
- **OpenClaw / Clawdbot** — AIエージェント(メッセージング統合)
|
- **OpenClaw** — AIエージェント(メッセージング統合)
|
||||||
- **Open WebUI** — ChatGPT風のWeb UI
|
- **Open WebUI** — ChatGPT風のWeb UI
|
||||||
- **Continue** — VSCode/JetBrains向けAIコーディング
|
- **Continue** — VSCode/JetBrains向けAIコーディング
|
||||||
- **Aider** — ターミナルベースのAIコーディング
|
- **Aider** — ターミナルベースのAIコーディング
|
||||||
- **LangChain / LlamaIndex** — LLMアプリケーションフレームワーク
|
- **LangChain / LlamaIndex** — LLMアプリフレームワーク
|
||||||
|
|
||||||
全部 `OLLAMA_HOST=localhost:11434` で繋がる。
|
全部 `OLLAMA_HOST=localhost:11434` で繋がる。統一感がすごい。
|
||||||
|
|
||||||
### 4. マルチGPU・リモートサーバー対応
|
### 4. マルチGPU・リモートサーバー対応
|
||||||
|
|
||||||
@ -134,11 +134,11 @@ Ollamaをバックエンドとして使うツールが爆発的に増えてい
|
|||||||
OLLAMA_HOST=http://dgx-spark:11434 ollama run gpt-oss:120b
|
OLLAMA_HOST=http://dgx-spark:11434 ollama run gpt-oss:120b
|
||||||
```
|
```
|
||||||
|
|
||||||
自宅のGPUサーバーをOllamaで立てて、手元のノートPCから叩く。これだけでプライベートなLLM APIサーバーの完成。
|
自宅のGPUサーバーにOllama立てて、手元のノートPCから叩く。これだけでプライベートLLM APIサーバーの出来上がり。最高。
|
||||||
|
|
||||||
## Docker との類似性
|
## Docker との類似性
|
||||||
|
|
||||||
Ollamaの進化を見ていると、Dockerの歴史と重なる部分が多い:
|
Ollamaの進化を見てると、Dockerの歴史と重なる部分が多いんだよね:
|
||||||
|
|
||||||
| Docker | Ollama |
|
| Docker | Ollama |
|
||||||
|--------|--------|
|
|--------|--------|
|
||||||
@ -146,14 +146,14 @@ Ollamaの進化を見ていると、Dockerの歴史と重なる部分が多い
|
|||||||
| `docker pull` | `ollama pull` |
|
| `docker pull` | `ollama pull` |
|
||||||
| `docker run` | `ollama run` |
|
| `docker run` | `ollama run` |
|
||||||
| Dockerfile | Modelfile |
|
| Dockerfile | Modelfile |
|
||||||
| Docker Compose | `ollama launch` (アプリ起動) |
|
| Docker Compose | `ollama launch`(アプリ起動) |
|
||||||
| コンテナレジストリ | HuggingFace GGUF連携 |
|
| コンテナレジストリ | HuggingFace GGUF連携 |
|
||||||
|
|
||||||
Dockerが「アプリケーションのデプロイを民主化」したように、Ollamaは「LLMの利用を民主化」している。
|
Dockerが「アプリのデプロイを民主化」したように、Ollamaは「LLMの利用を民主化」してる。この対比、結構しっくりくると思う。
|
||||||
|
|
||||||
## 実際の運用例
|
## 実際の運用例
|
||||||
|
|
||||||
筆者の環境では、NVIDIA DGX Spark上でOllamaを稼働させ、複数のモデルを管理している:
|
自分の環境だと、NVIDIA DGX Spark上でOllama動かして複数モデル管理してる:
|
||||||
|
|
||||||
```
|
```
|
||||||
qwen3-swallow-30b 21 GB ← 日本語特化
|
qwen3-swallow-30b 21 GB ← 日本語特化
|
||||||
@ -162,19 +162,19 @@ qwen3:30b-a3b 18 GB ← 汎用
|
|||||||
gpt-oss:120b 65 GB ← 大規模推論
|
gpt-oss:120b 65 GB ← 大規模推論
|
||||||
```
|
```
|
||||||
|
|
||||||
これらをOpenClawのエージェントバックエンドとして利用し、Discord経由で日常的に使っている。モデルの追加・削除・切り替えがOllamaのコマンド一発で済むのは本当に楽。
|
これをOpenClawのエージェントバックエンドにして、Discord経由で日常的に使ってる。モデルの追加・削除・切り替えがコマンド一発で済むの、ほんと楽。
|
||||||
|
|
||||||
## まとめ
|
## まとめ
|
||||||
|
|
||||||
Ollamaはもはや「ローカルLLMを動かすツール」ではない。
|
Ollamaはもう「ローカルLLM動かすツール」じゃない。
|
||||||
|
|
||||||
- **モデル配信** — pull一発でモデル取得
|
- **モデル配信** — pull一発でモデル取得
|
||||||
- **API標準化** — OpenAI互換で既存エコシステムと接続
|
- **API標準化** — OpenAI互換で既存エコシステムと接続
|
||||||
- **クラウド統合** — ローカルとクラウドを透過的に扱う
|
- **クラウド統合** — ローカルとクラウドを透過的に扱える
|
||||||
- **アプリランチャー** — AIエージェントの起動・管理
|
- **アプリランチャー** — AIエージェントの起動・管理まで
|
||||||
- **カスタマイズ** — Modelfileで宣言的にモデルを定義
|
- **カスタマイズ** — Modelfileで宣言的にモデル定義
|
||||||
|
|
||||||
ローカルAIの「Docker」として、インフラの中心に座りつつある。これからLLMを触り始める人も、既に使いこなしている人も、Ollamaを起点にするのが最も効率的な選択肢だと思う。
|
ローカルAIの「Docker」として、インフラの中心に座りつつある。これからLLM触り始める人も、もう使いこなしてる人も、Ollamaを起点にするのが一番効率いいと思う。
|
||||||
|
|
||||||
## 参考リンク
|
## 参考リンク
|
||||||
|
|
||||||
|
|||||||
Loading…
x
Reference in New Issue
Block a user