koide 64cb6a5d62
All checks were successful
Deploy Docusaurus Site / deploy (push) Successful in 28s
Update: ollama launch でClaude Code/Codex/OpenCodeも起動可能な話を追加
2026-02-28 00:13:51 +00:00

189 lines
7.0 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

---
sidebar_position: 2
title: Ollama がローカルAIのハブとしてめちゃ最強な件
---
# Ollama がローカルAIのハブとしてめちゃ最強な件
## はじめに
ローカルLLMを触る人なら一度は使ったことがあるであろう **Ollama**。最初は「ローカルでLLMを動かすツール」という位置づけだったが、2026年に入ってからの進化が凄まじい。気がつけば、ローカルAIエコシステム全体の「ハブ」として君臨しつつある。
最近では コマンドで **Claude Code**、**Codex CLI**、**OpenCode** といったAIコーディングエージェントも一発で起動できるようになった。もはやLLMを動かすだけのツールではなく、AIツール全般のランチャー兼パッケージマネージャーだ。
最近では `ollama launch` コマンドで **Claude Code**、**Codex CLI**、**OpenCode** といったAIコーディングエージェントも一発で起動できるようになった。もはやLLMを動かすだけのツールではなく、AIツール全般のランチャー兼パッケージマネージャーだ。
```bash
ollama launch claude-code
ollama launch codex
ollama launch opencode
ollama launch openclaw
```
この記事では、Ollamaが単なるLLMランナーからどうやって「ローカルAIのDocker」的存在に進化したのかを整理してみる。
## Ollama の現在地
### モデル配信プラットフォーム
```bash
ollama pull qwen3:30b-a3b
ollama pull gpt-oss:120b
```
HuggingFaceのGGUFファイルも直接指定できる
```bash
ollama pull hf.co/mmnga-o/Qwen3-Swallow-30B-A3B-RL-v0.2-gguf:Q5_K_M
```
量子化バリアントの選択、ダウンロード、キャッシュ管理まで全部やってくれる。Docker Hubのイメージpullと同じ感覚。
### クラウドモデルの仲介
Ollama 0.17からは `cloud` タグでクラウドモデルも扱える:
| モデル | 説明 |
|--------|------|
| `kimi-k2.5:cloud` | マルチモーダル推論 |
| `minimax-m2.5:cloud` | 高速コーディング |
| `glm-5:cloud` | 推論・コード生成 |
ローカルモデルとクラウドモデルを **同じインターフェース** で扱えるのが強い。アプリ側はOllamaのAPI叩くだけで、バックエンドがローカルGPUなのかクラウドなのかを意識しなくていい。
### OpenAI互換API
```bash
curl http://localhost:11434/v1/chat/completions \
-H "Content-Type: application/json" \
-d {model: qwen3:30b-a3b, messages: [{role: user, content: Hello}]}
```
OpenAI SDKがそのまま使える。既存のアプリケーションの `base_url``localhost:11434/v1` に変えるだけで、ローカルLLMに切り替わる。
### アプリランチャー
Ollama 0.17の目玉機能。`ollama launch` でAIアプリケーションを直接起動できるようになった
```bash
ollama launch openclaw
```
これだけで:
1. OpenClawが未インストールなら自動インストール
2. セキュリティ通知の表示
3. モデル選択画面
4. Gateway起動 + TUI表示
**AIエージェントのパッケージマネージャー** としての機能が加わった形。
## なぜ Ollama が勝っているのか
### 1. 圧倒的にシンプル
```bash
# インストール
curl -fsSL https://ollama.com/install.sh | sh
# モデルを動かす
ollama run qwen3:30b-a3b
```
2コマンドで動く。llama.cppのビルドもPythonの仮想環境も不要。
### 2. Modelfile によるカスタマイズ
```dockerfile
FROM hf.co/mmnga-o/Qwen3-Swallow-30B-A3B-RL-v0.2-gguf:Q5_K_M
TEMPLATE """
{{- if .System }}<|im_start|>system
{{ .System }}<|im_end|>
{{ end }}
{{- range .Messages }}
{{- if eq .Role "user" }}<|im_start|>user
{{ .Content }}<|im_end|>
{{- else if eq .Role "assistant" }}<|im_start|>assistant
{{ .Content }}<|im_end|>
{{- end }}
{{- end }}<|im_start|>assistant
"""
PARAMETER stop <|im_end|>
PARAMETER num_ctx 32768
```
Dockerfileライクな宣言的設定。テンプレートやパラメータを簡単にカスタマイズできる。
### 3. エコシステムの広がり
Ollamaをバックエンドとして使うツールが爆発的に増えている
- **OpenClaw / Clawdbot** — AIエージェントメッセージング統合
- **Open WebUI** — ChatGPT風のWeb UI
- **Continue** — VSCode/JetBrains向けAIコーディング
- **Aider** — ターミナルベースのAIコーディング
- **LangChain / LlamaIndex** — LLMアプリケーションフレームワーク
全部 `OLLAMA_HOST=localhost:11434` で繋がる。
### 4. マルチGPU・リモートサーバー対応
```bash
# リモートサーバーのOllamaを使う
OLLAMA_HOST=http://dgx-spark:11434 ollama run gpt-oss:120b
```
自宅のGPUサーバーをOllamaで立てて、手元のートPCから叩く。これだけでプライベートなLLM APIサーバーの完成。
## Docker との類似性
Ollamaの進化を見ていると、Dockerの歴史と重なる部分が多い
| Docker | Ollama |
|--------|--------|
| Docker Hub | Ollama Library |
| `docker pull` | `ollama pull` |
| `docker run` | `ollama run` |
| Dockerfile | Modelfile |
| Docker Compose | `ollama launch` (アプリ起動) |
| コンテナレジストリ | HuggingFace GGUF連携 |
Dockerが「アプリケーションのデプロイを民主化」したように、Ollamaは「LLMの利用を民主化」している。
## 実際の運用例
筆者の環境では、NVIDIA DGX Spark上でOllamaを稼働させ、複数のモデルを管理している
```
qwen3-swallow-30b 21 GB ← 日本語特化
gpt-oss-swallow-20b 16 GB ← バイリンガル
qwen3:30b-a3b 18 GB ← 汎用
gpt-oss:120b 65 GB ← 大規模推論
```
これらをOpenClawのエージェントバックエンドとして利用し、Discord経由で日常的に使っている。モデルの追加・削除・切り替えがOllamaのコマンド一発で済むのは本当に楽。
## まとめ
Ollamaはもはや「ローカルLLMを動かすツール」ではない。
- **モデル配信** — pull一発でモデル取得
- **API標準化** — OpenAI互換で既存エコシステムと接続
- **クラウド統合** — ローカルとクラウドを透過的に扱う
- **アプリランチャー** — AIエージェントの起動・管理
- **カスタマイズ** — Modelfileで宣言的にモデルを定義
ローカルAIの「Docker」として、インフラの中心に座りつつある。これからLLMを触り始める人も、既に使いこなしている人も、Ollamaを起点にするのが最も効率的な選択肢だと思う。
## 参考リンク
- [Ollama 公式サイト](https://ollama.com/)
- [Ollama 0.17 リリースノート](https://github.com/ollama/ollama/releases/tag/v0.17.0-rc1)
- [OpenClaw × Ollama チュートリアル](https://ollama.com/blog/openclaw-tutorial)
- [Ollama Modelfile リファレンス](https://github.com/ollama/ollama/blob/main/docs/modelfile.md)
---
*この記事は2026年2月時点の情報です。*