Update: 実際の運用モデルを修正(coder-next/vl8b/gemma3/gpt-oss)
All checks were successful
Deploy Docusaurus Site / deploy (push) Successful in 27s

This commit is contained in:
koide 2026-02-28 00:21:59 +00:00
parent 6582f389a0
commit cd5a2316ed

View File

@ -177,14 +177,16 @@ Dockerが「アプリのデプロイを民主化」したように、Ollamaは
## 実際の運用例
自分の環境だと、NVIDIA DGX Spark上でOllama動かして複数モデル管理してる:
自分の環境だと、NVIDIA DGX Spark上でOllama動かして用途別にモデルを使い分けてる:
```
qwen3-swallow-30b 21 GB ← 日本語特化
gpt-oss-swallow-20b 16 GB ← バイリンガル
qwen3:30b-a3b 18 GB ← 汎用
gpt-oss:120b 65 GB ← 大規模推論
```
| モデル | サイズ | 用途 |
|--------|--------|------|
| `qwen3-coder-next` | ~25 GB | エージェント・コーディング |
| `qwen3-vl8b-instruct` | ~8 GB | OCR・画像解析 |
| `gemma3:12b` | ~12 GB | 要約タスク |
| `gpt-oss:120b` | 65 GB | 大規模推論・要約 |
タスクごとに最適なモデルを割り当てられるのがOllamaの良いところ。コーディングにはcoder系、画像にはVL系、軽い要約にはgemma、重い推論にはgpt-ossみたいに、用途で使い分けてる。
これをOpenClawのエージェントバックエンドにして、Discord経由で日常的に使ってる。モデルの追加・削除・切り替えがコマンド一発で済むの、ほんと楽。