From cd5a2316ed7c888d7e87efb6a06c4f056fd0c334 Mon Sep 17 00:00:00 2001 From: koide Date: Sat, 28 Feb 2026 00:21:59 +0000 Subject: [PATCH] =?UTF-8?q?Update:=20=E5=AE=9F=E9=9A=9B=E3=81=AE=E9=81=8B?= =?UTF-8?q?=E7=94=A8=E3=83=A2=E3=83=87=E3=83=AB=E3=82=92=E4=BF=AE=E6=AD=A3?= =?UTF-8?q?=EF=BC=88coder-next/vl8b/gemma3/gpt-oss=EF=BC=89?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- docs/ollama-local-ai-hub/index.md | 16 +++++++++------- 1 file changed, 9 insertions(+), 7 deletions(-) diff --git a/docs/ollama-local-ai-hub/index.md b/docs/ollama-local-ai-hub/index.md index f5872dd..5375367 100644 --- a/docs/ollama-local-ai-hub/index.md +++ b/docs/ollama-local-ai-hub/index.md @@ -177,14 +177,16 @@ Dockerが「アプリのデプロイを民主化」したように、Ollamaは ## 実際の運用例 -自分の環境だと、NVIDIA DGX Spark上でOllama動かして複数モデル管理してる: +自分の環境だと、NVIDIA DGX Spark上でOllama動かして用途別にモデルを使い分けてる: -``` -qwen3-swallow-30b 21 GB ← 日本語特化 -gpt-oss-swallow-20b 16 GB ← バイリンガル -qwen3:30b-a3b 18 GB ← 汎用 -gpt-oss:120b 65 GB ← 大規模推論 -``` +| モデル | サイズ | 用途 | +|--------|--------|------| +| `qwen3-coder-next` | ~25 GB | エージェント・コーディング | +| `qwen3-vl8b-instruct` | ~8 GB | OCR・画像解析 | +| `gemma3:12b` | ~12 GB | 要約タスク | +| `gpt-oss:120b` | 65 GB | 大規模推論・要約 | + +タスクごとに最適なモデルを割り当てられるのがOllamaの良いところ。コーディングにはcoder系、画像にはVL系、軽い要約にはgemma、重い推論にはgpt-ossみたいに、用途で使い分けてる。 これをOpenClawのエージェントバックエンドにして、Discord経由で日常的に使ってる。モデルの追加・削除・切り替えがコマンド一発で済むの、ほんと楽。