diff --git a/docs/ollama-local-ai-hub/index.md b/docs/ollama-local-ai-hub/index.md index b75526f..f5872dd 100644 --- a/docs/ollama-local-ai-hub/index.md +++ b/docs/ollama-local-ai-hub/index.md @@ -77,6 +77,30 @@ ollama launch openclaw 完全に **AIエージェントのパッケージマネージャー** になってる。 +## Ollama 0.17.0 で何が変わったのか + +2026年2月にリリースされた v0.17.0 の主な変更点をまとめておく。 + +### `ollama launch` の本格化 + +これが一番デカい。OpenClawをはじめ、Claude Code、Codex CLI、OpenCodeなどのAIエージェント・コーディングツールを `ollama launch` 一発で起動できるようになった。インストールからモデル選択、セキュリティ通知まで全部Ollamaが面倒見てくれる。 + +### クラウドモデル対応 + +Kimi K2.5、GLM-5、MiniMax M2.5 などのクラウドモデルが `cloud` タグで利用可能に。クラウドモデル使用時はWeb検索プラグインも自動でインストールされる。つまりOpenClawからそのままネット検索できるようになる。 + +### トークナイザーの性能改善 + +地味だけど大事な改善。トークナイザーのパフォーマンスが向上した。 + +### コンテキスト長の自動調整 + +macOS/Windowsアプリで、利用可能なVRAMに基づいてデフォルトのコンテキスト長を自動設定するようになった。メモリが足りなくて落ちるみたいな事故が減るはず。 + +:::tip 豆知識 +OpenClawなどのエージェントでは最低64kトークンのコンテキスト長が推奨されてる。ローカルモデル使う場合はVRAMに余裕を持たせよう。 +::: + ## なぜ Ollama が勝ってるのか ### 1. 圧倒的にシンプル