diff --git a/docs/ollama-local-ai-hub/index.md b/docs/ollama-local-ai-hub/index.md index b546834..97c0df1 100644 --- a/docs/ollama-local-ai-hub/index.md +++ b/docs/ollama-local-ai-hub/index.md @@ -9,6 +9,17 @@ title: Ollama がローカルAIのハブとしてめちゃ最強な件 ローカルLLMを触る人なら一度は使ったことがあるであろう **Ollama**。最初は「ローカルでLLMを動かすツール」という位置づけだったが、2026年に入ってからの進化が凄まじい。気がつけば、ローカルAIエコシステム全体の「ハブ」として君臨しつつある。 +最近では コマンドで **Claude Code**、**Codex CLI**、**OpenCode** といったAIコーディングエージェントも一発で起動できるようになった。もはやLLMを動かすだけのツールではなく、AIツール全般のランチャー兼パッケージマネージャーだ。 + +最近では `ollama launch` コマンドで **Claude Code**、**Codex CLI**、**OpenCode** といったAIコーディングエージェントも一発で起動できるようになった。もはやLLMを動かすだけのツールではなく、AIツール全般のランチャー兼パッケージマネージャーだ。 + +```bash +ollama launch claude-code +ollama launch codex +ollama launch opencode +ollama launch openclaw +``` + この記事では、Ollamaが単なるLLMランナーからどうやって「ローカルAIのDocker」的存在に進化したのかを整理してみる。 ## Ollama の現在地