From 64cb6a5d62750ce40ec0b0e4f4e7058b70b90e28 Mon Sep 17 00:00:00 2001 From: koide Date: Sat, 28 Feb 2026 00:13:51 +0000 Subject: [PATCH] =?UTF-8?q?Update:=20ollama=20launch=20=E3=81=A7Claude=20C?= =?UTF-8?q?ode/Codex/OpenCode=E3=82=82=E8=B5=B7=E5=8B=95=E5=8F=AF=E8=83=BD?= =?UTF-8?q?=E3=81=AA=E8=A9=B1=E3=82=92=E8=BF=BD=E5=8A=A0?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- docs/ollama-local-ai-hub/index.md | 11 +++++++++++ 1 file changed, 11 insertions(+) diff --git a/docs/ollama-local-ai-hub/index.md b/docs/ollama-local-ai-hub/index.md index b546834..97c0df1 100644 --- a/docs/ollama-local-ai-hub/index.md +++ b/docs/ollama-local-ai-hub/index.md @@ -9,6 +9,17 @@ title: Ollama がローカルAIのハブとしてめちゃ最強な件 ローカルLLMを触る人なら一度は使ったことがあるであろう **Ollama**。最初は「ローカルでLLMを動かすツール」という位置づけだったが、2026年に入ってからの進化が凄まじい。気がつけば、ローカルAIエコシステム全体の「ハブ」として君臨しつつある。 +最近では コマンドで **Claude Code**、**Codex CLI**、**OpenCode** といったAIコーディングエージェントも一発で起動できるようになった。もはやLLMを動かすだけのツールではなく、AIツール全般のランチャー兼パッケージマネージャーだ。 + +最近では `ollama launch` コマンドで **Claude Code**、**Codex CLI**、**OpenCode** といったAIコーディングエージェントも一発で起動できるようになった。もはやLLMを動かすだけのツールではなく、AIツール全般のランチャー兼パッケージマネージャーだ。 + +```bash +ollama launch claude-code +ollama launch codex +ollama launch opencode +ollama launch openclaw +``` + この記事では、Ollamaが単なるLLMランナーからどうやって「ローカルAIのDocker」的存在に進化したのかを整理してみる。 ## Ollama の現在地