--- sidebar_position: 2 title: Codebuffを完全ローカルで動かすワンライナー description: Ollama導入済み環境でCodebuffを外部SaaSに接続せずローカル実行する最短手順 hide_table_of_contents: false displayed_sidebar: null image: /img/codebuff-local-oneliner-banner.png --- # Codebuffを完全ローカルで動かすワンライナー 「Ollamaは各環境に入っている」前提で、Codebuffを**ローカルLLMだけ**で動かす最短手順です。 ## 前提 - Node.js 18+ - Ollama インストール済み(`ollama` コマンドが使える) - `codebuff` コマンドが使える(未導入なら `npm i -g codebuff`) ## ワンライナー ```bash title="Ollama導入済み前提・完全ローカル実行" ollama pull qwen2.5-coder:32b && OPENAI_BASE_URL=http://127.0.0.1:11434/v1 OPENAI_API_KEY=dummy OPENROUTER_API_KEY= NO_TELEMETRY=1 CODEBUFF_DISABLE_UPDATE=1 codebuff --model qwen2.5-coder:32b ``` 特定のプロジェクトディレクトリで起動する場合は、最後にパスを付けます。 ```bash title="プロジェクト指定" ollama pull qwen2.5-coder:32b && OPENAI_BASE_URL=http://127.0.0.1:11434/v1 OPENAI_API_KEY=dummy OPENROUTER_API_KEY= NO_TELEMETRY=1 CODEBUFF_DISABLE_UPDATE=1 codebuff --model qwen2.5-coder:32b ~/my-project ``` ## 何をしているか 1. `ollama pull` でローカルモデルを取得 2. `OPENAI_BASE_URL=http://127.0.0.1:11434/v1` でAPI向き先をlocalhostに固定 3. `OPENROUTER_API_KEY=` を空にしてOpenRouter利用を抑止 4. `NO_TELEMETRY=1` と `CODEBUFF_DISABLE_UPDATE=1` で外向き挙動を最小化 5. `codebuff --model ...` でローカルモデルを明示して起動 ## 注意点 - **「完全ローカル」要件を厳密に満たすには、OS側のFWで外向き通信制限も推奨**です。 - まずは短いタスク(小修正・説明依頼)で挙動確認してから本作業へ。 ## 参考リンク - [Codebuff GitHub](https://github.com/CodebuffAI/codebuff) - [Ollama](https://ollama.com/) --- *この記事は2026年3月時点の情報です。*