koide f571c2c8ed
All checks were successful
Deploy Docusaurus Site / deploy (push) Successful in 55s
Update codebuff local-oneliner for Ollama-only setup
2026-03-06 00:04:34 +00:00

2.1 KiB
Raw Blame History

sidebar_position, title, description, hide_table_of_contents, displayed_sidebar, image
sidebar_position title description hide_table_of_contents displayed_sidebar image
2 Codebuffを完全ローカルで動かすワンライナー Ollama導入済み環境でCodebuffを外部SaaSに接続せずローカル実行する最短手順 false null /img/codebuff-local-oneliner-banner.png

Codebuffを完全ローカルで動かすワンライナー

「Ollamaは各環境に入っている」前提で、CodebuffをローカルLLMだけで動かす最短手順です。

前提

  • Node.js 18+
  • Ollama インストール済み(ollama コマンドが使える)
  • codebuff コマンドが使える(未導入なら npm i -g codebuff

ワンライナー

ollama pull qwen2.5-coder:32b && OPENAI_BASE_URL=http://127.0.0.1:11434/v1 OPENAI_API_KEY=dummy OPENROUTER_API_KEY= NO_TELEMETRY=1 CODEBUFF_DISABLE_UPDATE=1 codebuff --model qwen2.5-coder:32b

特定のプロジェクトディレクトリで起動する場合は、最後にパスを付けます。

ollama pull qwen2.5-coder:32b && OPENAI_BASE_URL=http://127.0.0.1:11434/v1 OPENAI_API_KEY=dummy OPENROUTER_API_KEY= NO_TELEMETRY=1 CODEBUFF_DISABLE_UPDATE=1 codebuff --model qwen2.5-coder:32b ~/my-project

何をしているか

  1. ollama pull でローカルモデルを取得
  2. OPENAI_BASE_URL=http://127.0.0.1:11434/v1 でAPI向き先をlocalhostに固定
  3. OPENROUTER_API_KEY= を空にしてOpenRouter利用を抑止
  4. NO_TELEMETRY=1CODEBUFF_DISABLE_UPDATE=1 で外向き挙動を最小化
  5. codebuff --model ... でローカルモデルを明示して起動

注意点

  • 「完全ローカル」要件を厳密に満たすには、OS側のFWで外向き通信制限も推奨です。
  • まずは短いタスク(小修正・説明依頼)で挙動確認してから本作業へ。

参考リンク


この記事は2026年3月時点の情報です。