ハクソク

世界を動かす技術を、日本語で。

DeepClaude – DeepSeek V4 Proを使用したClaude Codeエージェントループ、17倍のコスト削減

概要

deepclaudeは、Claude Codeの自律型エージェントループをDeepSeek V4 Proなど安価なバックエンドで利用可能にするツール。
従来のAnthropic APIより最大17倍安価で、同じUXと機能を維持。
ファイル操作・自律ループ・サブエージェントなど主要機能が全て動作。
環境変数設定・スクリプト設置・コマンド実行で2分以内に導入可能。
コスト・切替・リモート操作など多彩な管理機能も搭載。

deepclaude:Claude CodeをDeepSeek V4 Pro等で動かす超低コストエージェント

  • Claude Codeの自律コーディング機能をDeepSeek V4 ProOpenRouter等の安価なAPIで利用可能にする互換レイヤー
  • 従来のAnthropic Claude Codeは$200/月+利用制限があるが、deepclaudeなら同じ体験を**$20/月以下**で実現
  • CLIツール、ファイル編集、Bash/Git操作、サブエージェント生成、自律コーディングループなど全機能がそのまま利用可能
  • APIコール先のみ切替(Anthropic→DeepSeek等)で、他は変更不要
  • DeepSeek V4 ProはLiveCodeBench 96.4%達成・$0.87/M出力トークンと高性能・低コスト
  • OpenRouterFireworks AI(最速・USサーバ)も選択可能
  • 環境変数でAPIキー設定・スクリプト配置で即利用開始

導入手順(2分で完了)

  • DeepSeek APIキー取得
    • platform.deepseek.comで登録・$5クレジット追加・APIキーコピー
  • 環境変数を設定
    • Windows: setx DEEPSEEK_API_KEY "sk-..."
    • macOS/Linux: echo 'export DEEPSEEK_API_KEY="sk-..."' >> ~/.bashrc && source ~/.bashrc
  • スクリプト設置
    • Windows: deepclaude.ps1をPATH配下へ配置
    • macOS/Linux: chmod +x deepclaude.sh && sudo ln -s "$(pwd)/deepclaude.sh" /usr/local/bin/deepclaude
  • コマンドで起動
    • deepclaudeでClaude Code開始
    • deepclaude --statusでバックエンド・APIキー確認
    • deepclaude --backend ds等でバックエンド切替

サポートされるバックエンドとコスト比較

  • DeepSeek(デフォルト)
    • 入力$0.44/M・出力$0.87/M
    • 中国サーバ・自動コンテキストキャッシュ(繰返し$0.004/M)
  • OpenRouter
    • 入力$0.44/M・出力$0.87/M
    • USサーバ・最安・低遅延
  • Fireworks AI
    • 入力$1.74/M・出力$3.48/M
    • USサーバ・最速推論
  • Anthropic(Opus)
    • 入力$3.00/M・出力$15.00/M
    • USサーバ・高難易度時のみ推奨

月額コスト例

  • 軽度利用(10日/月):Anthropic $200→deepclaude $20(90%節約)
  • 重度利用(25日/月):Anthropic $200→deepclaude $50(75%節約)
  • 自律ループ多用:Anthropic $200→deepclaude $80(60%節約)
  • DeepSeekの自動キャッシュで繰返し処理はさらに安価

できること・できないこと

  • できること
    • ファイル読取・編集・書込
    • Bash/PowerShell実行
    • glob/grep検索
    • 自律型ツールループ
    • サブエージェント生成
    • Git操作
    • プロジェクト初期化
    • Thinking mode(デフォルト有効)
  • できない/制限あり
    • 画像入力(DeepSeekは未対応)
    • 並列ツール実行(DeepSeekは最大128並列可、Claude Codeは逐次)
    • MCPサーバツール(互換レイヤー未対応)
    • Anthropicのプロンプトキャッシュ(DeepSeek独自キャッシュのみ)
    • 高度な推論・複雑タスクはOpus推奨(--backend anthropicで切替)

バックエンド切替方法

  • スラッシュコマンド(推奨)
    • ~/.claude/commands/にコマンドファイル設置
      • deepseek.md: DeepSeekへ切替(curlでlocalhost:3200/_proxy/mode呼出)
      • anthropic.md: Anthropicへ切替
      • openrouter.md: OpenRouterへ切替
    • Claude Codeセッション内で/deepseek等を実行し即時切替
  • CLIフラグ
    • 例:deepclaude --switch deepseek または deepclaude -s anthropic
  • VS Codeキーボードショートカット
    • tasks.jsonにタスク追加
    • keybindings.jsonでショートカット割当(例:Ctrl+Alt+DでDeepSeek、Ctrl+Alt+AでAnthropic)

コスト追跡・節約額の可視化

  • プロキシがトークン利用量・コスト・節約額を追跡
    • curl -s http://127.0.0.1:3200/_proxy/costでJSON形式の利用状況確認可能

VS Code / Cursor統合

  • IDEからdeepclaudeを直接起動可能
    • terminal profileに追加(Windows: powershell, macOS/Linux: deepclaudeパス指定)

リモートコントロール(--remote)

  • 任意のブラウザでClaude Codeセッションを開始可能
    • deepclaude --remoteでセッションURL発行
    • DeepSeek/OpenRouter/Anthropicいずれも選択可能
    • WebSocket接続はAnthropicのbridge経由、APIコールはローカルプロキシで分岐
    • Node.js 18+必須・claude.aiサブスクリプション必須

技術的仕組み

  • ローカルプロキシ(localhost:3200)がAPIコールを仲介
    • /_proxy/modeでバックエンド即時切替
    • /_proxy/costで利用状況確認
    • Claude Codeからの/v1/messagesはDeepSeek等へ、他はAnthropicへパススルー
    • セッション終了時に設定復元

ライセンス

  • MITライセンスで自由に利用・改変可能

Hackerたちの意見

ソネットレベルのパフォーマンスでいいなら、これはまさにアップグレードって感じだね。でも、ソネットは結構ミスが多いから、コストを最適化して使う価値がないと思う。選択肢が増えたのは嬉しいけどね。
たくさんの人が、デザインにオーパスを使ったり、実装にローカルホストのqwen3.6を使ったりしていい体験をしてるみたい。オーパスでデザインして、ディープシークで実装することで、かなりコスト削減できると思う。個人的には、アンソロピックは完全に避けたいけど、みんながそうしない理由もわかる。
この教訓を何度も学び直してるんだ。劣ったモデルで進めて、複雑すぎる問題を投げる。そんで、いろんなモデルを試して、結局あきらめてOpus 4.6を使って片付けることになる。
僕はsonnetでは全くそう感じないな。しっかりしたClaude.mdがあって、定期的に出力を見直して、基本的なCIゲートで良いコードプラクティスを守ってる限り、Opusに切り替えることはほとんどないよ。
これが問題なんだ:必要なのは、ただの良いモデルじゃなくて、最高のモデルだよ。 - 良いアーキテクチャには、仕様やコードを読む必要がある。つまり、トークンの入出力が多い。 - バグ修正も同様で、ログも必要だし、例えばDatadogみたいな。 一度道を見つければ、パッチは簡単だけど、リファクタリングやクリーンアップをしない限り、節約はほとんどない。テストはどんどん複雑になるしね。 OpenCode Goを見てみると、こんなのが含まれてるよ: > GLM-5.1、GLM-5、Kimi K2.5、Kimi K2.6、MiMo-V2-Pro、MiMo-V2-Omni、MiMo->V2.5-Pro、MiMo-V2.5、Qwen3.5 Plus、Qwen3.6 Plus、MiniMax M2.5、MiniMax M2.7、 > DeepSeek V4 Pro、DeepSeek V4 Flash。 バグに関しては自分でやらなきゃいけないけど、これらのモデルはスケールで出力できるよ。この状況で何か見落としてることある?安いモデルの本当の使い道は何なんだろう?
これの目的がよくわからないな。ディープシークは、Claude Codeを含む多くのCLIでAPIを使うための指示がもうあるよね。https://api-docs.deepseek.com/quick_start/agent_integrations...
多分、意味はないんじゃないかな。誰かが何かを理解してなくて、調べもせずに思いつきをそのままHNのフロントページやSNSに投稿したんだろう。未来だね、マジで。
ツールのフォーマットって、正確には同じじゃなかった気がするんだけど?だから、クラウドコードにIAを接続するにはフォーマットの変換が必要なんじゃないかな。
実際にどれくらい機能するのか気になるな。DeepseekをHermesとOpenCodeで試したけど、基本的なツールの使い方がすごく悪かった。特にHermesのホログラフィックメモリツールなんか、システムプロンプトで強調しても全然使わなかった。
バイブコーダーからバイブコーダーへ
#!/bin/sh export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic export ANTHROPIC_AUTH_TOKEN=sk-secret export ANTHROPIC_MODEL=deepseek-v4-flash export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 exec claude $@
AI戦争が始まったね。
クロードをネタにしたプロジェクトは、ハッカーニュースのトップに行く運命にあるみたいだね。たとえそれが4行のコードだけのプロジェクトでも。
これは、誰でもCCを使ってどんなモデルでも使えるようにするものだよ。ローカルも含めてね。
ANTHROPIC_MODEL=deepseek-v4-pro ANTHROPIC_SUBAGENT_MODEL=deepseek-v4-flash これが、私が非機密プロジェクトで約1週間使っているものだよ(v4が出た直後から)。正直、違いはわからないけど、特に変なことはしてないしね。DeepSeekのAPIはトレーニングからオプトアウトできないと思うけど、他のプロバイダーでこれが使えるようになったら…(今はOpenRouterがDeepSeekにプロキシしてるだけだし)。
DeepSeek V4を使ってる人、どのくらいの出力が得られる?Codex 5.3かGPT 5.4?フラッシュバージョンはGPT 5.4ミニと同じくらい?
それで、https://getaivo.devを作ったんだ。モデルをコーディングエージェントに直接使えるよ。`aivo claude -m deepseek-v4-pro`って感じで。
クロードコードの代替を探してるなら、まずはpi.devかopencodeをハーネスとして調べてみるのをおすすめするよ。それからモデルは、OpenCode Go(今のところコスト効果が一番高いと思う)、OpenRouter、またはディープシークから直接選べるよ。個人的には、きみルートで、kimi.comからサブスクリプションを買うのがいいと思う。
もう一つのコストパフォーマンスの良い選択肢はOllama Cloudだよ。1ヶ月使ってみたけど、8つのエージェントを同時に2時間動かした時に1回だけ5時間の制限に引っかかった。
同意だね。OpenCodeは強力なベースで、ちょっとした修正でとても効果的なハーネスになる。僕のサイドプロジェクトmouse.devでは、OpenCode、Claude Code、Hermesのパーツを組み合わせて、モバイルでもうまく動くクラウドエージェントアーキテクチャを作ってるよ。
自分のハーネスも投げ入れてみるよ:https://codeberg.org/mlow/lmcli
> まずはpi.devを調べてみることをおすすめするよ。これを見てみたけど、GitHubでオープンなイシューが7件しかないのが怪しいと思ったんだ。実際、彼らは自動でイシューを全部閉じるボットを持ってるみたい。正直、言葉が出ないわ。
Claude Codeって、最高のコーディングハーネスなの?誰かそれで評価してる人いる?
私の経験から言うと、そうではないね。同じモデルのOpusは、Factory DroidやAmpみたいな3Pハーネスでの方がうまく動くよ。一方で、Claude Codeは消費者(Maxサブスクリプションを通じて)や企業(トークン割引)にとって最も補助金が出てるやつだね。コスト最適化もかなりされてるけど、特にトークンキャッシングや思考の削減が品質を犠牲にしてる。
今日の半日をCUDAとLLAMAを5070TIで動かすのに使ったよ。Rooでエージェントモードで使えたし、計画を書かせるところまで行ったけど、もっと時間ができたら続けるつもり。DeepSeekは、自分でホスティングできるお金があれば、直球の詐欺に遭う可能性が低い気がするけど、やっぱりローカルソリューションの方がワクワクするね。普段はただの雑用を片付けたいだけだから、難しい問題は解決してないし。
DeepSeekがKimi CodeみたいなAIコーディングエージェントを作らなかった理由が気になるな。
正直、Opencodeやpi、hermesみたいなのがあるから、「Claude Codeエージェントループ」部分は特に面白いとは思わないな。Anthropicの強みはモデルのパフォーマンスにあるし、CLIツール(もちろん価格も)も他より良いわけじゃないし。
それに、モデル自体が最近のFOSSモデルと比べて特に優れているわけでもないし。
もしコストを気にしないなら、実際のパフォーマンスはどうなの?
DeepSeek V4を使うためにいろんなCLIを試したけど、LangcliがDeepSeek V4には一番合ってると思う。プログラミングタスクでは、キャッシュヒット率が95%以上だし、DeepSeek V4 FlashやV4 Pro、他のメインストリームモデルの間を同じコンテキストでシームレスに切り替えられる。しかもClaude Codeとも100%互換性があるよ。