ハクソク

世界を動かす技術を、日本語で。

いいえ、「Claude Code」ユーザー1人あたりにAnthropicが5,000ドルかかるわけではありません。

概要

  • Forbes記事の誤解された計算について解説
  • API価格と実際の計算コストの違いを説明
  • OpenRouter等の競合サービスとの価格比較
  • Anthropicの利益構造と実際の損益分析
  • 「AI推論は赤字」という誤情報の実態に言及

Forbes記事の「$5,000損失」主張の誤解

  • Forbes記事で言及された「Anthropicの$200/月プランが$5,000分の計算リソースを消費」という主張の根拠の曖昧さ
  • この数字はAPIの小売価格を実際の計算コストと混同したもの
  • AnthropicのOpus 4.6 API価格は入力$5/100万トークン、出力$25/100万トークン
  • ヘビーユーザーがAPI価格換算で$5,000/月利用する計算は理論上成立
  • しかしAPI価格≠実際の計算コストであり、誤解を招く表現

OpenRouterによる現実的な推論コストの比較

  • OpenRouterでは複数プロバイダが競争的に価格設定
  • Qwen 3.5 397B-A17B(Opus 4.6相当)の価格は入力$0.39/100万トークン、出力$2.34/100万トークン
  • Kimi K2.5(さらに大型)は入力$0.45/100万トークン、出力$2.25/100万トークン
  • AnthropicのAPI価格と比べて約10分の1
  • DeepInfraのキャッシュ利用もAnthropicの1/7程度の価格
  • これらのプロバイダもビジネスとして成立している現実

実際のAnthropicの損益構造

  • 仮にAPI価格で$5,000分のトークンを消費しても、実際の計算コストは$500程度
  • $200プランの最重量ユーザーでも月$300程度の赤字で済む計算
  • ただし大半のユーザーは上限の半分以下しか使わない
  • Anthropic自身も週次上限に達するのは5%未満と公表
  • 平均的な利用者ではほぼ損益分岐点か黒字

CursorとAnthropicの関係

  • $5,000という数字の出所はCursor社の内部分析
  • CursorはAnthropicのAPI価格でOpus 4.6にアクセスしているため、このコストが現実的
  • Anthropic自身のコストはさらに1/10以下
  • Cursorにとってはブランド力や性能面でAnthropicモデルが必要というジレンマ

「AI推論は赤字」論の正体

  • Anthropicは全体としては未だ黒字化していない
  • しかし推論(inference)コスト自体は平均的なユーザーで十分利益が出る構造
  • 本当にコストが重いのは大規模モデルの学習、研究者の高給、巨額の計算リソース確保
  • 「AI推論は金食い虫」という印象操作はAPI価格の高止まりと競争抑制に利用されている
  • OpenRouter等の市場価格こそ実際の推論コストの近似値

まとめ

  • Forbes記事の「$5,000損失」説はAPI価格と実コストの混同による誤解
  • 競争的な市場価格を基準に考えれば推論コストはAPI価格の1/10程度
  • Anthropicは平均ユーザーで十分利益を確保できている
  • 「AI推論は赤字」という主張は誤情報であり、業界の価格体系を維持するための一面も
  • 実態を知るにはAPI価格ではなく、OpenRouter等の実勢価格を参照すべき

Hackerたちの意見

Opus 4.6のモデルサイズについて、どれくらい自信ある?俺はずっと、Qwen397Bよりももっとパラメータが多いし、しっかりしたモデルだと思ってたんだけど(フォワードパスで17Bアクティブ)。
それについて、専門家の意見も聞きたいな。俺の予想だと、1兆から2兆の範囲じゃないかな。
もし大きいとしても、OpenRouterにはDeepSeek v3.2(685B/37Bアクティブ)が$0.26/$0.40で、Kimi K2.5(1T/32Bアクティブ)が$0.45/$2.25であるって投稿に書いてあったよね。
うん、それはかなり大きな仮定だね。マスクがGrokは数兆パラメータだって明かしたのを覚えてる。Opusがもっと大きい可能性は高いと思う。AnthropicはAPIで利益出してるだろうけど、90%の利益率はさすがに疑わしいな。
Anthropicのコンピュータが完全に飽和してるなら、ClaudeのパワーユーザーはAnthropicにとって$500よりも$5,000に近い機会コストを代表してることになるかも。AnthropicのモデルはOpenRouterのモデルとパラメータサイズは似てるかもしれないけど、他のモデルは最近のニュースにはほとんど出てこないから、その比較はめちゃくちゃだよ。この文章の主張は、ギア数に基づいてロレックスとランダムな機械式時計のコストを比較してるようなもんだ。
機会コストは実際のコストとは違うからね。APIを売ることができてたらもっとお金を稼げたかもしれないけど、個人のサブスクリプションがなかったら、会社にCCを常に使えとは絶対に言わないよ。
でも機会コストは実際のコストじゃないよ。「みんながずっとお金を払ってくれたら、サービスをあまり使わなくてももっと利益が出る」ってのは本当だけど、意味のあることじゃない。Anthropicは今、キャパシティがないからサブスクリプションを売れないの?
アイデアを与えないでくれ!100ドルのサブスクリプションが必要なんだ、オーパスをたっぷり使いたいから!
>この記事の主張は、ロレックスの価格をランダムな機械式時計のギア数と比べるようなもんだ。ロレックスは過剰に高いブランドで、その価格のほとんどはマーケティングに過ぎない。生産コストは販売価格には全然及ばないし、ギアを見て評価するのは公平な方法だと思う。
モデルを動かすために必要なGPUやその他のものをレンタルできるよ。機会コストはここでは実際のコストじゃない。重要なのは、ユーザーがサブスクリプションを買う選択肢がなかった場合に5000ドルを支払ったかどうかだけ。私は彼らがそうするとは思わないけどね。
>もしAnthropicのコンピュートが完全に飽和しているなら、Claude Codeのパワーユーザーは、Anthropicにとって500ドルよりも5000ドルに近い機会コストを代表していると思う。逆じゃない?GPUファームのスパースな使用がもっと高いコストになるはず。完全な飽和は、バッチ効果を利用できることを意味する。
「機会コスト」って言葉を使うのが好きなのは、エンターテインメント業界もだよね。彼らは、みんなが海賊版を使うせいでどれだけお金を失っているかを語っている。実際にエンターテインメントで起こるのは、人々が「コンテンツ」を「消費」する量がずっと減ることだと思う。そして、Anthropicにとって実際に起こるのは、人々がその不確実性が価格に見合うのか自問し始めること。最悪の場合、従量課金に切り替えて、APIを使う頻度がぐっと減るだろうね。
車の例えが好きなんだよね。
> Qwen 3.5 397B-A17Bは良い比較だよ。 それは違う。ひどい比較だ。QwenやDeepSeek、他の中国のモデルは、Anthropicのモデルに比べて10倍以上の効率があることで知られてる。だから、OpenRouterの価格と公式プロバイダーの価格の差はそんなに大きくないんだよ。それに、オープンルーターのプロバイダーが量子化で何をしてるかなんて誰にもわからない。彼らは100倍の効率を得てるかもしれないし、そのせいで競争力のある価格になってるんだ。ただ、全てのユーザーがプランを使い切るわけじゃないから、各ユーザーがAnthropicに$5,000のコストをかけるわけじゃない。そんなことになったら、数ヶ月で倒産しちゃうよ。
>それは違うよ。ひどい比較だ。Qwenや他の中国製モデルは、Anthropicのものと比べて10倍以上の効率があることで知られてる。これは良い比較だと思う。なぜなら、Anthropicの内部情報はゼロだから。特定のモデルサイズには特定のコストが伴うっていうアイデアを与えてくれる。10倍の効率ってのは信じられない。彼らは現行の最先端モデルの性能に遅れを取ってるだけだ。現在のモデルよりもずっと性能が悪いのに、コストはずっと低い - まさに予想通りだ。現在のQwenモデルはSonnet 3と同じくらいの性能だと思う。2年後には中国製モデルが十分に追いついて、Sonnet 4.6と同じくらいの性能になるだろうし、まだ利益は出るだろうね。
それは同義反復だ。人々は、中国製モデルが10倍安いから10倍効率が良いと思って、その理由で10倍効率が良いと主張する。オーパスをホスティングするのはそんなに高くないよ。オーパス4.5と他の中国製モデルのAmazon Bedrockのt/s数を見てみて。大体同じオーダーの大きさだよ - つまり、オーパスは中国製モデルとほぼ同じ数のアクティブパラメータを持ってるってこと。あと、openrouterでBF16やQ8のプロバイダーを選べるよ。
>とはいえ、すべてのユーザーがプランを最大限に使うわけじゃない。これは一般の人が使う携帯電話のプランじゃないし、ソフトウェア開発を明確な目的として購入されるプランだと思う。99のプランのうち、100のうち99は最大限に使うことを目的として購入されていると思う。
同意するけど、オーパス4.6は10倍大きいんじゃなくて、中国のモデルが10倍効率的ってわけじゃないと思う。GPT-4はすでに1.6Tモデルだと言われているし、Llama 4の巨大なモデルも中国のオープンウェイトモデルよりずっと大きいよ。中国のテック企業は最先端のGPUが不足しているけど、推論効率に関してはたくさんの革新をしている(DeepseekのCEOであるLiang自身が関連する論文の著者リストに名前を載せている)。
先週末に計算したんだけど、私のチームが小売APIコストでClaude Codeを動かすと、月に約20万ドルかかる。私たちはMaxのサブスクリプションに月1400ドル払ってるから、ユーザーあたり5万ドルってことになる。でも、CCがjsonで報告してるトークンは、かなりキャッシュされてるはずだから、5万ドルのコストには全然近くないと思うけど、正確にどれくらいかかるかはわからないし、試す気にもならないよ。
> でも、どれくらいかかるかをどうやって調べるか分からないし、絶対に試そうとは思わないよ。オーパスにいくらかかるか聞いてみて。笑。
`npx ccusage`を使えば、ローカルのログをチェックして、APIを通じてどれくらいかかったかを確認できるよ。
どんな仕事をしていると、そんなに多くのリソースを賢く割り当てられるのか、すごく興味があるよ。私はClaudeをかなり使っていて、すごく価値を感じているけど、すぐに意味のあることをする限界に達しちゃうみたい。
驚いたんだけど、Maxプランを会社の一部として使うのは禁止されてるんじゃないの?ちょっと気になったんだけど、利用規約で禁止されてると思ってたけど、ちゃんと理解できてるか自信がないんだ。
人々が気づいていないのは、キャッシュは*無料*だってこと。まあ、正確には無料じゃないけど、再計算するために必要なコンピュートに比べれば、かなり安いよ。キャッシュされたトークンのコストを価格から引くと、全体のAPI使用量は約5000ドルから800ドル(週200ドル)に落ちる。APIでもまだ4倍安いけど、実際にはお金もかからない。推測するに、コンピュートは他に使われない限り、ブレークイーブン状態だと思う。
> [...] 推測するに、コンピュートは他に使われない限り、ブレークイーブン状態だと思う。なんでアイドル状態になるの?次に最適な使い方に回されるからだよ。少なくとも、モデルのトレーニングを手伝ったり、研究者が実験を行ったりすることができるよね。
> 人々が気づいていないのは、キャッシュが無料だってこと。これには本当にイライラしてる。彼らは、推論をプレミアム価格で多くのユーザーに売るために、強烈に何かをマネタイズしてるんだよ。キャッシュがなければ、利用可能な容量はずっと少なくなるはず。
多くの人が、OpenAIとAnthropicが推論トークンを赤字で売ってると信じてるけど、実際にはそれを裏付ける証拠は全くないし、逆にそうじゃない証拠がたくさんあるんだよね。単なるミームになっちゃって、批判的に考えられなくなってる。このいい加減なフォーブスの記事が、情報の環境を汚染しちゃった。今や「証拠」として指摘できるソースができたからね。だから、この投稿者の見積もりは完璧じゃないけど、元のフォーブスの記事よりはずっと厳密だと思う。あの記事は、AnthropicのAPIコストと計算コストの違いすら理解してないみたいだし。
ウェハースケールコンピューティングはすごく重要だと思う。今すぐ使えるモデルにすでに活用されてるし、HNでの反応はほとんどないね。モデル全体がSRAMに存在してる。これはHBM/DRAMよりも桁違いに速い。これを使って生産で最終的に収支が取れないとは考えられないよ。
「これって証拠にならないの?ちょっと不安定に聞こえるけど、証拠が全くないとは言えないと思う。」
> 「多くの人が、OpenAIとAnthropicが推論トークンを赤字で売っていると信じているけど、これが本当だという証拠はない。」 「証拠は結構あると思うけど、確証はないってのには同意するよ。でも、逆の確証も私が知る限りではないから、君がどこからその情報を得たのか分からない。私が知っている証拠は2つあって、1) Anthropicは補助金プランがCC以外で使われるのを望んでいない、つまりそれで得られるお金が足りてないってことを示唆してる、2) 最後に確認したとき、APIの支出は月5000ドルに制限されてた。これらは証拠とは言えないけど、反論もできるだろうし、逆の証拠についても同じことが言えると思う。」
CCの内部コストは公開されてないし、効率性も公表されてない。…過去のモデルリリースから効率改善率(x -> y)を取って、内部で「改善」をすでに行っていると仮定することもできる。これが彼らの実際のコストに近いかもしれないね。
Claudeのサブスクリプションはスポットインスタンスと同等で、APIはオンデマンドサービスに相当する。優先度はAPIに設定されていて、余った計算リソースがサブスクリプションプランに使われる。容量がないときは、サブスクリプションが裏で高量子化された安価なモデルにルーティングされる。サブスクリプションを売ることで、大規模に推論を実行するのが安くなる。そうしないと、容量の多くがただ無駄に放置されることになるからね。また、これらのサブスクリプションは、予測可能なワークフローでモデルをさらにトレーニングするのにも役立つ(モデルの作成者がクライアントを制御しているから、qwenコードやclaudeコード、反重力など…)。これが、TOS違反でサブスクリプションサービスモデルを他のツールと一緒に使えないと禁止される理由かもしれない。彼らは単にサブスクリプションを売っているわけじゃなくて、そのコストが彼らが売っているもの、つまりQwenやClaudeのようなコーディングモデルのためにより良くなる手助けをしているんだ。私はqwenコード、codex、claudeを使ったことがあるけど、CodexはQwenコードの2倍良くて、ClaudeはCodexの2倍良い。だから、Claude Opusは少なくともAlibabaがホストするフラッグシップのQwenコードモデルよりも4〜5倍高くなることを願ってる。
> ClaudeはCodexの2倍良い これはもう長いこと真実じゃないよ。
> 容量がないときは、サブスクリプションが裏で高量子化された安価なモデルにルーティングされる。これについて発表された?
「Qwen/Kimiとの比較で『同等のアーキテクチャサイズ』っていうのは、かなり無理があるよね。パラメータ数だけじゃ、モデルの質が全然違うとあんまり意味ないし。サイズよりも能力レベルで比較する方が、もっと良い指標になるんじゃないかな。『良い』から『フロンティア』に行くのは、たぶん線形じゃなくて指数的なコストがかかると思うから、Qwenの397Bを提供するのにかかるコストからAnthropicの実際のコストを推測するのは、ちょっと違う気がする。」
「プロマックスのアカウントを2つ、月200ドルで使ってるんだけど、昨日は使い切っちゃって3つ目のプロアカウントを取ったよ。価値はあるけど、私のために利益は出てないだろうね。でも、もちろん私は常に宣伝してるから…」