ハクソク

世界を動かす技術を、日本語で。

Cursor Composer 2は、RLを搭載したKimi K2.5に過ぎません。

Hackerたちの意見

Cursorは主にIDEやコーディングエージェントのハーネス会社だね。だから、自分たちでベースモデルをトレーニングするよりも、Kimiみたいなものをライセンスして、自分たちのハーネスやワークフローに合わせてファインチューニングする方が理にかなってるんじゃないかな。彼らの競争優位性はかなり薄い気がする。VSCodeのフォークにオープンソースのLLMフォークを乗せた感じ。急速に変化するコーディングエージェント市場では、彼らがこの巨大な評価額を永遠に維持できるかは微妙だね。
ソフトウェアエンジニアリングには非常に限られた知能しか必要ないという現実的なシナリオがあるかもしれない。そこで最新のモデルは主に他のことに使われ、コーディングではハーネスの方がモデルよりも重要になっていくんじゃないかな。
> 彼らの競争優位性はかなり薄い。彼らの価値は、集めたデータや現在集めているデータにある。利用状況、受け入れ率、そしてすべての関連信号。さらに、彼らが作るファインチューニングをA/Bテストできる大規模なユーザーベースも持っている。
どうやら、二人のMoonshotの社員が、Moonshotが議論から撤退して投稿を削除する前にライセンスされていないことを確認したみたいだね。[0][1] [0] https://chainthink.cn/zh-CN/news/113784276696010804 - 元々は https://x.com/apples_jimmy/status/2034920082602864990 だったかも。[1] https://pbs.twimg.com/media/HD2Ky9jW4AAAe0Y?format=jpg&name=...
彼らのウェブサイトにこう書いてあるよ…「Kimi K2.5はオープンソースですか?」 「はい、Kimi K2.5はオープンソースのAIモデルです。開発者や研究者はそのアーキテクチャを探求し、新しいソリューションを構築し、自由に実験できます。モデルの重みとコードはHugging Faceと公式GitHubリポジトリで公開されています。」 https://www.kimi.com/ai-models/kimi-k2-5
正直、最初からそんなツイートをするべきじゃなかったね。じっとしておいて、インターネットによってライセンスが強制されるのを見てればよかったのに。あの時「この変なライセンス条項をどうやって強制するんだろう?」って疑問があったけど、今はその答えが分かる気がする。
もう一つ、これも削除されたと思う: https://x.com/HarveenChadha/status/2034933979720425611/photo...
Cursor Composer 1はQwenで、これはKimiだね。IDEはVSCodeをベースにしてる。会社全体がオープンソースをパッケージ化して再販することに基づいている。Ollamaも同じことをやってるし、最近はオープンソースを再パッケージ化してお金を稼ぐチャンスがたくさんあるよね。「50人のチームがAnthropicに勝った」とか言ってTwitterが盛り上がるのを見るのは面白い。
> オープンソースをパッケージ化して再販すること。もう少し違うよ。彼らはファインチューニングに役立つデータをたくさん持ってる。実際にどれだけの競争優位性になるかは分からないけど、何かはあるよね。大手プロバイダーが自分たちのコーディングハーネスを作った理由があるんだ。
QwenモデルのComposer 1.5って何を使ってるか知ってる?
> Cursor Composer 1はQwenだった… Composer 2がKimi K2.5だってツイートから分かるよね。Composer 1がQwenを基にしてる証拠はどこにあるの? > 「50人のチームがAnthropicを打ち負かした」ってツイッターが盛り上がってるのを見るのは面白いね。この場合、逆になると思うよ:AnthropicはCursorを競合AIラボとして見るだろうし、Composer 2(実際にはKimi K2.5)はOpus 4.6から抽出されたとされているから、Cursorがモデルを使うのを止めさせるのには十分だと思う。そういう方向に進んでるんだ。
Cursorの統合は、単にLLMをVSCodeに接続するだけじゃないよ。とはいえ、VSCodeとClaude Codeの両方がその統合に追いつく気がする。でも、まだどちらも近くには来てないね(Claude Codeを主に使ってる人間として言うけど)。
> Cursor Composer 1はQwenで、これはKimiだよ。IDEはVSCodeをベースにしてる。会社全体がオープンソースをパッケージして再販することに成り立ってるんだ。で、疑問なんだけど、なんで誰も怒ってないの?「アメリカが中国の技術を盗んだ」って見出しがないのはどうして?「アメリカは中国のSOTAモデルの安いコピーしか作れない」って。 > Twitterが「50人のチームがAnthropicを打ち負かした」って盛り上がってるのを見ると面白いよね。まあ、アメリカの会社ならそれは立派なアンダードッグストーリーだけど、中国がやると、アメリカの技術投資に寄生してる泥棒扱いだもんね。全部予想通りだし、ここでのコメントも同じ感じ。
> 最近、オープンソースを再パッケージすることで稼げるお金がたくさんあるんだ。最近?ほとんどのテクノロジー提供物は、1000以上のOSS依存関係がガムテープでくっつけられて、ビジネスロジックがちょっと振りかけられてるだけだよ。Cursorにお金を払うのは驚くべきことじゃないけど、その投資はね…
> 50人のチームがAnthropicを打ち負かした。これでそのストーリーはどうなるの? 50人のチームが、地球上で最も資本が豊富な企業の一つと同等の成果を、はるかに低コストで出せる製品を持つためにライセンスを破った可能性が高い。ClaudeのコードとAnthropicは確かに今のところ注目されてるけど、私にとっては、彼らのモデル面での防御線が非常に薄いという考えを強化するだけだね。独立したハードウェアで動かせるOSSと比べても。アプリケーションレイヤーの戦略も怪しいと思う。中長期的には、私は自分が好きなモデルを自由に動かせるツールが欲しいし、高価で独占的なプロバイダーに縛られるのは嫌だ。個人的な作業ではコストが重要だし、最終的には雇用主もコストと企業向け機能/ガバナンスを気にするようになると思う。Anysphereのような会社はその点で非常に良いポジションにいるし、ますますアプリケーションレイヤーの未来はモデルに依存しないものになると思う。ほとんどの企業がデータセキュリティの懸念から自社のクラウドでモデルをホスティングするようになるし、モデルは完全にコモディティ化されるだろうね。
防御線はモデルじゃなくて統合レイヤーだよ。MCPサーバーを構築しているのを見たけど、どのLLMを選ぶかよりも、構造化データへのアクセスが重要だと思う。
Cursorをバカにする理由はいろいろあるけど、彼らのオートコンプリートモデルは結構いいんだよね。これに近いオープンモデルってあるのかな?OAIやAnthropicは、Cursorのモデルを超えるためにリソースを使わないの?Cursorの補完モデルは多くのユーザーにとって重要なポイントなんだよ。
モデル自体は素晴らしいけど、UXは~~ひどい~~イライラするね…。
Antigravityにもオートコンプリートモデルがあるよ。Windsurfのを基にしてるんじゃないかな。
最近はほとんどの会社がオートコンペティションをやってないね。最近まで補完を提供してた会社も含めて。これは残念だな。特に独自のコードベースで標準じゃないインフラがある場合、良いオートコンプリートが「エージェント的」な編集よりもずっと役立つことが多いんだよね。後片付けに時間がかかるだけのゴミを生み出すだけだから。
同意だね、彼らのオートコンプリート(タブ)モデルは最高だけど、最近は使う頻度が減ってきたな。新しいモデルがすごく良くて、ほとんどエージェント的なコーディングばかりしてるから、自分でコードベースをあまりいじらなくなった。これって多分一般的なトレンドだと思うし、オートコンプリートモデルの使用が減ってるなら、企業がリソースを投資しないのも理解できるよ。
これこそCursorがやるべきことだよ、法律の範囲内でね。誰もが完璧な基盤モデルを必要としてるわけじゃないし、計算資源の無駄だよ。AnthropicとOpenAIは、彼らを$25/Mtokの馬から引きずり下ろすために、製品レベルの競争が必要なんだ。
「ただの」Kimi K2.5にRL—人々はRLでこれらの結果を出すのがどれだけ難しいかを本当に誤解してる。Cursorの研究チームは業界内で非常に評価されていて、彼らのやってることはかなり印象的だよ。モデルの盗用について結論を急ぐ前に、彼らがMoonshotと合意に達していた可能性を考慮する価値があると思う。それが削除されたツイートの理由になるかもしれないし。Moonshotが公式な声明を出すまで、特に心配はしてないよ。
これはどういう意味?Kimiを持っていて、RLでちょっとファインチューニングすれば、大手AIショップを圧倒できるってこと?これがAnthropicやOAIが自分たちでやる以上に徹底的にファインチューニングされてるのかな?これがCursorの独自のベンチマークだと思うから、自分のデータセットでファインチューニングして、特定のタスクでより良い結果が得られるってことだと思う。
Cursorの投資家向けピッチは、自分たちのモデルをコーディングに使うってことだったよ。もし君の素晴らしいモデルがただのRLの再パッケージなら、50億ドルの評価を正当化するために新しいピッチが必要だね。 https://www.bloomberg.com/news/articles/2026-03-12/ai-coding...
彼らの規模と資本でSOTAのベースモデルをトレーニングしていると信じている投資家は、業界を理解していない。確かにそういう投資家もいると思うけど、RLと大規模なユーザーベースに基づくファインチューニングが、ベースモデルよりも質的に優れた出力を生み出していることが意味がないと考える人たちは、会社がやっていることを理解していないね。
明らかに自家製のベンチマークでモデルを宣伝するのは大胆な手だね。モデルがどれだけ良くても、すぐに信頼度が下がるよ。
彼らはリリース投稿で、オープンソースのモデルを使って自分たちのコーディングデータで改善したことをかなりはっきりと伝えてるね。「継続的な事前トレーニング」(ベースモデルの上に)やRLについても言及してるし。Cursorはフルの事前トレーニングを行ったとは言ってない。要するに、Opus 4.6をコーディングで打ち負かして、gpt-5.4に迫るのはすごいことだよ! ベンチマークは生のKimi K2.5を上回ってるし、Metaみたいな大きなラボがOpenAI/Anthropicに追いつくのに苦労してる中で、特に印象的だね。