ハクソク
世界を動かす技術を、日本語で。
Qwen3.6-35B-A3B: エージェンティックコーディングパワー、今すべての人に開放
1日前
原文(qwen.ai)
Hackerたちの意見
ジュンヤン・リンや他の人たちが去った後も、Qwenチームがオープンウェイトを発表し続けているのを見るとホッとするね!
└
qwen-image 2.0をオープンウェイトとしてリリースしてほしいな。
└
これはQwen 3.6シリーズの一つのモデルに過ぎないよ。他の小さいサイズもリリースされる可能性が高いし(独占する意味はあまりないからね)、もしかしたら122A10Bサイズも出るかも。でも、フラッグシップの397A17Bサイズは除外されてるみたい。
他のサイズも出るといいな(自分は9Bが欲しい)。36GBのMacじゃ、あんまりコンテキストを詰め込めないから。
└
もう少し詳しく教えてくれる?量子化されたバージョンを使えるけど、それでもコンテキストの問題は残るのかな?
└
これはMoEモデルで、A3Bは30億のアクティブパラメータを意味してるんだ。最近のGemma 4みたいにね。CPUで専門家をオフロードすることができるよ、llama.cppの--cpu-moeオプションを使えば、かなりの追加コンテキストスペースが得られるけど、トークン生成速度はちょっと遅くなるかも。
Qwenチームのリリース、いいね!小さなオープンウェイトのコーディングモデルは、特にパブリックモデルにアクセスできない開発会社にとって、カスタムエージェントを作るのに最適だと思う。例えば、銀行や医療分野の開発機関なんかね。こういう市場が西洋のプレイヤーに無視されてるのは残念だな。ミストラルだけがその方向に進んでるし。
└
オープンウェイトモデルに対抗するものを作るアイデアは大好きだけど、これってめっちゃお金がかかるゲームだよね。
└
その意見には同意だけど、これらのモデルはその用途には向いてないよ。約10万のハードウェアで、もっと大きなモデルをオンプレミスで動かせるし、実際のタスクに役立つことが多い。これらの小さなモデルは遊ぶには楽しいけど、残念ながらヘルスケアや銀行業界で働く開発チームのニーズを解決するには程遠いね。
└
これってどれくらい真実なの?規制された業界は、モデル自体が悪意を持って訓練されていないことをどうやって確認するの?
└
> 西洋のプレイヤーにほとんど無視されている市場なのが残念だね。Mistralだけがその方向に進んでいる。最近のコメントでも言ったけど、Mistralは持続可能なビジネスに向かっている唯一のプレイヤーだと思う。他のAI企業はただ大金を狙っているだけで、持続可能に運営しようとはしていない。
もうUnslothによって量子化されて、まともなフォーマットに変換されてるよ!: https://huggingface.co/unsloth/Qwen3.6-35B-A3B-GGUF
└
じゃあ、`ollama run claude`でclaude codeを使えるってこと?
└
笑った、めっちゃ速いね!
└
どれくらいのVRAMが必要なの?まだローカルモデルを動かしたことはないけど、最近16GBのGPUを手に入れたよ、販売中止になる前にね。
Qwenの役員がTwitterで公開アンケートをしてたのを思い出すな。Qwen3.6のどのモデルをオープンソース化してほしいかって聞いてたけど、27bバリアントが圧倒的に人気だったんだよね。なんで無視したのか不思議だわ(笑)。
└
27Bモデルは密度が高いね。最初に密度の高いモデルをリリースするのはマーケティング的に最悪だと思う。35A3Bの方がずっと賢くて機転が利いてるよ!
└
次に来るのは多分これだね。
└
3.5-27bの方が3.6-35bに勝つんじゃないかな。MoEはあんまり良くないアイデアだと思う。だって、同じVRAMなら27bの方が余裕があって、作品のクオリティは「B」の数字だけじゃなくて、コンテキストサイズに直接依存するからね。
これ、意外とHaikuのクオリティに近いけど、オープンだし、Haikuはかなり優秀なモデルだよ(Claude Codeのサブエージェントの多くが使ってる)。
ここは初心者で、これらのモデルをコーディングにどう使うか分からなくて困ってる。VSCodeでContinueを使って基本的なCコード(#include int m)を入力すると、意味不明なオートコンプリートが出てくるんだけど、どうなってるの?
└
これはオートコンプリートモデルじゃないよ。PiやOpenCodeみたいなエージェント的なコーディングハーネスと一緒に使うために作られてるんだ。
└
ちょっと皮肉に聞こえるかもしれないけど、真剣に言うと、AIに自分の使った経験について話してみて。
└
Qwenのために正しいFIM(Fill In the Middle)テンプレートを選んでね。最近のQwenモデルは実際にFIM機能でトレーニングされてるから、使えるよ。
みんながこれらのローカルモデルをどう使っているのか、すごく興味がある。具体的には、どうやってハーネスを取り付けて、AnthropicやOpenAIからトークンを借りる以上の価値を見出しているの?
└
最近、vLLMとqwen3-coder-nextを使って、数百万のドキュメントをバッチ処理したよ。トークンの制限もないし、レート制限もなし。仕事が終わるまでGPUを100%使い続けてた。
└
同じこと考えてた!彼らがローカルモデルにワクワクしてるのは、Open Routerを通して安く運用できるからかな?
└
アンスロピックやOAIのトークンを使わずに、雰囲気作りのための使い捨てプロジェクトにはいいと思うよ。
└
ローカルモデルを使ってる人たちは、結局両方使うことになるよ。ローカルモデルはほとんどのタスクでフラッグシップラボと競争するわけじゃないけど、プライバシーの理由で送信したくないものや、どのラボのプランからトークンを使いたくないタスクもあるからね。openclawみたいなものはトークンをたくさん使うし、ほとんどの場合、ローカルモデルで全然問題ないよ(役に立つかどうかはまた別の話だけど)。
35bだと24gのコンテキストにはあまり余裕がないと思う。しばらくは3.5-27bに留まっておいた方がいいよ。
中型や大型モデルにも期待してる!個人的にはQwen3.6-122B-A10Bが見てみたいな。