ハクソク

世界を動かす技術を、日本語で。

データは唯一の防壁である

概要

  • AIエージェントは理論上あらゆる課題を解決できるはずだが、実際には成果に偏りが存在
  • 採用の容易さと技術的な複雑さが、AIエージェントの進化速度と普及に大きく影響
  • データの収集と活用が、競争優位性(データの堀)を生み出す最大の要因
  • 「採用のしやすさ×技術難易度」の2軸で市場を4象限に分類し、それぞれの特徴を分析
  • 今後は「難易度が高く採用も難しい」分野で大きな成長と収益機会が見込まれる

AIエージェント普及の現状と課題

  • AIエージェントは理論上、あらゆる生活課題に対応可能なはず
  • 人材・資本・モデル能力の三要素は既に十分に存在
  • しかし実際には、営業リード発掘やサポートチケット対応など一部の用途でのみ高精度化
  • スライド生成のようなオープンエンドな課題では、依然として品質が安定しない現状

技術的複雑さと採用の容易さ

  • 複雑性が低い課題(例:FAQ対応)は優先的に解決されやすい傾向
  • しかし、コーディング支援のような本来難易度の高い領域でも急速な進化
  • Cursorなどのツールは、導入の容易さがデータ収集と改善サイクルの加速を実現

データの堀と2×2象限モデル

  • 技術的難易度と採用のしやすさで市場を4象限に分類
    • 採用しやすく解決も容易:参入障壁が低く、モデルプロバイダーの独壇場
    • 採用しやすく解決は難しい:データ収集の好循環(データフライホイール)が働きやすい
    • 採用しにくく解決は容易:エンタープライズ向けで組織的導入が必須、既存システムとの統合が鍵
    • 採用しにくく解決も難しい:最も注目される成長領域、高度な専門性と長期的な改善サイクルが必要

コーディングエージェントの急成長理由

  • 導入のしやすさが最大の要因
  • エンジニア個人が5分でツール切り替え可能な環境
  • フィードバックループが高速で、データ蓄積→モデル改善のサイクルが迅速
  • スライド生成など他用途では、この細かなフィードバックが得られず進化が遅い

エンタープライズ領域の特徴

  • 組織単位の意思決定レガシーシステム統合が導入の障壁
  • 運用ノウハウの蓄積がデータの堀となり、他社による置き換えが困難に
  • SierraDecagonなどがこの領域で優位性を確立

難易度の高い分野へのシフト

  • 難易度が高く採用も難しい領域にこそ、今後大きな成長余地
  • 複雑な業務フローや専門ワークフローの自動化がターゲット
  • 導入・評価サイクルは長期化するが、顧客ごとのノウハウ蓄積が強固な堀を形成
  • モデル改善速度は遅いが、一度定着すれば置き換えが極めて困難

今後の展望とUXの重要性

  • モデルの性能向上は頭打ち傾向、今後は**UX(ユーザー体験)**の革新が成長ドライバー
  • Claude Codeのような新しいUXが、非エンジニア層の利用を促進
  • 今後12~24ヶ月で「難易度高×採用難」の市場に勝者が現れる予測
  • 評価・導入サイクルの長期化収益化までの時間は伸びるが、巨大な収益機会

まとめ

  • AIエージェントの進化は、技術的な難易度と導入のしやすさという2軸で大きく左右
  • データの堀が競争優位性の本質
  • 今後は複雑かつ導入困難な領域での成長と収益化が加速
  • UX革新が新たな成長エンジン
  • 企業ごとのノウハウ蓄積が、今後のAIエージェント市場の勝敗を決定

Hackerたちの意見

情報はすべての要のようなものでしたよね。命をかけて情報を手に入れようとするスパイが実際にいるんだから。
これは文脈によるんだよね… みんなが関連する要素を知っている状況はたくさんあるけど、結局は土地や資源、人々を持っているのが誰かってこと。
そうそう、2000年代には「マッシュアップ」ブームがあったよね。データを一つのサービスから別のサービスに組み合わせて会社を作る人たちがいたんだ。たとえば、CraigslistのリストをGoogleマップに載せるとか。でも、結局それらのマッシュアップ企業は数年も持たなかった。データへの直接的なアクセスがなかったからね。
配信、ブランド、ネットワーク効果、規制の位置付け、実行速度がすべて防御力を生み出す。「データが役立つ」とは言っても「データがすべて」というわけじゃない。基盤モデルが進化するにつれて、今日の「解決が難しい」問題が明日の「簡単に解決できる」問題になるんだ。
人々の心を忘れないで。 - どのブランドが信頼されてる? - 権力を持つ人たちは誰を信頼してる? どんなに情報を持っていても、誰もあなたの話を聞かなかったら意味がないからね。
> どのブランドが信頼されてる? - 権力を持つ人たちは誰を信頼してる? これらはしばしば対立することが多いんだ。エンジニア(人々)は実際に仕事をするツールを好むけど、PM(権力を持つ人たち)は業界の「ベストプラクティス」とされるキラキラしたツールを好むことが多い。例えば、Claude Codeは素晴らしいし、Codexモデルと一緒に使ってるけど、権力を持つ人たちは「ChatGPT Proサブスクリプション付きのCodex」や「Claudeサブスクリプション付きのCC」を使いたがるんだ。なぜなら、同僚たちがそれを選んでるから。
データ。垂直統合。水平統合。クロスおよび/またはマス関係の統合。個別の関係投資/アーティファクト。信頼性や安定性、その他の望ましい次元に対する評判。ニュースでの常時の可視性(良いニュース、中立的なニュース、時には悪いニュースも!)。ブランドに関する一貫した魅力的なストーリーやナラティブ。人々は「自分のためにデザインされた」製品を好む。ダークサイドでは、威圧、容赦ない競争、買収、訴訟、支配の評判、深いポケットで有名。誰かを維持するのは簡単だよ。小さなことが人を引き留める:イライラや不具合、手間が少ない結果を出す基盤モデル。低いまたは無設定のインストールと操作。瞬時に開くウィンドウや他のアクション。良いデザインに対するシンプルな注意が、デザインや摩擦のダウングレードが苦痛に感じる人たちにとっては、強い忠誠心を生むことがある。もちろん、物理的な世界にはもっと多くの要素があるけどね。
AIを嫌っていると思っている人たちの防御をすり抜けるAIベースの製品。CopilotやPCのようなブランドで気が引ける人も多い。多くの人が、NFTのようにすべてが枯れて消えてしまうことを本当に願っている。あるいは、AIとは何の関係もない本当に素晴らしいツール。すべてをリニアライトで処理して、美しい画像を作り、フォント選択を開いたときにクラッシュしないPhotoshopのクローンみたいな。
コンテキストが防壁なんだよ。満足するために食べられないし、私のコンテキスト、私の利益は、代替不可能なんだ。
開発者!開発者!開発者!開発者!
nの限界
データは昔からの防壁だったけど、今はそのサイズや有用性が限られてる気がする。今のデータを大量に持ってる企業は、データをオラクルに圧縮して、誰にでも適当なことを言わせてる。そうやって、データのより良い近似値を漏らしてるんだ。DeepSeekは初期の敵対的蒸留の大きな例だったけど、フロンティアモデルは常に抜き取られて、そこから強力なグレー市場の競争が生まれるのは避けられないと思う。
なぜ、営業リードを探したり、サポートチケットに正確に答えたりできるエージェントがいるのに、高品質なスライドを一貫して生成できないんだろう?営業リードのことは分からないけど、「サポートチケットに正確に答える」って?マジで、これは皮肉だよね?
すでにXを2回試したって聞けて嬉しいよ。でも、XのFAQセクションを読んだことある?それと、存在しないこの設定や、2022年に削除されたこのダイアログを使ってみて。
効率が最終的にLLMが長期的に実現可能かどうかを決めるんだ。今のところ、LLM業界は持続可能じゃない。投資家たちは、文字通り未来を現在に約束されてたけど、ASIやAGI、あるいは中程度に有能な汎用準自律システムがすぐには実現しないのは明らかだ。現実は、長期的に市場にこれらのプレイヤー全員が存在する余地はないってこと。LLMは消えないけど、大多数のメインストリームの提供者は確実に消えるだろうね。
ニッチなB2Bスペースでの構築は共感できる。データの防壁は単なる量じゃなくて、エッジケースの蓄積された理解なんだ。私の分野では、ユーザーの修正が毎回、実際のビジネスがどう動いているかを教えてくれる。最初のバージョンを書いたときに想定していたこととは違ってね。実際の使用と修正が6ヶ月続くことで、競合他社が単に計算力や大きなトレーニングセットを持っているだけでは再現できないものが生まれるんだ。この種の防壁は、同じものを作ろうとするまで見えないのが厄介なんだ。外から見るとシンプルに見えるけど、内側では「デモでは動く」と「実データでは動く」の違いを生む何千もの学習した例外があるんだ。
まだこのアイデアに出会ってないなら、今VCの間でめっちゃ話題になってるよ。Jaya GuptaがFoundationでこれを考えたのか、ただ広めたのかはわからないけど、「コンテキストグラフ」ってやつね。このアイデアの信者を見つけられれば、資金調達の環境としてはいいかもしれないよ。
これ、財務文書分析をやってるときに見つけたんだ。LLMを使った「この文書をこのスキーマに入れて」っていうプロトタイプを作るのがめっちゃ早いんだよ。それを10万件の実際の文書にかけると、実はたくさんの例外や特別なケースがあることがわかるんだ。そこから、約80%の生の精度を100%に近づけるために必要なヒューリスティックや特別ケースの層を構築する旅が始まるんだ。それがモートなんだよ。特に高精度が重要な要件のときはね。
「データが唯一のモート」っていうのは、どんなデータを指してるかによって大きく変わるのが厄介だよね。基盤モデルのための独自のトレーニングデータ?それは確かに本物のモートだよ。でも、誰かが合成データを生成する方法を見つけたり、新しいアーキテクチャがデータセットをあまり重要でなくさせたりするまではね。もっと興味深いモートは、実際の使用から蓄積されるコンテキストデータなんだ。ユーザーの好み、修正パターン、ワークフロー特有のエッジケース。これを再現するのはずっと難しいんだ。なぜなら、製品が十分に役立たないと人々が使い続けてくれないからね。問題は、それを蓄積するのに十分な時間を生き残る必要があるってこと。つまり、最初に何か他の差別化が必要ってことだよ。データをモートとして考えるのは、最初の立ち位置というよりは、「人々にこのものを使わせる」戦いに勝った後の複利的なアドバンテージなんだ。
うまいこと言ったね。
コーディングがLLMにとって最も難しい問題の一つだっていう前提は、ちょっとおかしいと思うんだ。コーディングってAIにとって一番簡単な領域じゃない?データもたくさんあるし、簡単に検証できるし。