フリオーサ:H100sに対して3.5倍の効率
92日前原文(furiosa.ai)
概要
- FuriosaAIによる初のブランドサーバー「NXT RNGD Server」の紹介
- AI推論向けに最適化された高性能・省エネ設計
- 標準的なデータセンター環境にシームレス導入可能
- Furiosa SDK・Furiosa LLM runtimeをプリインストール
- 2026年1月より注文・問い合わせ受付開始
NXT RNGD Server 概要
- FuriosaAI初のブランド製品として提供されるターンキーAI推論サーバー
- 独自のRNGDアクセラレータを最大8基搭載可能な高性能設計
- 主要なAIワークロードに最適化されたシステム構成
- 既存データセンター環境に追加工事不要で導入可能
- 実験から本番運用への移行を迅速化する設計
主な技術仕様
- 計算性能:最大8基のRNGDアクセラレータ(サーバーあたり4 petaFLOPS FP8)、デュアルAMD EPYCプロセッサ搭載
- BF16、FP8、INT8、INT4対応
- メモリ:384 GB HBM3(12 TB/s帯域)、1 TB DDR5システムメモリ
- ストレージ:2 × 960 GB NVMe M.2(OS用)、2 × 3.84 TB NVMe U.2(内部ストレージ用)
- ネットワーク:1G管理NIC、2 × 25GデータNIC
- 電源・冷却:システム全体で3 kW、冗長2000 W Titanium PSU、空冷方式
- セキュリティ・管理:Secure Boot、TPM、BMCアテステーション、PCIe + I2Cのデュアル管理経路
- ソフトウェア:Furiosa SDKおよびFuriosa LLM runtimeプリインストール、Kubernetes・Helm統合
実運用でのメリットと実績
- 高い電力効率により、TCO(総所有コスト)削減を実現
- 既存のオンプレミスやクラウドデータセンターで大規模AIを効率的に運用可能
- 世界のデータセンターの80%以上が空冷・8 kW/ラック以下の現状に最適
- 規制対応・セキュリティ重視の企業向けに、全データをローカルインフラ上で安全管理
- LG AI Researchによる導入実績
- EXAONE 3.5 32Bモデルを4枚のRNGDカードで推論時、4Kコンテキストウィンドウで60トークン/秒、32Kで50トークン/秒達成
- 電子、金融、通信、バイオテクノロジー分野での展開実績
AI導入の現実解としてのNXT RNGD Server
- 2024年の世界データセンター需要60GW、今後10年で3倍に増加予測
- 液冷・10kW超を要するGPUシステムに比べ、既存空冷施設でも導入可能な現実的ソリューション
- プラグ&プレイ設計により即時運用開始が可能
- AI最適化シリコンと、OpenAI API対応のFuriosa LLM(vLLM互換)を統合
- 将来性・効率性・エンタープライズ対応を兼ね備えたAIインフラ実現
販売・問い合わせ
- 2026年1月より注文・問い合わせ受付開始
- 詳細なデータシートや最新情報は公式サイトにて案内