NVIDIA Blackwell Ultra GPU搭載
NVIDIA HGX B300
AIインフラストラクチャ
AI推論モデルに最適化されたHGX B300 AIインフラストラクチャの性能を引き出し
大規模言語モデルの高速推論やエージェントAI 開発など
最先端AIワークフローに最適な高性能環境を国内から提供します。
NVIDIA Blackwell Ultra GPU搭載
AI推論モデルに最適化されたHGX B300 AIインフラストラクチャの性能を引き出し
大規模言語モデルの高速推論やエージェントAI 開発など
最先端AIワークフローに最適な高性能環境を国内から提供します。
GPUメモリ、演算性能 共にHopper世代から向上。
推論のための FP4 演算精度も備えた次世代のGPU。
NVIDIA社が推奨するネットワーク構成を採用。
インターコネクト間通信合計6,400Gbps
Ubuntu OSを
初期セットアップ
インターコネクトNW設定済み
ローカルNWも利用可能
管理ダッシュボードによる
サーバ管理
追加のストレージを
提供可能
| サービス | NVIDIA HGX B300 | NVIDIA HGX H200 |
|---|---|---|
| GPUメモリ | H2.3TB (288GB HBM3e ×8) |
H1.1TB (141GB HBM3 ×8) |
| FP4 Tensor コア | 144PFLOPS/108PFLOPS※ | - |
| FP8 Tensor コア | 72PFLOPS | 32PFLOPS |
| FP16 Tensor コア | 36PFLOPS | 16PFLOPS |
| TF32 Tensor コア | 18PFLOPS | 8PFLOPS |
| 最大インターコネクト帯域 | 6,400Gbps | 3,200Gbps |
| NVLINK(GPU間帯域/GPU1基ごと) | 第5世代(1,800GB/s) | 第4世代(900GB/s) |
※スパース性あり/スパース性なし
生成AIの力を最大限に引き出す、高速な学習インフラを提供します。
自動運転技術を確実に進化させる研究環境、価格感度の高い検証します。
ロボットが環境を理解して動くことができるよう、実環境に近い形で学習できます。
複雑な演算を可視化し研究により、研究成果の研究代を実現いたします。
クラスタシステムのための業界標準のジョブスケジューラーで、リソースの割り当て、ジョブの制御、モニタリング機能を提供します。
NVIDIA製品との連携に優れたDDNの高速ストレージを採用。圧倒的な性能を持つAI開発プラットフォームをワンストップで提供します。
世界初のイーサネットファブリック Spectrum-X を国内で初採用し、生成AIネットワークの性能を従来比で大幅に向上させます。
お問い合わせフォームにご入力いただき、送信ボタンをクリックしてください。
弊社担当からご入力いただいたメールアドレス宛にご連絡いたします。