SHARE
国内最速クラス提供
B300チップ

NVIDIA Blackwell Ultra GPU搭載

NVIDIA HGX B300
AIインフラストラクチャ

サーバーラック

AI推論モデルに最適化されたHGX B300 AIインフラストラクチャの性能を引き出し
大規模言語モデルの高速推論やエージェントAI 開発など
最先端AIワークフローに最適な高性能環境を国内から提供します。

NVIDIA Blackwell Ultra GPU搭載
NVIDIA HGX B300AI インフラストラクチャとは

GPUメモリ、演算性能 共にHopper世代から向上。

推論のための FP4 演算精度も備えた次世代のGPU。

H200・B300 GPUメモリ比較 H200・B300 演算性能比較

GMO GPUクラウドの特長

NVIDIA社が推奨するネットワーク構成を採用。

インターコネクト間通信合計6,400Gbps

NVIDIA ConnectX-8 SuperNIC | NVIDIA BlueField3-DPU | NVIDIA Spectrum-4

大規模で
ほぼ完ぺきな帯域幅

極めて低い
レイテンシ

エンドツーエンドで
スタックの最適化

スケーラブルなAI通信のための
高度なRoCE拡張機能

決定的なパフォーマンスと
パフォーマンスの分離

自由度を備えた基本セットアップ対応

Ubuntu OSを
初期セットアップ

インターコネクトNW設定済み
ローカルNWも利用可能

管理ダッシュボードによる
サーバ管理

追加のストレージを
提供可能

お問い合わせ

スペック比較表

サービス NVIDIA HGX B300 NVIDIA HGX H200
GPUメモリ H2.3TB
(288GB HBM3e ×8)
H1.1TB
(141GB HBM3 ×8)
FP4 Tensor コア 144PFLOPS/108PFLOPS※ -
FP8 Tensor コア 72PFLOPS 32PFLOPS
FP16 Tensor コア 36PFLOPS 16PFLOPS
TF32 Tensor コア 18PFLOPS 8PFLOPS
最大インターコネクト帯域 6,400Gbps 3,200Gbps
NVLINK(GPU間帯域/GPU1基ごと) 第5世代(1,800GB/s) 第4世代(900GB/s)

※スパース性あり/スパース性なし

お問い合わせ

活用シーン

LLM学習環境の構築

LLM学習環境の構築

生成AIの力を最大限に引き出す、高速な学習インフラを提供します。

自動運転実装の実証実験

自動運転実装の実証実験

自動運転技術を確実に進化させる研究環境、価格感度の高い検証します。

サービスロボットの環境画像学習

サービスロボットの環境画像学習

ロボットが環境を理解して動くことができるよう、実環境に近い形で学習できます。

大学や研究機関での大規模シミュレーション

大学や研究機関での大規模シミュレーション

複雑な演算を可視化し研究により、研究成果の研究代を実現いたします。

お問い合わせ

既存のSlurmサービス側にもB300計算ノード(プラン)として順次対応予定!

Slurm採用

Slurm採用

クラスタシステムのための業界標準のジョブスケジューラーで、リソースの割り当て、ジョブの制御、モニタリング機能を提供します。

DDN社製

DDN社製

NVIDIA製品との連携に優れたDDNの高速ストレージを採用。圧倒的な性能を持つAI開発プラットフォームをワンストップで提供します。

NVIDIA推奨構成

NVIDIA
推奨構成

世界初のイーサネットファブリック Spectrum-X を国内で初採用し、生成AIネットワークの性能を従来比で大幅に向上させます。

システム構成
お問い合わせ

お問い合わせ

お問い合わせフォームにご入力いただき、送信ボタンをクリックしてください。

弊社担当からご入力いただいたメールアドレス宛にご連絡いたします。

*は必須項目です。
さらに詳細項目入力へ