SHARE

特長

GMO GPUクラウドとは

大規模な生成AIモデルの開発には、大量のデータを最適化されたインフラ環境で処理することが求められます。

GMO GPUクラウドは、NVIDIA社の「NVIDIA H200 TensorコアGPU」を搭載した高性能GPUノード、国内初となるNVIDIA Spectrum™-Xを採用した高速ネットワーク、そして高速ストレージを兼ね備え、マルチノードのクラスタ構成で圧倒的なパフォーマンスを発揮します。生成AI開発や機械学習に最適化された、国内最速レベルのGPUクラウドが、お客様の開発サイクルを飛躍的に加速させます。

GMO
GPUクラウドの
システム構成

システム構成

NVIDIA推奨構成

マルチノードでのクラスタ構成で圧倒的なパフォーマンスを発揮する国内最速レベルのGPUクラウド。

GPUクラスタの性能はGPU自体の性能だけでは決まりません。GPUの処理性能を引き出すGPU間通信帯域の広さ、ストレージの読み書き速度の速さ、そういった構成すべてが最高の選択である必要があります。

GMO GPUクラウドはマルチノードに最適なクラスタ構成にこだわり、最高の研究・学習環境をお客様にご提供します。

NVIDIA H200 Tensor コア GPU

NVIDIA H200
Tensor コア
GPU

大規模言語モデルの開発・研究者向けにGPUメモリ容量とメモリバス帯域幅を大幅に拡大・最適化した「NVIDIA H200 Tensor コア GPU」を国内最速提供。

Spectrum-X国内初採用

Spectrum-X
国内初採用

AIワークロード専用に設計された世界初のイーサネットファブリックであるSpectrum-Xを国内で初めて採用。 生成AIネットワークのパフォーマンスを飛躍的に向上させます。

超高速ストレージ

超高速
ストレージ

NVIDIA製品との連携に優れたDDNの高速ストレージを採用。圧倒的な性能を持つAI開発プラットフォームをワンストップで提供。

NVIDIA AI Enterprise

NVIDIA AI
Enterprise

NVIDIAが提供する一元管理されたプラットフォームで幅広いソフトウェア、管理ツール、ワークロードなどを提供。 迅速に環境構築・管理を行うことが可能です。

Slurm

Slurm

クラスタシステムのための業界標準であるジョブスケジューラーです。リソースの割り当て・ジョブの制御・モニタリング機能を提供します。

スペック比較

サービス GMO GPUクラウド
NVIDIA H200
ConoHa VPS
NVIDIA H100
ConoHa VPS
NVIDIA L4
特長 大規模な生成AI開発や
機械学習に最適
モデルの学習やファイン
チューニングにも対応
画像精製や
推論用途に最適
GPU NVIDIA H200 GPU(SXM)
×8枚
NVIDIA H100×1枚 NVIDIA L4×1枚
GPUメモリ 総計1,128GB 80GB 24GB
GPUノード間通信 3,200Gbps - -
vCPU 224コア 22コア 20コア
インターネット回線 100Gbps(共用) 1Gbps 1Gbps
データ通信料 無料 無料 無料
演算性能 (FP16 Tensorコア) 15.8PFLOPS 1.513PFLOPS 0.242PFLOPS
OS Ubuntu 22.04LTS Ubuntu 22.04LTS Ubuntu 22.04LTS
リージョン 日本 日本 日本

※演算性能は疎性あり。

NVIDIA H200以外のGPUをご利用いただけるサービスも
ご用意しております。

H100 / L4のご利用はこちら

お客様のニーズに
合わせたプランのご提供

お客様のニーズに合わせたプランのご提供

実際の性能を充分に体感していただき、お客様のニーズに合うかご検討いただいたうえでご契約に進むことができるプランをご用意しております。

詳しくは、こちらのお問い合わせボタンよりご連絡ください。

お問い合わせ
SSL GMOグローバルサインのサイトシール