GMO GPUクラウド

GMO GPUクラウド

生成AI開発や機械学習に最適化された
業界最高峰のGPUクラウド

スクロール

GMO GPUクラウドとは

大規模な生成AIモデル開発においては、大量のデータを最適化されたインフラ環境で処理する必要があります。
GMO GPUクラウドはNVIDIA社のGPU「NVIDIA H200 Tensor コア GPU」採用の高性能GPUノード、国内初となるNVIDIA Spectrum™-Xを採用の高速ネットワーク、高速なストレージを兼ね備え、マルチノードでのクラスタ構成を組んだ時に圧倒的なパフォーマンスを発揮します。
生成AI開発や機械学習に最適化された業界最高峰のGPUクラウドによってお客様の開発サイクルを飛躍的に加速させます。

LLM (Llama3-70B-Instruct)ファインチューニング所要時間比較

GMO GPUクラウドとは GMO GPUクラウドとは

測定日時:2024/9/1

当社開発環境にて測定。測定結果を保証するものではありません。

Get Maximum Output with GPU

GMO GPUクラウドの特長

マルチノードでのクラスタ構成で圧倒的なパフォーマンスを発揮する国内最高峰のGPUクラウド
GPUクラスタの性能はGPU自体の性能だけでは決まりません。
GPUの処理性能を引き出すGPU間通信帯域の広さ、ストレージの読み書き速度の速さ、
そういった構成すべてが最高の選択である必要があります。
GMO GPUクラウドはマルチノードに最適なクラスタ構成にこだわり、最高の研究・学習環境をお客様にご提供します。

システム構成

システム構成
NVIDIA H200 Tensor コア GPU

NVIDIA H200
Tensor コア GPU

大規模言語モデルの開発・研究者向けにGPUメモリ容量とメモリバス帯域幅を大幅に拡大・最適化した「NVIDIA H200 Tensor コア GPU」を国内最速提供。

Spectrum-X国内初採用

Spectrum-X
国内初採用

AIワークロード専用に設計された世界初のイーサネットファブリックであるSpectrum-Xを国内で初めて採用。 生成AIネットワークのパフォーマンスを飛躍的に向上させます。

超高速ストレージ

超高速ストレージ

NVIDIA製品との連携に優れたDDNの高速ストレージを採用。
圧倒的な性能を持つAI開発プラットフォームをワンストップで提供。

NVIDIA AI Enterprise

NVIDIA AI
Enterprise

NVIDIAが提供する一元管理されたプラットフォームで幅広いソフトウェア、管理ツール、ワークロードなどを提供。 迅速に環境構築・管理を行うことが可能です。

Slurm

Slurm

クラスタシステムのための業界標準であるジョブスケジューラーです。
リソースの割り当て・ジョブの制御・モニタリング機能を提供します。

スペック比較

サービス
GMO GPUクラウド
A社 B社
特徴 NVIDIA H200×8枚搭載 NVIDIA H100×8枚搭載 NVIDIA H100×8枚搭載
プラン H200スタンドアロン H100×8 H100×8
GPU NVIDIA H200(SXM)×8枚 NVIDIA H100(SXM)×8枚 NVIDIA H100(SXM)×8枚
GPUメモリ 総計1,128GB 総計640GB 総計640GB
GPUノード間通信 3,200Gbps 3,200Gbps 3,200Gbps
vCPU 224コア 112コア 192コア
システムメモリ 2TB 2TB 2TB
ローカルストレージ 15TB 60TB 30TB
共用ストレージオプション 最大100TiB 最大32TiB 最大64TiB
インターネット回線 100Gbps(共用) 最大10Gbps 最大10Gbps
データ通信料 無料 有料 有料
NVIDIA AI Enterprise - -
演算性能 (FP16 Tensorコア) 15.8PFLOPS※ 15.8PFLOPS※ 15.8PFLOPS※
OS Ubuntu 22.04LTS Linux OS Linux OS
リージョン 日本 米国 米国東部

※演算性能は疎性あり。

トライアルプランのご案内

本サービスの圧倒的なパフォーマンスを実際に体感いただき、
十分にご理解いただいたうえで契約をご検討いただけるよう、
トライアルプランをご用意しました。
詳しくは、下記のお問い合わせボタンよりご連絡ください。

Get Maximum Output with GPU