生成AI開発や機械学習に最適化された
業界最高峰のGPUクラウド
2024.10.07
大規模な生成AIモデル開発においては、大量のデータを最適化されたインフラ環境で処理する必要があります。
GMO GPUクラウドはNVIDIA社のGPU「NVIDIA H200 Tensor コア GPU」採用の高性能GPUノード、国内初となるNVIDIA Spectrum™-Xを採用の高速ネットワーク、高速なストレージを兼ね備え、マルチノードでのクラスタ構成を組んだ時に圧倒的なパフォーマンスを発揮します。
生成AI開発や機械学習に最適化された業界最高峰のGPUクラウドによってお客様の開発サイクルを飛躍的に加速させます。
LLM (Llama3-70B-Instruct)ファインチューニング所要時間比較
測定日時:2024/9/1
当社開発環境にて測定。測定結果を保証するものではありません。
マルチノードでのクラスタ構成で圧倒的なパフォーマンスを発揮する国内最高峰のGPUクラウド
GPUクラスタの性能はGPU自体の性能だけでは決まりません。
GPUの処理性能を引き出すGPU間通信帯域の広さ、ストレージの読み書き速度の速さ、
そういった構成すべてが最高の選択である必要があります。
GMO GPUクラウドはマルチノードに最適なクラスタ構成にこだわり、最高の研究・学習環境をお客様にご提供します。
大規模言語モデルの開発・研究者向けにGPUメモリ容量とメモリバス帯域幅を大幅に拡大・最適化した「NVIDIA H200 Tensor コア GPU」を国内最速提供。
AIワークロード専用に設計された世界初のイーサネットファブリックであるSpectrum-Xを国内で初めて採用。 生成AIネットワークのパフォーマンスを飛躍的に向上させます。
NVIDIA製品との連携に優れたDDNの高速ストレージを採用。
圧倒的な性能を持つAI開発プラットフォームをワンストップで提供。
NVIDIAが提供する一元管理されたプラットフォームで幅広いソフトウェア、管理ツール、ワークロードなどを提供。 迅速に環境構築・管理を行うことが可能です。
クラスタシステムのための業界標準であるジョブスケジューラーです。
リソースの割り当て・ジョブの制御・モニタリング機能を提供します。
サービス |
GMO GPUクラウド
|
A社 | B社 |
---|---|---|---|
特徴 | NVIDIA H200×8枚搭載 | NVIDIA H100×8枚搭載 | NVIDIA H100×8枚搭載 |
プラン | H200スタンドアロン | H100×8 | H100×8 |
GPU | NVIDIA H200(SXM)×8枚 | NVIDIA H100(SXM)×8枚 | NVIDIA H100(SXM)×8枚 |
GPUメモリ | 総計1,128GB | 総計640GB | 総計640GB |
GPUノード間通信 | 3,200Gbps | 3,200Gbps | 3,200Gbps |
vCPU | 224コア | 112コア | 192コア |
システムメモリ | 2TB | 2TB | 2TB |
ローカルストレージ | 15TB | 60TB | 30TB |
共用ストレージオプション | 最大100TiB | 最大32TiB | 最大64TiB |
インターネット回線 | 100Gbps(共用) | 最大10Gbps | 最大10Gbps |
データ通信料 | 無料 | 有料 | 有料 |
NVIDIA AI Enterprise | 〇 | - | - |
演算性能 (FP16 Tensorコア) | 15.8PFLOPS※ | 15.8PFLOPS※ | 15.8PFLOPS※ |
OS | Ubuntu 22.04LTS | Linux OS | Linux OS |
リージョン | 日本 | 米国 | 米国東部 |
※演算性能は疎性あり。
本サービスの圧倒的なパフォーマンスを実際に体感いただき、
十分にご理解いただいたうえで契約をご検討いただけるよう、
トライアルプランをご用意しました。
詳しくは、下記のお問い合わせボタンよりご連絡ください。