最終更新日: 2025年10月15日
サービス説明
LLM(大規模言語モデル)や生成AIモデルの学習に適した超高速GPU「NVIDIA H100 TensorコアGPU」、軽量なLLM(大規模言語モデル)や画像生成AIをはじめとした推論用途やビジネスへの組み込みに適したGPU「NVIDIA L4 Tensorコア GPU」を搭載した仮想サーバーサービスです。
提供プラン一覧
プラン | GPU搭載メモリ | vCPU | メモリ | 標準ブートストレージ | 備考 |
---|---|---|---|---|---|
NVIDIA H100 H100 Tensor コア GPU × 1枚 |
80GB | 22vCPU | 228GB | 100GB(NVMe SSD) | モデルの学習やファインチューニングに適したプラン。 公開APIにて200GB、500GBのブートストレージ作成、アタッチ可能 ※本プランのご利用には事前申請が必要です。 |
NVIDIA L4 L4 Tensor コア GPU × 1枚 |
24GB | 20vCPU | 128GB | 100GB(NVMe SSD) | 推論用途に適したプラン。 公開APIにて200GB、500GBのブートストレージ作成、アタッチ可能。 ※本プランのご利用には事前申請が必要です。 |
4vCPU | 16GB | 100GB(NVMe SSD) | 推論用途に適したプラン。 公開APIにて200GB、500GBのブートストレージ作成、アタッチ可能。 HA(High Availability)機能を標準搭載。 |
仕様
演算性能比較
項目 | NVIDIA H100 | NVIDIA L4 |
---|---|---|
アーキテクチャ | Hopper | Ada Lovelace |
CUDA®コア数 | 14,592コア | 7,424コア |
ピーク単精度演算性能 [FP32] | 51 TFLOPS | 30.3 TFLOPS |
ピークTensor演算性能 [FP16] | 1513 TFLOPS※ | 242 TFLOPS※ |
※スパース性あり。仕様はスパース性なしで半減します。
その他
項目 | 仕様 |
---|---|
root権限 | ○ |
データセンター | 日本 |
インターネット帯域 | 1Gbps |
プライベートネットワーク | 1Gbps |
データ転送量 | 無料 |
追加ブロックストレージ | 200GB / 500GB / 1TB / 5TB / 10TB |
オブジェクトストレージ | 100GB毎 |
イメージ保存 | ○ |
自動バックアップ | ○ |
セキュリティグループ | ○ |
※1TB以上の追加ブロックストレージは、イメージ保存、自動バックアップのご利用が不可となります。
重要
GPUサーバーの一部プランのご利用には事前申請が必要です。
外部リンク
リンク | URL |
---|---|
ConoHa GPUサーバー公式ページ | https://vps.conoha.jp/gpu/ |
NVIDIA H100 Tensor コア GPU | https://www.nvidia.com/ja-jp/data-center/h100/ |
NVIDIA L4 Tensor コア GPU | https://www.nvidia.com/ja-jp/data-center/l4/ |