最終更新日: 2025年10月15日

サービス説明

LLM(大規模言語モデル)や生成AIモデルの学習に適した超高速GPU「NVIDIA H100 TensorコアGPU」、軽量なLLM(大規模言語モデル)や画像生成AIをはじめとした推論用途やビジネスへの組み込みに適したGPU「NVIDIA L4 Tensorコア GPU」を搭載した仮想サーバーサービスです。

提供プラン一覧

プラン GPU搭載メモリ vCPU メモリ 標準ブートストレージ 備考
NVIDIA H100
H100 Tensor コア GPU × 1枚
80GB 22vCPU 228GB 100GB(NVMe SSD) モデルの学習やファインチューニングに適したプラン。
公開APIにて200GB、500GBのブートストレージ作成、アタッチ可能
※本プランのご利用には事前申請が必要です。
NVIDIA L4
L4 Tensor コア GPU × 1枚
24GB 20vCPU 128GB 100GB(NVMe SSD) 推論用途に適したプラン。
公開APIにて200GB、500GBのブートストレージ作成、アタッチ可能。
※本プランのご利用には事前申請が必要です。
4vCPU 16GB 100GB(NVMe SSD) 推論用途に適したプラン。
公開APIにて200GB、500GBのブートストレージ作成、アタッチ可能。
HA(High Availability)機能を標準搭載。

仕様

演算性能比較

項目 NVIDIA H100 NVIDIA L4
アーキテクチャ Hopper Ada Lovelace
CUDA®コア数 14,592コア 7,424コア
ピーク単精度演算性能 [FP32] 51 TFLOPS 30.3 TFLOPS
ピークTensor演算性能 [FP16] 1513 TFLOPS※ 242 TFLOPS※

※スパース性あり。仕様はスパース性なしで半減します。

その他

項目 仕様
root権限
データセンター 日本
インターネット帯域 1Gbps
プライベートネットワーク 1Gbps
データ転送量 無料
追加ブロックストレージ 200GB / 500GB / 1TB / 5TB / 10TB
オブジェクトストレージ 100GB毎
イメージ保存
自動バックアップ
セキュリティグループ

※1TB以上の追加ブロックストレージは、イメージ保存、自動バックアップのご利用が不可となります。

重要

GPUサーバーの一部プランのご利用には事前申請が必要です。

リンク URL
ConoHa GPUサーバー公式ページ https://vps.conoha.jp/gpu/
NVIDIA H100 Tensor コア GPU https://www.nvidia.com/ja-jp/data-center/h100/
NVIDIA L4 Tensor コア GPU https://www.nvidia.com/ja-jp/data-center/l4/