NVIDIA® A100
2024年10月販売終了
現代で最も重要な作業を高速化 すべてのワークロードに対応する最高の汎用性
NVIDIA® A100 Tensor Core GPUsは、あらゆるスケールで高速化を実現し、AIやデータ分析及びHPCの困難な計算に挑むことができます。第3世代Tensor CoreとTensor Float(TF32)を利用することで、コードを変更することなく前世代と比較して約最大20倍のパフォーマンスが得られます。
また、Automatic Mixed Precision(AMP)とFP16の活用でさらに2倍の高速化が可能になります。単純な性能の向上だけでなく、A100 GPUとMIG(Multi-Instance GPU)の組み合わせにより、GPU対応インフラストラクチャを最大限に活用できます。A100 GPUを7個のインスタンスに分割し、それぞれに高帯域幅のメモリやキャッシュ、コンピューティングコアを割り当てたうえで完全に分離することができます。
すべてのジョブについてサービス品質(QoS)が保証された適切なサイズのGPUを提供することで多様なワークロードに対して柔軟に対応できます。
製品情報インデックス
- 製品について
- 製品サポート・ダウンロードなど
主な特長
仕様
型番 | NVIDIA A100 40GB | NVIDIA A100 80GB |
---|---|---|
Peak FP64 | 9.7TF | |
Peak FP64 Tensor Core | 19.5TF | |
Peak FP32 | 19.5TF | |
Peak TF32 Tensor Core | 156TF | 312TF *1 | |
Peak BFLOAT16 Tensor Core | 312TF | 624TF *1 | |
Peak FP16 Tensor Core | 312TF | 624TF *1 | |
Peak INT8 Tensor Core | 624TOPS | 1248TOPS *1 | |
Peak INT4 Tensor Core | 1248TOPS | 2496 TOPS *1 | |
最大消費電力 | 250W | 300W |
冷却方式 | Passive | |
ECC | ○ | |
Compute APIs | CUDA、DirectCompute、OpenCL、OpenACC | |
外形寸法(Length×Height) | 267×111(PCIe Full Height 2Slot幅) | |
RAM | 40GB | 80GB |
メモリ帯域幅 | 1,555GB/s | 1,935GB/s |
対応バス | PCIe | |
Inter Connect(相互接続) | NVIDIA NVLink 600GB/s *2 PCIe Gen4 64GB/s |
|
マルチインスタンス GPUs | 最大7MIGs @5GBの様々なインスタンスサイズ | 最大7MIGs @10GBの様々なインスタンスサイズ |
保証期間 | 3年 |
*1 スパース行列使用時
*2 HGX A100 サーバー ボード経由の SXM GPU、最大 2 GPU の NVLink ブリッジ経由の PCIe GPU
価格表
モデル
標準価格
NVIDIA A100 40G *1
販売終了
NVIDIA A100 80G
オープン
*1 2021年11月16日に販売終了となりました。
この製品の保証内容
この製品を利用した導入事例
この製品に付けられたタグ一覧
この製品と同じカテゴリーの製品
その他カテゴリーから探す
製品・ソリューションを探す
- 製品カテゴリーから探す
- 分野別ソリューションから探す
- 目的から探す