推理加速型Pi1
Pi1型弹性 云服务器 采用专为AI推理打造的NVIDIA Tesla P4 GPU,能够提供超强的实时推理能力。Pi1型弹性 云服务 器借助P4的INT8运算器,能够将推理延时降低15倍。配备硬件解码引擎,能够同时支持35路高清视频流的实时转码与推理。
规格名称 |
vCPU |
内存(GB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力(万PPS) |
网卡多队列数 |
GPU |
显存(GB) |
本地盘 |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
pi1.2xlarge.4 |
8 |
32 |
5/1.6 |
40 |
2 |
1×P4 |
1×8GB |
- |
KVM |
pi1.4xlarge.4 |
16 |
64 |
8/3.2 |
70 |
4 |
2×P4 |
2×8GB |
- |
KVM |
pi1.8xlarge.4 |
32 |
128 |
10/6.5 |
140 |
8 |
4×P4 |
4×8GB |
- |
KVM |
Pi1型弹性云服务器功能如下:
-
支持NVIDIA Tesla P4 GPU卡,单实例最大支持4张P4 GPU卡
-
提供GPU硬件直通能力
-
单GPU单精度计算能力最高5.5 TFLOPS
-
单GPU INT8计算能力最高22 TOPS
-
单GPU提供8GB ECC显存,带宽192GB/s
-
GPU内置硬件视频编解码引擎,能够同时进行35路高清视频解码与实时推理
常规支持软件列表
Pi1实例主要用于GPU推理计算场景,例如图片识别、 语音识别 等场景。
常用的软件支持列表如下:
-
Tensorflow、Caffe、PyTorch、MXNet等深度学习框架
推理加速型Pi2
Pi2型弹性云服务器采用专为AI推理打造的NVIDIA Tesla T4 GPU,能够提供超强的实时推理能力。Pi2型弹性云服务器借助T4的INT8运算器,能够提供最大130TOPS的INT8算力。Pi2也可以支持轻量级训练场景。
规格名称 |
vCPU |
内存(GB) |
最大带宽/基准带宽(Gbps) |
最大收发包能力(万PPS) |
网卡多队列数 |
GPU |
显存(GB) |
本地盘 |
虚拟化类型 |
---|---|---|---|---|---|---|---|---|---|
pi2.2xlarge.4 |
8 |
32 |
10/4 |
50 |
4 |
1×T4 |
1×16GB |
- |
KVM |
pi2.4xlarge.4 |
16 |
64 |
15/8 |
100 |
8 |
2×T4 |
2×16GB |
- |
KVM |
pi2.8xlarge.4 |
32 |
128 |
25/15 |
200 |
16 |
4×T4 |
4×16GB |
- |
KVM |
Pi2型弹性云服务器功能如下:
-
支持NVIDIA Tesla T4 GPU卡,单实例最大支持4张T4 GPU卡
-
提供GPU硬件直通能力
-
单GPU单精度计算能力最高8.1 TFLOPS
-
单GPU INT8计算能力最高130 TOPS
-
单GPU提供16GB GDDR6显存,带宽300GB/s
-
内置1个NVENC和2个NVDEC
常规支持软件列表
Pi2实例主要用于GPU推理计算场景,例如图片识别、语音识别等场景。也可以支持轻量级训练场景。
常用的软件支持列表如下:
-
Tensorflow、Caffe、PyTorch、MXNet等深度学习框架。