提交 053e1f61 编写于 作者: weixin_46524038's avatar weixin_46524038 提交者: cuicheng01

modify

上级 8da7ec37
......@@ -53,7 +53,7 @@ DLA(Deep Layer Aggregation)。 视觉识别需要丰富的表示形式,其范
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ |
| DLA102 | 224 | 4.15 | 6.81 | 11.60 |
| DLA102x2 | 224 | 6.40 | 16.08 | 33.51 |
| DLA102x | 224 | 4.68 | 16.44 | 20.98 |
......
......@@ -63,7 +63,7 @@ DenseNet 是 2017 年 CVPR best paper 提出的一种新的网络结构,该网
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
|-------------|-----------|-------------------|-------------------|-------------------|-------------------|
|-------------|-----------|-------------------|-------------------|-------------------|
| DenseNet121 | 224 | 3.22 | 6.25 | 8.20 |
| DenseNet161 | 224 | 6.83 | 13.39 | 18.34 |
| DenseNet169 | 224 | 4.81 | 9.53 | 11.94 |
......
......@@ -65,7 +65,7 @@ HRNet 是 2019 年由微软亚洲研究院提出的一种全新的神经网络
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
|-------------|-----------|-------------------|-------------------|-------------------|-------------------|
|-------------|-----------|-------------------|-------------------|-------------------|
| HRNet_W18_C | 224 | 6.33 | 8.12 | 10.91 |
| HRNet_W18_C_ssld | 224 | 6.33 | 8.12 | 10.91 |
| HRNet_W30_C | 224 | 8.34 | 10.65 | 13.95 |
......
......@@ -57,7 +57,7 @@ NextViT 是一种新的视觉 Transformer 网络,可以用作计算机视觉
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ |
| NextViT_small_224 | 224 | 7.76 | 10.86 | 14.20 |
| NextViT_base_224 | 224 | 12.02 | 16.21 | 20.63 |
| NextViT_large_224 | 224 | 16.51 | 21.91 | 27.25 |
......
......@@ -49,7 +49,7 @@ PVTV2 是 VisionTransformer 系列模型,该模型基于 PVT(Pyramid Vision
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ |
| PVT_V2_B0 | 224 | 2.87 | 3.46 | - |
| PVT_V2_B1 | 224 | 3.32 | 5.48 | - |
| PVT_V2_B2 | 224 | 5.94 | 9.98 | - |
......
......@@ -44,10 +44,10 @@ PeleeNet 系列模型是基于 DenseNet 网络所提出的稠密链接的思想
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ |
| PeleeNet | 224 | 1.26 | 2.10 | 2.47 |
**备注:** 精度类型为 FP32,推理过程使用 TensorRT。
**备注:** 精度类型为 FP32,推理过程使用 TensorRT-8.0.3.4
<a name="2"></a>
......
......@@ -56,7 +56,7 @@ RepVGG(Making VGG-style ConvNets Great Again)系列模型是由清华大学(丁
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ |
| RepVGG_A0 | 224 | 1.38 | 1.85 | 2.81 |
| RepVGG_A1 | 224 | 1.68 | 2.33 | 3.70 |
| RepVGG_A2 | 224 | 2.31 | 4.46 | 6.53 |
......
......@@ -47,7 +47,7 @@ UniFormer 是一种新的视觉 Transformer 网络,可以用作计算机视觉
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ |
| UniFormer_small | 224 | 3.68 | 5.93 | 9.64 |
| UniFormer_small_plus | 224 | 4.12 | 7.03 | 11.59 |
| UniFormer_small_plus_dim64 | 224 | 3.91 | 6.56 | 10.69 |
......
......@@ -46,7 +46,7 @@ VAN(Visual Attention Network)系列模型是在 2022 年提出的 CNN 架构
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
|-------------|-----------|-------------------|-------------------|-------------------|-------------------|
|-------------|-----------|-------------------|-------------------|-------------------|
| VAN-B0 | 224 | 9.58 | 10.21 | 10.78 |
| VAN-B1 | 224 | 8.24 | 8.74 | 9.85 |
| VAN-B2 | 224 | 17.09 | 18.48 | 19.32 |
......
......@@ -51,7 +51,7 @@ ViT(Vision Transformer)系列模型是 Google 在 2020 年提出的,该模
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| -------------------------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| -------------------------- | --------- | ----------------- | ------------------------------ | ------------------------------ |
| ViT_small_<br/>patch16_224 | 224 | 3.81 | 8.65 | 15.80 |
| ViT_base_<br/>patch16_224 | 224 | 5.93 | 15.46 | 27.14 |
| ViT_base_<br/>patch16_384 | 384 | 13.78 | 45.59 | 88.65 |
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册