diff --git a/README.md b/README.md index 0b34529b728eda79b7d8b28dc458a7ee30811018..7355db76f9b51fcb48577bbb51c3c13ee4b9fd58 100644 --- a/README.md +++ b/README.md @@ -30,12 +30,10 @@ src="docs/images/models/mobile_arm_top1.png" width="1000"> 上图展示了一些适合移动端应用的模型,在SD855上预测一张图像的CPU时间以及模型的存储大小。图中MV3_large_x1_0_ssld(M是MobileNet的简称),MV3_small_x1_0_ssld和MV1_ssld,是采用PaddleCLS提供的SSLD蒸馏方法训练的模型。MV3_large_x1_0_ssld_int8是进一步进行INT8量化的模型。不同模型的Flops和Params、以及更多的GPU预测时间正在持续更新中。 - TODO -- [ ] EfficientLite 论文指标复现和性能评估 -- [ ] GhostNet 论文指标复现和性能评估 -- [ ] RegNet 论文指标复现和性能评估 +- [ ] EfficientLite、GhostNet、RegNet论文指标复现和性能评估 ## 高阶使用 -除了提供丰富的分类网络结构和预训练模型,PaddleCLS也提供了一系列有助于图像分类任务效果和效率提升的算法或工具。 +除了提供丰富的分类网络结构和预训练模型,PaddleCLS也支持了一系列有助于图像分类任务效果和效率提升的算法或工具。 ### 模型蒸馏 模型蒸馏是指使用教师模型(teacher model)去指导学生模型(student model)学习特定任务,保证小模型在参数量不变的情况下,得到比较大的效果提升,甚至获得与大模型相似的精度指标。PaddleCLS提供了一种简单的半监督标签模型蒸馏方案(SSLD,Simple Semi-supervised Label Distillation),使用该方案大幅提升了ResNet50_vd、MobileNetV1和MobileNetV3在ImageNet数据集上分类效果。该蒸馏方案的框架图和蒸馏模型效果如下图所示,详细的蒸馏方法介绍以及使用正在持续更新中。 @@ -52,7 +50,7 @@ src="docs/images/distillation/distillation_perform.png" width="500"> ### 数据增广 -在图像分类任务中,图像数据的增广是一种常用的正则化方法,可以有效提升图像分类的效果,尤其对于数据量不足或者模型网络较深的场景。PaddleCLS提供了最新的8种数据增广算法的复现和在统一实验环境下效果评估,如下图所示。每种数据增广方法的详细介绍、对比的实验环境以及使用正在持续更新中。 +在图像分类任务中,图像数据的增广是一种常用的正则化方法,可以有效提升图像分类的效果,尤其对于数据量不足或者模型网络较深的场景。PaddleCLS支持了最新的8种数据增广算法的复现和在统一实验环境下效果评估,如下图所示。每种数据增广方法的详细介绍、对比的实验环境以及使用正在持续更新中。
### 图像分类的迁移学习 -在实际应用中,由于训练数据的匮乏,往往将ImageNet1K数据集训练的分类模型作为预训练模型,进行图像分类的迁移学习。为了进一步助力实际问题的解决,PaddleCLS计划提供百度自研的基于10万种类别,4千多万的有标签数据训练的预训练模型,同时给出不同的超参搜索方法。该部分内容正在持续更新中。 +在实际应用中,由于训练数据的匮乏,往往将ImageNet1K数据集训练的分类模型作为预训练模型,进行图像分类的迁移学习。为了进一步助力实际问题的解决,PaddleCLS计划开源百度自研的基于10万种类别,4千多万的有标签数据训练的预训练模型,同时给出不同的超参搜索方法。该部分内容正在持续更新中。 ### 通用目标检测