diff --git a/deploy/pphuman/README.md b/deploy/pphuman/README.md
index da5e0748f271e3eabf795aada94bcf06f75c72ae..e9a9e466ecbf452de868863276a6dba76c2967f4 100644
--- a/deploy/pphuman/README.md
+++ b/deploy/pphuman/README.md
@@ -130,7 +130,7 @@ PP-Human整体方案如下图所示
### 1. 目标检测
- 采用PP-YOLOE L 作为目标检测模型
-- 详细文档参考[PP-YOLOE](configs/ppyoloe/)
+- 详细文档参考[PP-YOLOE](../../configs/ppyoloe/)
### 2. 多目标跟踪
- 采用SDE方案完成多目标跟踪
@@ -142,15 +142,15 @@ PP-Human整体方案如下图所示
- 使用PP-YOLOE + Bytetrack得到单镜头多目标跟踪轨迹
- 使用ReID(centroid网络)对每一帧的检测结果提取特征
- 多镜头轨迹特征进行匹配,得到跨镜头跟踪结果
-- 详细文档参考[跨镜跟踪](doc/mtmct.md)
+- 详细文档参考[跨镜跟踪](docs/mtmct.md)
### 4. 属性识别
- 使用PP-YOLOE + Bytetrack跟踪人体
- 使用StrongBaseline(多分类模型)完成识别属性,主要属性包括年龄、性别、帽子、眼睛、上衣下衣款式、背包等
-- 详细文档参考[属性识别](doc/attribute.md)
+- 详细文档参考[属性识别](docs/attribute.md)
### 5. 行为识别:
- 使用PP-YOLOE + Bytetrack跟踪人体
- 使用HRNet进行关键点检测得到人体17个骨骼点
- 结合100帧内同一个人骨骼点的变化,通过ST-GCN判断100帧内发生的动作是否为摔倒
-- 详细文档参考[行为识别](doc/action.md)
+- 详细文档参考[行为识别](docs/action.md)
diff --git a/deploy/pphuman/docs/attribute.md b/deploy/pphuman/docs/attribute.md
new file mode 100644
index 0000000000000000000000000000000000000000..860007f9da002190ccebcef98e8a659cd6884724
--- /dev/null
+++ b/deploy/pphuman/docs/attribute.md
@@ -0,0 +1,84 @@
+# PP-Human属性识别模块
+
+行人属性识别在智慧社区,工业巡检,交通监控等方向都具有广泛应用,PP-Human中集成了属性识别模块,属性包含性别、年龄、帽子、眼镜、上衣下衣款式等。我们提供了预训练模型,用户可以直接下载使用。
+
+| 任务 | 算法 | 精度 | 预测速度(ms) |下载链接 |
+|:---------------------|:---------:|:------:|:------:| :---------------------------------------------------------------------------------: |
+| 行人检测/跟踪 | PP-YOLOE | mAP: 56.3
MOTA: 72.0 | 检测: 28ms
跟踪:33.1ms | [下载链接](https://bj.bcebos.com/v1/paddledet/models/pipeline/mot_ppyoloe_l_36e_pipeline.zip) |
+| 行人属性分析 | StrongBaseline | ma: 94.86 | 单人 2ms | [下载链接](https://bj.bcebos.com/v1/paddledet/models/pipeline/strongbaseline_r50_30e_pa100k.tar) |
+
+1. 检测/跟踪模型精度为MOT17,CrowdHuman,HIEVE和部分业务数据融合训练测试得到
+2. 行人属性分析精度为PA100k,RAPv2,PETA和部分业务数据融合训练测试得到
+3. 预测速度为T4 机器上使用TensorRT FP16时的速度
+
+## 使用方法
+
+1. 从上表链接中下载模型并解压到```./output_inference```路径下
+2. 图片输入时,启动命令如下
+```python
+python deploy/pphuman/pipeline.py --config deploy/pphuman/config/infer_cfg.yml \
+ --image_file=test_image.jpg \
+ --device=gpu \
+ --enable_attr=True
+```
+3. 视频输入时,启动命令如下
+```python
+python deploy/pphuman/pipeline.py --config deploy/pphuman/config/infer_cfg.yml \
+ --video_file=test_video.mp4 \
+ --device=gpu \
+ --enable_attr=True
+```
+4. 若修改模型路径,有以下两种方式:
+
+ - ```./deploy/pphuman/config/infer_cfg.yml```下可以配置不同模型路径,属性识别模型修改ATTR字段下配置
+ - 命令行中增加`--model_dir`修改模型路径:
+```python
+python deploy/pphuman/pipeline.py --config deploy/pphuman/config/infer_cfg.yml \
+ --video_file=test_video.mp4 \
+ --device=gpu \
+ --enable_attr=True \
+ --model_dir det=ppyoloe/
+```
+
+测试效果如下:
+
+