提交 8b1d9c79 编写于 作者: Eric.Lee2021's avatar Eric.Lee2021 🚴🏻

update

上级 304235b6
# YOLO V3
手部检测
## 项目介绍
注意:该项目使用yolo v3 进行手部检测。
示例如下 :
* 图片示例:
![image](https://codechina.csdn.net/EricLee/yolo_v3/-/raw/master/samples/sample.png)
* 视频示例:
![video](https://codechina.csdn.net/EricLee/yolo_v3/-/raw/master/samples/sample.gif)
## 项目配置
* 作者开发环境:
* Python 3.7
* PyTorch >= 1.5.1
## 数据集
该项目数据集采用 TV-Hand 和 COCO-Hand进行制作。
* [数据集下载地址(百度云 Password: ara8 )](https://pan.baidu.com/s/1KY7lAFXBTfrFHlApxTY8NA)
数据格式: size是全图分辨率, (x,y) 是目标物体中心对于全图的归一化坐标,w,h是目标物体边界框对于全图的归一化宽、高。
```
dw = 1./(size[0])
dh = 1./(size[1])
x = (box[0] + box[1])/2.0 - 1
y = (box[2] + box[3])/2.0 - 1
w = box[1] - box[0]
h = box[3] - box[2]
x = x*dw
w = w*dw
y = y*dh
h = h*dh
```
为了更好了解标注数据格式,可以通过运行 show_yolo_anno.py 脚本进行制作数据集的格式。注意配置脚本里的path和path_voc_names,path为标注数据集的相关文件路径,path_voc_names为数据集配置文件。
TV-Hand 和 COCO-Hand数据集,其官网地址 http://vision.cs.stonybrook.edu/~supreeth/
感谢数据集贡献者。
Paper:
Contextual Attention for Hand Detection in the Wild. S. Narasimhaswamy, Z. Wei, Y. Wang, J. Zhang, and M. Hoai, IEEE International Conference on Computer Vision, ICCV 2019.
## 预训练模型
* [预训练模型下载地址(百度云 Password: 99f3 )](https://pan.baidu.com/s/1Ur6Ikp31XGEuA3hQjYzwIw)
## 项目使用方法
### 模型训练
* 根目录下运行命令: python train.py
因为 它太大了无法显示 image diff 。你可以改为 查看blob
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册