Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
Calabaza amarga
yolo3-pytorch
提交
3b0dc4da
Y
yolo3-pytorch
项目概览
Calabaza amarga
/
yolo3-pytorch
与 Fork 源项目一致
从无法访问的项目Fork
通知
5
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
Y
yolo3-pytorch
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
未验证
提交
3b0dc4da
编写于
7月 29, 2020
作者:
B
Bubbliiiing
提交者:
GitHub
7月 29, 2020
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update README.md
上级
308ac92c
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
49 addition
and
7 deletion
+49
-7
README.md
README.md
+49
-7
未找到文件。
README.md
浏览文件 @
3b0dc4da
...
...
@@ -4,8 +4,9 @@
### 目录
1.
[
所需环境 Environment
](
#所需环境
)
2.
[
文件下载 Download
](
#文件下载
)
3.
[
训练步骤 How2train
](
#训练步骤
)
4.
[
参考资料 Reference
](
#Reference
)
3.
[
预测步骤 How2predict
](
#预测步骤
)
4.
[
训练步骤 How2train
](
#训练步骤
)
5.
[
参考资料 Reference
](
#Reference
)
### 所需环境
torch == 1.2.0
...
...
@@ -15,18 +16,59 @@ torch == 1.2.0
链接: https://pan.baidu.com/s/1ncREw6Na9ycZptdxiVMApw
提取码: appk
### 预测步骤
#### 1、使用预训练权重
a、下载完库后解压,在百度网盘下载yolo_weights.pth,放入model_data,运行predict.py,输入
```
python
img
/
street
.
jpg
```
可完成预测。
b、利用video.py可进行摄像头检测。
#### 2、使用自己训练的权重
a、按照训练步骤训练。
b、在yolo.py文件里面,在如下部分修改model_path和classes_path使其对应训练好的文件;
**model_path对应logs文件夹下面的权值文件,classes_path是model_path对应分的类**
。
```
python
_defaults
=
{
"model_path"
:
'model_data/yolo_weights.pth'
,
"anchors_path"
:
'model_data/yolo_anchors.txt'
,
"classes_path"
:
'model_data/coco_classes.txt,
"score" : 0.5,
"iou" : 0.3,
# 显存比较小可以使用416x416
# 显存比较大可以使用608x608
"model_image_size" : (416, 416)
}
```
c、运行predict.py,输入
```
python
img
/
street
.
jpg
```
可完成预测。
d、利用video.py可进行摄像头检测。
### 训练步骤
1、本文使用VOC格式进行训练。
2、训练前将标签文件放在VOCdevkit文件夹下的VOC2007文件夹下的Annotation中。
3、训练前将图片文件放在VOCdevkit文件夹下的VOC2007文件夹下的JPEGImages中。
4、在训练前利用voc2
ssd
.py文件生成对应的txt。
5、再运行根目录下的voc_annotation.py,运行前需要将classes改成你自己的classes。
4、在训练前利用voc2
yolo4
.py文件生成对应的txt。
5、再运行根目录下的voc_annotation.py,运行前需要将classes改成你自己的classes。
**注意不要使用中文标签,文件夹中不要有空格!**
```
python
classes
=
[
"aeroplane"
,
"bicycle"
,
"bird"
,
"boat"
,
"bottle"
,
"bus"
,
"car"
,
"cat"
,
"chair"
,
"cow"
,
"diningtable"
,
"dog"
,
"horse"
,
"motorbike"
,
"person"
,
"pottedplant"
,
"sheep"
,
"sofa"
,
"train"
,
"tvmonitor"
]
```
6、就会生成对应的2007_train.txt,每一行对应其图片位置及其真实框的位置。
7、在训练前需要修改model_data里面的voc_classes.txt文件,需要将classes改成你自己的classes。
8、修改utils/config.py里面的NUM_CLASSES与需要训练的种类的个数相同。运行train.py即可开始训练。
6、此时会生成对应的2007_train.txt,每一行对应其
**图片位置**
及其
**真实框的位置**
。
7、
**在训练前需要务必在model_data下新建一个txt文档,文档中输入需要分的类,在train.py中将classes_path指向该文件**
,示例如下:
```
python
classes_path
=
'model_data/new_classes.txt'
```
model_data/new_classes.txt文件内容为:
```
python
cat
dog
...
```
8、
**修改utils/config.py里面的classes,使其为要检测的类的个数**
。
9、运行train.py即可开始训练。
### mAP目标检测精度计算更新
更新了get_gt_txt.py、get_dr_txt.py和get_map.py文件。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录