Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
zjs7788945
dpcas
提交
8b8ecc89
dpcas
项目概览
zjs7788945
/
dpcas
与 Fork 源项目一致
Fork自
DataBall / dpcas
通知
1
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
dpcas
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
8b8ecc89
编写于
4月 22, 2021
作者:
DataBall
🚴🏻
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
update
上级
a412396d
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
67 addition
and
50 deletion
+67
-50
README.md
README.md
+3
-50
lib/hand_lib/doc/README.md
lib/hand_lib/doc/README.md
+64
-0
未找到文件。
README.md
浏览文件 @
8b8ecc89
...
...
@@ -14,17 +14,10 @@
![
dpcas_framework
](
https://codechina.csdn.net/EricLee/dpcas/-/raw/master/xxx_lib.png
)
### Application(应用 pipeline)
*
具体应用流程,则是基于项目业务设计的pipeline的具体实现,以业务流为指导,去调用应用支持库(xxx_lib)和 算法组件(components)。
## 项目
示
例介绍
## 项目
案
例介绍
### 项目1:手势交互项目(local 本地版本)
*
开发语言:100% python代码。
*
场景:目前demo开发的使用场景为桌面使用,相机视角为使用者上方往下照射。
*
采用python多进程实现。
*
1、实现单手点击,即大拇指和食指捏合时认为点击。
*
2、实现手的轨迹跟踪,可支持动态手势二次开发(目前计划后面也会开发相应的动态手势功能)。
*
3、实现双手配合点击选中目标区域。
*
4、基于第2点的功能,支持识别架构的拓展(目前没有加任何物体识别模型,后面会加上)。
*
5、实现基于IOU的手部跟踪。
*
6、支持语音拓展功能。
*
[
手势交互项目-具体介绍
](
https://codechina.csdn.net/EricLee/dpcas/-/tree/master/lib/hand_lib/doc/README.md
)
## 项目配置
### 1、软件
...
...
@@ -32,47 +25,7 @@
*
PyTorch >= 1.5.1
*
opencv-python
*
playsound
### 2、硬件
*
普通USB彩色(RGB)网络摄像头
## 相关项目
### 1、手部检测项目(yolo_v3)
*
项目地址:https://codechina.csdn.net/EricLee/yolo_v3
*
[
预训练模型下载地址(百度网盘 Password: 7mk0 )
](
https://pan.baidu.com/s/1hqzvz0MeFX0EdpWXUV6aFg
)
*
另外同学们可以根据自己需求替换检测模型。
### 2、手21关键点回归项目(handpose_x)
*
项目地址:https://codechina.csdn.net/EricLee/handpose_x
*
[
预训练模型下载地址(百度网盘 Password: 99f3 )
](
https://pan.baidu.com/s/1Ur6Ikp31XGEuA3hQjYzwIw
)
### 3、识别分类项目(classification)
*
项目地址:https://codechina.csdn.net/EricLee/classification
*
[
imagenet 1000 类识别,预训练模型下载地址(百度网盘 Password: ct31 )
](
https://pan.baidu.com/s/1uZsAHF6wK-LOR8j6TFABmQ
)
*
另外可以根据自己的需求替换识别模型及对应的语音素材。
## 项目使用方法
### 项目1:手势交互项目(local 本地版本)
### 1、下载手部检测模型和21关键点回归模型。
### 2、确定摄像头连接成功。
### 3、打开配置文件 lib/hand_lib/cfg/[handpose.cfg](https://codechina.csdn.net/EricLee/dpcas/-/blob/master/lib/hand_lib/cfg/handpose.cfg) 进行相关参数配置,具体配置参数如下,请仔细阅读(一般只需要配置模型路径及模型结构)
```
detect_model_path=./latest_416.pt #手部检测模型地址
detect_model_arch=yolo_v3 #检测模型类型 ,yolo or yolo-tiny
yolo_anchor_scale=1.0 # yolo anchor 比例,默认为 1
detect_conf_thres=0.5 # 检测模型阈值
detect_nms_thres=0.45 # 检测模型 nms 阈值
handpose_x_model_path=./ReXNetV1-size-256-wingloss102-0.1063.pth # 21点手回归模型地址
handpose_x_model_arch=rexnetv1 # 回归模型结构
classify_model_path=./imagenet_size-256_20210409.pth # 分类识别模型地址
classify_model_arch=resnet_50 # 分类识别模型结构
classify_model_classify_num=1000 # 分类类别数
camera_id = 0 # 相机 ID ,一般默认为0,如果不是请自行确认
vis_gesture_lines = True # True: 点击时的轨迹可视化, False:点击时的轨迹不可视化
charge_cycle_step = 32 # 点击稳定状态计数器,点击稳定充电环。
```
### 4、根目录下运行命令: python main.py
## 联系方式 (Contact)
*
E-mails: 305141918@qq.com
lib/hand_lib/doc/README.md
0 → 100644
浏览文件 @
8b8ecc89
# 项目1:手势交互项目(local 本地版本)
## 项目案例介绍
*
开发语言:100% python代码。
*
场景:目前demo开发的使用场景为桌面使用,相机视角为使用者上方往下照射。
*
采用python多进程实现。
*
1、实现单手点击,即大拇指和食指捏合时认为点击。
*
2、实现手的轨迹跟踪,可支持动态手势二次开发(目前计划后面也会开发相应的动态手势功能)。
*
3、实现双手配合点击选中目标区域。
*
4、基于第2点的功能,支持识别架构的拓展(目前没有加任何物体识别模型,后面会加上)。
*
5、实现基于IOU的手部跟踪。
*
6、支持语音拓展功能。
## 项目配置
### 1、软件
*
Python 3.7
*
PyTorch >= 1.5.1
*
opencv-python
*
playsound
### 2、硬件
*
普通USB彩色(RGB)网络摄像头
## 相关项目
### 1、手部检测项目(yolo_v3)
*
项目地址:https://codechina.csdn.net/EricLee/yolo_v3
*
[
预训练模型下载地址(百度网盘 Password: 7mk0 )
](
https://pan.baidu.com/s/1hqzvz0MeFX0EdpWXUV6aFg
)
*
另外同学们可以根据自己需求替换检测模型。
### 2、手21关键点回归项目(handpose_x)
*
项目地址:https://codechina.csdn.net/EricLee/handpose_x
*
[
预训练模型下载地址(百度网盘 Password: 99f3 )
](
https://pan.baidu.com/s/1Ur6Ikp31XGEuA3hQjYzwIw
)
### 3、识别分类项目(classification)
*
项目地址:https://codechina.csdn.net/EricLee/classification
*
[
imagenet 1000 类识别,预训练模型下载地址(百度网盘 Password: ct31 )
](
https://pan.baidu.com/s/1uZsAHF6wK-LOR8j6TFABmQ
)
*
另外可以根据自己的需求替换识别模型及对应的语音素材。
## 项目使用方法
### 项目1:手势交互项目(local 本地版本)
### 1、下载手部检测模型和21关键点回归模型。
### 2、确定摄像头连接成功。
### 3、打开配置文件 lib/hand_lib/cfg/[handpose.cfg](https://codechina.csdn.net/EricLee/dpcas/-/blob/master/lib/hand_lib/cfg/handpose.cfg) 进行相关参数配置,具体配置参数如下,请仔细阅读(一般只需要配置模型路径及模型结构)
```
detect_model_path=./latest_416.pt #手部检测模型地址
detect_model_arch=yolo_v3 #检测模型类型 ,yolo or yolo-tiny
yolo_anchor_scale=1.0 # yolo anchor 比例,默认为 1
detect_conf_thres=0.5 # 检测模型阈值
detect_nms_thres=0.45 # 检测模型 nms 阈值
handpose_x_model_path=./ReXNetV1-size-256-wingloss102-0.1063.pth # 21点手回归模型地址
handpose_x_model_arch=rexnetv1 # 回归模型结构
classify_model_path=./imagenet_size-256_20210409.pth # 分类识别模型地址
classify_model_arch=resnet_50 # 分类识别模型结构
classify_model_classify_num=1000 # 分类类别数
camera_id = 0 # 相机 ID ,一般默认为0,如果不是请自行确认
vis_gesture_lines = True # True: 点击时的轨迹可视化, False:点击时的轨迹不可视化
charge_cycle_step = 32 # 点击稳定状态计数器,点击稳定充电环。
```
### 4、根目录下运行命令: python main.py
## 联系方式 (Contact)
*
E-mails: 305141918@qq.com
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录