diff --git a/README.md b/README.md index de0ae2f7dbf6d76acbcc5e7c0b6d4223f1a66ad1..0fe098d22d247684af8f4125ccdcb7a7d6b373dc 100644 --- a/README.md +++ b/README.md @@ -11,24 +11,24 @@ * https://github.com/EricLee2021-72324/onnx_run * 添加 onnx 模块,预训练模型中有转好的resnet50-onnx模型,注意:目前不支持rexnetv1 -### 3)"dpcas" 项目地址:https://codechina.csdn.net/EricLee/dpcas +### 3)"dpcas" 项目地址:https://gitcode.net/EricLee/dpcas ## 项目介绍 -注意:该项目不包括手部检测部分,手部检测项目地址:https://codechina.csdn.net/EricLee/yolo_v3 +注意:该项目不包括手部检测部分,手部检测项目地址:https://gitcode.net/EricLee/yolo_v3 该项目是对手的21个关键点进行检测,示例如下 : * 图片示例: -![image](https://codechina.csdn.net/EricLee/handpose_x/-/raw/master/samples/test.png) +![image](https://gitcode.net/EricLee/handpose_x/-/raw/master/samples/test.png) * 视频示例: -![video](https://codechina.csdn.net/EricLee/handpose_x/-/raw/master/samples/sample.gif) +![video](https://gitcode.net/EricLee/handpose_x/-/raw/master/samples/sample.gif) ## Demo小样 * 示例1 - 按键操作 因为考虑到目前没有三维姿态不好识别按键按下三维动作,所以目前采用二维方式。 该示例的原理:通过简单的IOU跟踪,对二维目标如手的边界框或是特定手指的较长时间位置稳定性判断确定触发按键动作的时刻,用特定指尖的二维坐标确定触发位置。 (注意:目前示例并未添加到工程,后期整理后会进行发布,只是一个样例,同时希望同学们自己尝试写自己基于该项目的小应用。) -![keyboard](https://codechina.csdn.net/EricLee/handpose_x/-/raw/master/samples/keyboard.gif) +![keyboard](https://gitcode.net/EricLee/handpose_x/-/raw/master/samples/keyboard.gif) * 示例2 - 手势交互:指定区域物体识别 该示例的出发点是希望通过手势指定用户想要识别的物体。那么就要选中物体的准确边界框才能达到理想识别效果。如果待识别目标边界框太大会引入背景干扰,太小又会时目标特征不完全。所以希望通过手势指定较准确的目标边界框。因为边界框涉及左上、右下两个二维坐标,所以通过两只手的特定指尖来确定。且触发逻辑与示例1相同。 @@ -36,14 +36,14 @@ (注意:目前示例并未添加到工程,后期整理后会进行发布,只是一个样例,同时希望同学们自己尝试写自己基于该项目的小应用。) 该示例依赖于另外一个物体识别分类项目。 -![keyboard](https://codechina.csdn.net/EricLee/handpose_x/-/raw/master/samples/recognize_obj0.gif) +![keyboard](https://gitcode.net/EricLee/handpose_x/-/raw/master/samples/recognize_obj0.gif) * 以下是对书上狗的图片进行分类识别的样例,同学们可以根据自己对应的物体识别分类需求替换对应的分类识别模型即可。 -![recoobj_book](https://codechina.csdn.net/EricLee/handpose_x/-/raw/master/samples/recobj_book.gif) +![recoobj_book](https://gitcode.net/EricLee/handpose_x/-/raw/master/samples/recobj_book.gif) * [该Demo完整视频](https://www.bilibili.com/video/BV1nb4y1R7Zh/) -该物体识别分类项目的地址为: https://codechina.csdn.net/EricLee/classification +该物体识别分类项目的地址为: https://gitcode.net/EricLee/classification * 示例3 - 静态手势 通过手关键点的二维角度约束关系定义静态手势。 @@ -51,10 +51,10 @@ 目前该示例由于静态手势数据集的限制,目前用手骨骼的二维角度约束定义静态手势,原理如下图,计算向量AC和DE的角度,它们之间的角度大于某一个角度阈值(经验值)定义为弯曲,小于摸一个阈值(经验值)为伸直。 注:这种静态手势识别的方法具有局限性,有条件还是通过模型训练的方法进行静态手势识别。 -![gs](https://codechina.csdn.net/EricLee/handpose_x/-/raw/master/samples/gest.jpg) +![gs](https://gitcode.net/EricLee/handpose_x/-/raw/master/samples/gest.jpg) 视频示例如下图: -![gesture](https://codechina.csdn.net/EricLee/handpose_x/-/raw/master/samples/gesture.gif) +![gesture](https://gitcode.net/EricLee/handpose_x/-/raw/master/samples/gesture.gif) * 示例4 - 静态手势交互(识别) 通过手关键点的二维角度约束关系定义静态手势。 @@ -63,7 +63,7 @@ 原理:通过二维约束获得静态手势,该示例是通过 食指伸直(one) 和 握拳(fist)分别代表范围选择和清空选择区域。 建议最好还是通过分类模型做静态手势识别鲁棒和准确高,目前局限于静态手势训练集的问题用二维约束关系定义静态手势替代。 -![ocrreco](https://codechina.csdn.net/EricLee/handpose_x/-/raw/master/samples/ocrreco.gif) +![ocrreco](https://gitcode.net/EricLee/handpose_x/-/raw/master/samples/ocrreco.gif) * [该Demo完整视频](https://www.bilibili.com/video/BV1Bb4y1R7sd/) ## 项目配置 @@ -82,11 +82,11 @@ 感谢《Large-scale Multiview 3D Hand Pose Dataset》数据集贡献者:Francisco Gomez-Donoso, Sergio Orts-Escolano, and Miguel Cazorla. "Large-scale Multiview 3D Hand Pose Dataset". ArXiv e-prints 1707.03742, July 2017. * 标注文件示例: -![label](https://codechina.csdn.net/EricLee/handpose_x/-/raw/master/samples/label.png) +![label](https://gitcode.net/EricLee/handpose_x/-/raw/master/samples/label.png) * [该项目用到的制作数据集下载地址(百度网盘 Password: ara8 )](https://pan.baidu.com/s/1KY7lAFXBTfrFHlApxTY8NA) -* 如果使用该数据集并发布相关项目或网络资源文章等,请讲述其数据集的出处 "https://codechina.csdn.net/EricLee/handpose_x" +* 如果使用该数据集并发布相关项目或网络资源文章等,请讲述其数据集的出处 "https://gitcode.net/EricLee/handpose_x" * 数据集读取脚本为:read_datasets.py,并需要相应更改脚本中的数据集路径。 ### 2)handpose_datasets_v2