Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleSeg
提交
97a448a5
P
PaddleSeg
项目概览
PaddlePaddle
/
PaddleSeg
通知
285
Star
8
Fork
1
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
53
列表
看板
标记
里程碑
合并请求
3
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleSeg
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
53
Issue
53
列表
看板
标记
里程碑
合并请求
3
合并请求
3
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
97a448a5
编写于
5月 12, 2020
作者:
Z
Zeyu Chen
提交者:
GitHub
5月 12, 2020
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update README.md
上级
9cac21e4
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
3 addition
and
4 deletion
+3
-4
contrib/HumanSeg/README.md
contrib/HumanSeg/README.md
+3
-4
未找到文件。
contrib/HumanSeg/README.md
浏览文件 @
97a448a5
# HumanSeg人像分割模型
# HumanSeg人像分割模型
本教程基于PaddleSeg核心分割网络,提供针对人像分割场景从预训练模型、Fine-tune、视频分割预测部署的全流程应用指南。
本教程基于PaddleSeg核心分割网络,提供针对人像分割场景从预训练模型、Fine-tune、视频分割预测部署的全流程应用指南。
最新发布HumanSeg-lite模型超轻量级人像分割模型,支持移动端场景的实时分割。
## 环境依赖
## 环境依赖
...
@@ -14,7 +14,6 @@ PaddlePaddle的安装可参考[飞桨快速安装](https://www.paddlepaddle.org.
...
@@ -14,7 +14,6 @@ PaddlePaddle的安装可参考[飞桨快速安装](https://www.paddlepaddle.org.
$
pip
install
-r
requirements.txt
$
pip
install
-r
requirements.txt
```
```
## 预训练模型
## 预训练模型
HumanSeg开放了在大规模人像数据上训练的三个预训练模型,满足多种使用场景的需求
HumanSeg开放了在大规模人像数据上训练的三个预训练模型,满足多种使用场景的需求
| 模型类型 | Checkpoint | Inference Model | Quant Inference Model | 备注 |
| 模型类型 | Checkpoint | Inference Model | Quant Inference Model | 备注 |
...
@@ -26,9 +25,9 @@ HumanSeg开放了在大规模人像数据上训练的三个预训练模型,满
...
@@ -26,9 +25,9 @@ HumanSeg开放了在大规模人像数据上训练的三个预训练模型,满
**NOTE:**
**NOTE:**
其中Checkpoint为模型权重,用于Fine-tuning场景。
其中Checkpoint为模型权重,用于Fine-tuning场景。
Inference Model和Quant Inference Model为预测部署模型,包含
`__model__`
计算图结构、
`__params__`
模型参数和
`model.yaml`
基础的模型配置信息。
*
Inference Model和Quant Inference Model为预测部署模型,包含
`__model__`
计算图结构、
`__params__`
模型参数和
`model.yaml`
基础的模型配置信息。
其中Inference Model适用于服务端的CPU和GPU预测场景,Qunat Inference Model为的
量化版本,适用于通过Paddle Lite进行移动端等端侧设备部署。更多Paddle Lite部署说明查看
[
Paddle Lite文档
](
https://paddle-lite.readthedocs.io/zh/latest/
)
*
其中Inference Model适用于服务端的CPU和GPU预测部署,Qunat Inference Model为
量化版本,适用于通过Paddle Lite进行移动端等端侧设备部署。更多Paddle Lite部署说明查看
[
Paddle Lite文档
](
https://paddle-lite.readthedocs.io/zh/latest/
)
执行以下脚本进行HumanSeg预训练模型的下载
执行以下脚本进行HumanSeg预训练模型的下载
```
bash
```
bash
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录