Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleSeg
提交
1b4d3510
P
PaddleSeg
项目概览
PaddlePaddle
/
PaddleSeg
通知
285
Star
8
Fork
1
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
53
列表
看板
标记
里程碑
合并请求
3
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleSeg
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
53
Issue
53
列表
看板
标记
里程碑
合并请求
3
合并请求
3
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
1b4d3510
编写于
9月 05, 2019
作者:
Z
Zeyu Chen
提交者:
GitHub
9月 05, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update README.md
上级
71915e1e
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
5 addition
and
5 deletion
+5
-5
README.md
README.md
+5
-5
未找到文件。
README.md
浏览文件 @
1b4d3510
...
@@ -12,19 +12,19 @@ PaddleSeg具备高性能、丰富的数据增强、工业级部署、全流程
...
@@ -12,19 +12,19 @@ PaddleSeg具备高性能、丰富的数据增强、工业级部署、全流程
-
**丰富的数据增强**
-
**丰富的数据增强**
-
基于百度视觉技术部的实际业务经验,内置10+种数据增强策略,可结合实际业务场景进行定制组合,提升模型泛化能力和鲁棒性。
基于百度视觉技术部的实际业务经验,内置10+种数据增强策略,可结合实际业务场景进行定制组合,提升模型泛化能力和鲁棒性。
-
**主流模型覆盖**
-
**主流模型覆盖**
-
支持U-Net, DeepLabv3+, ICNet三类主流分割网络,结合预训练模型和可调节的骨干网络,满足不同性能和精度的要求。
支持U-Net, DeepLabv3+, ICNet三类主流分割网络,结合预训练模型和可调节的骨干网络,满足不同性能和精度的要求。
-
**高性能**
-
**高性能**
-
PaddleSeg支持多进程IO、多卡并行、多卡Batch Norm同步等训练加速策略,结合飞桨核心框架的显存优化算法
,可以大幅度减少分割模型的显存开销,更快完成分割模型训练。
PaddleSeg支持多进程IO、多卡并行、跨卡Batch Norm同步等训练加速策略,结合飞桨核心框架的显存优化功能
,可以大幅度减少分割模型的显存开销,更快完成分割模型训练。
-
**工业级部署**
-
**工业级部署**
-
基于
[
Paddle Serving
](
https://github.com/PaddlePaddle/Serving
)
和PaddlePaddle高性能预测引擎,结合百度开放的AI能力,轻松搭建人像分割和车道线分割服务。
基于
[
Paddle Serving
](
https://github.com/PaddlePaddle/Serving
)
和PaddlePaddle高性能预测引擎,结合百度开放的AI能力,轻松搭建人像分割和车道线分割服务。
</br>
</br>
...
@@ -66,7 +66,7 @@ PaddleSeg具备高性能、丰富的数据增强、工业级部署、全流程
...
@@ -66,7 +66,7 @@ PaddleSeg具备高性能、丰富的数据增强、工业级部署、全流程
#### Q:图像分割的数据增强如何配置,unpadding, step-scaling, range-scaling的原理是什么?
#### Q:图像分割的数据增强如何配置,unpadding, step-scaling, range-scaling的原理是什么?
A:
数据增强的配置可以参考文档
[
数据增强
](
./docs/data_aug.md
)
A:
更详细数据增强文档可以参考
[
数据增强
](
./docs/data_aug.md
)
#### Q: 预测时图片过大,导致显存不足如何处理?
#### Q: 预测时图片过大,导致显存不足如何处理?
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录