Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleHub
提交
7ad46d79
P
PaddleHub
项目概览
PaddlePaddle
/
PaddleHub
大约 1 年 前同步成功
通知
282
Star
12117
Fork
2091
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
200
列表
看板
标记
里程碑
合并请求
4
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleHub
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
200
Issue
200
列表
看板
标记
里程碑
合并请求
4
合并请求
4
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
7ad46d79
编写于
10月 28, 2019
作者:
Z
zhangxuefei
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
update readme
上级
fb26ca60
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
1 addition
and
1 deletion
+1
-1
tutorial/strategy_exp.md
tutorial/strategy_exp.md
+1
-1
未找到文件。
tutorial/strategy_exp.md
浏览文件 @
7ad46d79
...
...
@@ -188,7 +188,7 @@ PaddleHub中集成了ERNIE、BERT、LAC、ELMo等[NLP预训练模型](https://ww
slanted triangular learning rate和warm up + linear decay在原理上和实验结果上都是相似的,Discriminative fine-tuning和Gradual unfreezing微调策略在使用中,应当注意它们会降低模型的拟合能力,可以适当提高训练的轮数。
PaddleHub 1.2已发布AutoDL Finetuner,可以自动搜索超参设置,详情请参考
[
PaddleHub AutoDL Finetuner
](
https://github.com/PaddlePaddle/PaddleHub/blob/develop/tutorial
/autofinetune.md
)
。如有任何疑问欢迎您在issues中向我们提出!
PaddleHub 1.2已发布AutoDL Finetuner,可以自动搜索超参设置,详情请参考
[
PaddleHub AutoDL Finetuner
](
.
/autofinetune.md
)
。如有任何疑问欢迎您在issues中向我们提出!
## 六、参考文献
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录