Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
Phil_X
ml-nlp
提交
8b1ec748
M
ml-nlp
项目概览
Phil_X
/
ml-nlp
与 Fork 源项目一致
从无法访问的项目Fork
通知
1
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
M
ml-nlp
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
未验证
提交
8b1ec748
编写于
7月 09, 2019
作者:
N
NLP-LOVE
提交者:
GitHub
7月 09, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update README.md
上级
0a4b40c1
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
3 addition
and
3 deletion
+3
-3
Machine Learning/3.2 GBDT/README.md
Machine Learning/3.2 GBDT/README.md
+3
-3
未找到文件。
Machine Learning/3.2 GBDT/README.md
浏览文件 @
8b1ec748
...
...
@@ -8,7 +8,7 @@ Boosting方法训练基分类器时采用串行的方式,各个基分类器之
Bagging与Boosting的串行训练方式不同,Bagging方法在训练过程中,各基分类器之间无强依赖,可以进行并行训练。
### 1.2 GBDT原
理
### 1.2 GBDT原
来是这么回事
GBDT的原理很简单,就是所有弱分类器的结果相加等于预测值,然后下一个弱分类器去拟合误差函数对预测值的残差(这个残差就是预测值与真实值之间的误差)。当然了,它里面的弱分类器的表现形式就是各棵树。
...
...
@@ -58,13 +58,13 @@ GBDT的原理很简单,就是所有弱分类器的结果相加等于预测值
所以,GBDT需要将多棵树的得分累加得到最终的预测得分,且每一次迭代,都在现有树的基础上,增加一棵树去拟合前面树的预测结果与真实值之间的残差。
##
#
2. 梯度提升和梯度下降的区别和联系是什么?
## 2. 梯度提升和梯度下降的区别和联系是什么?
下表是梯度提升算法和梯度下降算法的对比情况。可以发现,两者都是在每 一轮迭代中,利用损失函数相对于模型的负梯度方向的信息来对当前模型进行更 新,只不过在梯度下降中,模型是以参数化形式表示,从而模型的更新等价于参 数的更新。而在梯度提升中,模型并不需要进行参数化表示,而是直接定义在函 数空间中,从而大大扩展了可以使用的模型种类。
![](
http://wx3.sinaimg.cn/mw690/00630Defgy1g4tdwhqzsdj30rp0afdho.jpg
)
##
#
3. **GBDT**的优点和局限性有哪些?
## 3. **GBDT**的优点和局限性有哪些?
### 3.1 优点
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录