未验证 提交 0a4b40c1 编写于 作者: N NLP-LOVE 提交者: GitHub

Update README.md

上级 825fefb1
......@@ -24,11 +24,11 @@ GBDT的原理很简单,就是所有弱分类器的结果相加等于预测值
回归任务下,GBDT 在每一轮的迭代时对每个样本都会有一个预测值,此时的损失函数为均方差损失函数,
$$l(y_i,y^i)=\frac{1}{2}(y_i-y^i)^2$$
![](https://julyedu-img.oss-cn-beijing.aliyuncs.com/quesbase64155214962034944638.gif)
那此时的负梯度是这样计算的
$$-[\frac{\partial l(y_i,y^i)}{\partial y^i}]=(y_i-y^i)$$
![](https://julyedu-img.oss-cn-beijing.aliyuncs.com/quesbase64155214962416670973.gif)
所以,当损失函数选用均方损失函数是时,每一次拟合的值就是(真实值 - 当前模型预测的值),即残差。此时的变量是![](https://julyedu-img.oss-cn-beijing.aliyuncs.com/quesbase64155214963633267938.gif),即“当前预测模型的值”,也就是对它求负梯度。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册