Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
hands-on-ml-zh
提交
331df259
H
hands-on-ml-zh
项目概览
OpenDocCN
/
hands-on-ml-zh
通知
13
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
H
hands-on-ml-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
未验证
提交
331df259
编写于
1月 28, 2019
作者:
Z
Zhengqi Jiang
提交者:
GitHub
1月 28, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update 1.机器学习概览.md
上级
65150e96
变更
1
显示空白变更内容
内联
并排
Showing
1 changed file
with
1 addition
and
1 deletion
+1
-1
docs/1.机器学习概览.md
docs/1.机器学习概览.md
+1
-1
未找到文件。
docs/1.机器学习概览.md
浏览文件 @
331df259
...
@@ -444,7 +444,7 @@ print(lin_reg_model.predict(X_new)) # outputs [[ 5.96242338]]
...
@@ -444,7 +444,7 @@ print(lin_reg_model.predict(X_new)) # outputs [[ 5.96242338]]
> * 收集更多的训练数据
> * 收集更多的训练数据
> * 减小训练数据的噪声(比如,修改数据错误和去除异常值)
> * 减小训练数据的噪声(比如,修改数据错误和去除异常值)
限定一个模型以让它更简单,降低过拟合的风险被称作正则化(regularization)。例如,我们之前定义的线性模型有两个参数,
`θ0`
和
`θ1`
。它给了学习算法两个自由度以让模型适应训练数据:可以调整截距
`θ0`
和斜率
`θ1`
。如果强制
`θ1=0`
,算法就只剩一个自由度,拟合数据就会更为困难:
能做的只是将在线下移动,
尽可能地靠近训练实例,结果会在平均值附近。这就是一个非常简单的模型!如果我们允许算法可以修改
`θ1`
,但是只能在一个很小的范围内修改,算法的自由度就会介于 1 和 2 之间。它要比两个自由度的模型简单,比 1 个自由度的模型要复杂。你的目标是在完美拟合数据和保持模型简单性上找到平衡,确保算法的推广效果。
限定一个模型以让它更简单,降低过拟合的风险被称作正则化(regularization)。例如,我们之前定义的线性模型有两个参数,
`θ0`
和
`θ1`
。它给了学习算法两个自由度以让模型适应训练数据:可以调整截距
`θ0`
和斜率
`θ1`
。如果强制
`θ1=0`
,算法就只剩一个自由度,拟合数据就会更为困难:
它所能做的只是将拟合曲线上下移动去
尽可能地靠近训练实例,结果会在平均值附近。这就是一个非常简单的模型!如果我们允许算法可以修改
`θ1`
,但是只能在一个很小的范围内修改,算法的自由度就会介于 1 和 2 之间。它要比两个自由度的模型简单,比 1 个自由度的模型要复杂。你的目标是在完美拟合数据和保持模型简单性上找到平衡,确保算法的推广效果。
图 1-23 展示了三个模型:虚线表示用缺失部分国家的数据训练的原始模型,短划线是我们的第二个用所有国家训练的模型,实线模型的训练数据和第一个相同,但进行了正则化限制。你可以看到正则化强制模型有一个小的斜率,它对训练数据的拟合不是那么好,但是对新样本的推广效果好。
图 1-23 展示了三个模型:虚线表示用缺失部分国家的数据训练的原始模型,短划线是我们的第二个用所有国家训练的模型,实线模型的训练数据和第一个相同,但进行了正则化限制。你可以看到正则化强制模型有一个小的斜率,它对训练数据的拟合不是那么好,但是对新样本的推广效果好。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录