Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
MindSpore
docs
提交
2ece16bb
D
docs
项目概览
MindSpore
/
docs
通知
4
Star
2
Fork
2
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
docs
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
2ece16bb
编写于
8月 29, 2020
作者:
L
lvmingfu
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
modify files in quick_start folder for master
上级
650b40d7
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
10 addition
and
7 deletion
+10
-7
tutorials/notebook/linear_regression.ipynb
tutorials/notebook/linear_regression.ipynb
+6
-4
tutorials/source_zh_cn/quick_start/linear_regression.md
tutorials/source_zh_cn/quick_start/linear_regression.md
+4
-3
未找到文件。
tutorials/notebook/linear_regression.ipynb
浏览文件 @
2ece16bb
...
...
@@ -49,7 +49,9 @@
"\n",
"MindSpore版本:GPU\n",
"\n",
"设置MindSpore运行配置"
"设置MindSpore运行配置\n",
"\n",
"第三方支持包:`matplotlib`,未安装此包的,可使用命令`pip install matplotlib`预先安装。"
]
},
{
...
...
@@ -466,7 +468,7 @@
"\n",
"$$w_{ud}=w_{s}-\\alpha\\frac{\\partial{J(w_{s})}}{\\partial{w}}\\tag{11}$$\n",
"\n",
"当权重$w$在更新的过程中假如临近$w_{min}$在增加或者减少一个$\\Delta{w}$,从左边或者右边越过了$w_{min}$,公式1
0
都会使权重往反的方向移动,那么最终$w_{s}$的值会在$w_{min}$附近来回迭代,在实际训练中我们也是这样采用迭代的方式取得最优权重$w$,使得损失函数无限逼近局部最小值。"
"当权重$w$在更新的过程中假如临近$w_{min}$在增加或者减少一个$\\Delta{w}$,从左边或者右边越过了$w_{min}$,公式1
1
都会使权重往反的方向移动,那么最终$w_{s}$的值会在$w_{min}$附近来回迭代,在实际训练中我们也是这样采用迭代的方式取得最优权重$w$,使得损失函数无限逼近局部最小值。"
]
},
{
...
...
@@ -546,7 +548,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"`nn.RMSProp`为完成权重更新的函数,更新方式大致为公式1
0
,但是考虑的因素更多,具体信息请参考[官网说明](https://www.mindspore.cn/api/zh-CN/master/api/python/mindspore/mindspore.nn.html?highlight=rmsprop#mindspore.nn.RMSProp)。"
"`nn.RMSProp`为完成权重更新的函数,更新方式大致为公式1
1
,但是考虑的因素更多,具体信息请参考[官网说明](https://www.mindspore.cn/api/zh-CN/master/api/python/mindspore/mindspore.nn.html?highlight=rmsprop#mindspore.nn.RMSProp)。"
]
},
{
...
...
@@ -718,7 +720,7 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"本次体验我们了解了线性拟合的算法原理,并在MindSpore框架下实现了相应的算法定义,了解了线性拟合这类的线性回归模型在MindSpore中的训练过程,并最终拟合出了一条接近目标函数的模型函数。另外有兴趣的可以调整数据集的生成区间从(-10,10)扩展到(-100,100),看看权重值是否更接近目标函数;调整学习率大小,看看拟合的效率是否有变化;当然也可以探索如何使用MindSpore拟合$f(x)=ax^2+bx+c$这类的二次函数或者更高
阶
的函数。"
"本次体验我们了解了线性拟合的算法原理,并在MindSpore框架下实现了相应的算法定义,了解了线性拟合这类的线性回归模型在MindSpore中的训练过程,并最终拟合出了一条接近目标函数的模型函数。另外有兴趣的可以调整数据集的生成区间从(-10,10)扩展到(-100,100),看看权重值是否更接近目标函数;调整学习率大小,看看拟合的效率是否有变化;当然也可以探索如何使用MindSpore拟合$f(x)=ax^2+bx+c$这类的二次函数或者更高
次
的函数。"
]
}
],
...
...
tutorials/source_zh_cn/quick_start/linear_regression.md
浏览文件 @
2ece16bb
...
...
@@ -52,6 +52,7 @@ MindSpore版本:GPU
设置MindSpore运行配置
第三方支持包:
`matplotlib`
,未安装此包的,可使用命令
`pip install matplotlib`
预先安装。
```
python
from
mindspore
import
context
...
...
@@ -268,7 +269,7 @@ $$w_{ud}=w_{s}-\alpha\frac{\partial{J(w_{s})}}{\partial{w}}\tag{10}$$
$$w_{ud}=w_{s}-
\a
lpha
\f
rac{
\p
artial{J(w_{s})}}{
\p
artial{w}}
\t
ag{11}$$
当权重$w$在更新的过程中假如临近$w_{min}$在增加或者减少一个$
\D
elta{w}$,从左边或者右边越过了$w_{min}$,公式1
0
都会使权重往反的方向移动,那么最终$w_{s}$的值会在$w_{min}$附近来回迭代,在实际训练中我们也是这样采用迭代的方式取得最优权重$w$,使得损失函数无限逼近局部最小值。
当权重$w$在更新的过程中假如临近$w_{min}$在增加或者减少一个$
\D
elta{w}$,从左边或者右边越过了$w_{min}$,公式1
1
都会使权重往反的方向移动,那么最终$w_{s}$的值会在$w_{min}$附近来回迭代,在实际训练中我们也是这样采用迭代的方式取得最优权重$w$,使得损失函数无限逼近局部最小值。
同理:对于公式5中的另一个权重$b$容易得出其更新公式为:
...
...
@@ -306,7 +307,7 @@ class GradWrap(nn.Cell):
### 反向传播更新权重
`nn.RMSProp`
为完成权重更新的函数,更新方式大致为公式1
0
,但是考虑的因素更多,具体信息请参考
[
官网说明
](
https://www.mindspore.cn/api/zh-CN/master/api/python/mindspore/mindspore.nn.html?highlight=rmsprop#mindspore.nn.RMSProp
)
。
`nn.RMSProp`
为完成权重更新的函数,更新方式大致为公式1
1
,但是考虑的因素更多,具体信息请参考
[
官网说明
](
https://www.mindspore.cn/api/zh-CN/master/api/python/mindspore/mindspore.nn.html?highlight=rmsprop#mindspore.nn.RMSProp
)
。
```
python
...
...
@@ -400,4 +401,4 @@ print("weight:", net.weight.default_input[0][0], "bias:", net.bias.default_input
## 总结
本次体验我们了解了线性拟合的算法原理,并在MindSpore框架下实现了相应的算法定义,了解了线性拟合这类的线性回归模型在MindSpore中的训练过程,并最终拟合出了一条接近目标函数的模型函数。另外有兴趣的可以调整数据集的生成区间从(-10,10)扩展到(-100,100),看看权重值是否更接近目标函数;调整学习率大小,看看拟合的效率是否有变化;当然也可以探索如何使用MindSpore拟合$f(x)=ax^2+bx+c$这类的二次函数或者更高
阶
的函数。
本次体验我们了解了线性拟合的算法原理,并在MindSpore框架下实现了相应的算法定义,了解了线性拟合这类的线性回归模型在MindSpore中的训练过程,并最终拟合出了一条接近目标函数的模型函数。另外有兴趣的可以调整数据集的生成区间从(-10,10)扩展到(-100,100),看看权重值是否更接近目标函数;调整学习率大小,看看拟合的效率是否有变化;当然也可以探索如何使用MindSpore拟合$f(x)=ax^2+bx+c$这类的二次函数或者更高
次
的函数。
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录