Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
d2l-zh
提交
75867026
D
d2l-zh
项目概览
OpenDocCN
/
d2l-zh
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
d2l-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
75867026
编写于
9月 09, 2017
作者:
S
Sheng Zha
提交者:
Mu Li
9月 09, 2017
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
add discussion links (#24)
* add discussion links * Update install.md
上级
d51b2e18
变更
11
隐藏空白更改
内联
并排
Showing
11 changed file
with
23 addition
and
2 deletion
+23
-2
chapter00_preface/install.md
chapter00_preface/install.md
+2
-0
chapter01_crashcourse/autograd.md
chapter01_crashcourse/autograd.md
+1
-0
chapter01_crashcourse/introduction.md
chapter01_crashcourse/introduction.md
+3
-1
chapter01_crashcourse/linear-regression-gluon.md
chapter01_crashcourse/linear-regression-gluon.md
+2
-0
chapter01_crashcourse/linear-regression-scratch.md
chapter01_crashcourse/linear-regression-scratch.md
+3
-1
chapter01_crashcourse/ndarray.md
chapter01_crashcourse/ndarray.md
+2
-0
chapter01_crashcourse/softmax-regression-gluon.md
chapter01_crashcourse/softmax-regression-gluon.md
+2
-0
chapter01_crashcourse/softmax-regression-scratch.md
chapter01_crashcourse/softmax-regression-scratch.md
+2
-0
chapter02_multilayer-neural-network/mlp-gluon.md
chapter02_multilayer-neural-network/mlp-gluon.md
+2
-0
chapter04_convolutional-neural-networks/cnn-gluon.md
chapter04_convolutional-neural-networks/cnn-gluon.md
+2
-0
chapter04_convolutional-neural-networks/cnn-scratch.md
chapter04_convolutional-neural-networks/cnn-scratch.md
+2
-0
未找到文件。
chapter00_preface/install.md
浏览文件 @
75867026
...
...
@@ -287,3 +287,5 @@ Windows默认不支持curl,tar
下载和解压推荐用浏览器和解压软件,手动拷贝
### 最后
如果你尝试了很多依然一头雾水,可以试试docker安装:http://zh.gluon.ai/install.html#docker
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/249)**
chapter01_crashcourse/autograd.md
浏览文件 @
75867026
...
...
@@ -95,3 +95,4 @@ z.backward(head_gradient)
print(x.grad)
```
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/744)**
chapter01_crashcourse/introduction.md
浏览文件 @
75867026
...
...
@@ -185,4 +185,6 @@ print(' '.join(res))
## 小结
机器学习是一个庞大的领域。我们在此无法也无需介绍有关它的全部。有了这些背景知识铺垫,你是否对接下来的学习更有兴趣了呢?
\ No newline at end of file
机器学习是一个庞大的领域。我们在此无法也无需介绍有关它的全部。有了这些背景知识铺垫,你是否对接下来的学习更有兴趣了呢?
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/746)**
chapter01_crashcourse/linear-regression-gluon.md
浏览文件 @
75867026
...
...
@@ -122,3 +122,5 @@ true_b, dense.bias.data()
-
在训练的时候,为什么我们用了比前面要大10倍的学习率呢?(提示:可以尝试运行
`help(trainer.step)`
来寻找答案。)
-
如何拿到
`weight`
的梯度呢?(提示:尝试
`help(dense.weight)`
)
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/742)**
chapter01_crashcourse/linear-regression-scratch.md
浏览文件 @
75867026
...
...
@@ -130,7 +130,7 @@ for e in range(epochs):
loss = square_loss(output, label)
loss.backward()
SGD(params, learning_rate)
total_loss += nd.sum(loss).asscalar()
print("Epoch %d, average loss: %f" % (e, total_loss/num_examples))
```
...
...
@@ -152,3 +152,5 @@ true_b, b
## 练习
尝试用不同的学习率查看误差下降速度(收敛率)
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/743)**
chapter01_crashcourse/ndarray.md
浏览文件 @
75867026
...
...
@@ -141,3 +141,5 @@ id(x) == before
## 总结
ndarray模块提供一系列多维数组操作函数。所有函数列表可以参见
[
NDArray API文档
](
https://mxnet.incubator.apache.org/api/python/ndarray.html
)
。
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/745)**
chapter01_crashcourse/softmax-regression-gluon.md
浏览文件 @
75867026
...
...
@@ -75,3 +75,5 @@ Gluon提供的函数有时候比手工写的数值更稳定。
-
再尝试调大下学习率看看?
-
为什么参数都差不多,但gluon版本比从0开始的版本精度更高?
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/740)**
chapter01_crashcourse/softmax-regression-scratch.md
浏览文件 @
75867026
...
...
@@ -218,3 +218,5 @@ print(get_text_labels(predicted_labels.asnumpy()))
-
即使解决exp的问题,求出来的导数是不是还是不稳定?
请仔细想想再去对比下我们小伙伴之一@
[
pluskid
](
https://github.com/pluskid
)
早年写的一篇
[
blog解释这个问题
](
http://freemind.pluskid.org/machine-learning/softmax-vs-softmax-loss-numerical-stability/
)
,看看你想的是不是不一样。
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/741)**
chapter02_multilayer-neural-network/mlp-gluon.md
浏览文件 @
75867026
...
...
@@ -60,3 +60,5 @@ for epoch in range(5):
-
尝试多加入几个隐含层,对比从0开始的实现。
-
尝试使用一个另外的激活函数,可以使用
`help(nd.Activation)`
或者
[
线上文档
](
https://mxnet.apache.org/api/python/ndarray.html#mxnet.ndarray.Activation
)
查看提供的选项。
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/739)**
chapter04_convolutional-neural-networks/cnn-gluon.md
浏览文件 @
75867026
...
...
@@ -77,3 +77,5 @@ for epoch in range(5):
```
{.python .input}
```
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/737)**
chapter04_convolutional-neural-networks/cnn-scratch.md
浏览文件 @
75867026
...
...
@@ -225,3 +225,5 @@ for epoch in range(5):
-
试试把池化层从
`max`
改到
`avg`
-
如果你有GPU,那么尝试用CPU来跑一下看看
-
你可能注意到比前面的多层感知机慢了很多,那么尝试计算下这两个模型分别需要多少浮点计算。例如$n
\t
imes m$和$m
\t
imes k$的矩阵乘法需要浮点运算 $2nmk$。
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/736)**
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录