提交 75867026 编写于 作者: S Sheng Zha 提交者: Mu Li

add discussion links (#24)

* add discussion links

* Update install.md
上级 d51b2e18
......@@ -287,3 +287,5 @@ Windows默认不支持curl,tar
下载和解压推荐用浏览器和解压软件,手动拷贝
### 最后
如果你尝试了很多依然一头雾水,可以试试docker安装:http://zh.gluon.ai/install.html#docker
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/249)**
......@@ -95,3 +95,4 @@ z.backward(head_gradient)
print(x.grad)
```
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/744)**
......@@ -185,4 +185,6 @@ print(' '.join(res))
## 小结
机器学习是一个庞大的领域。我们在此无法也无需介绍有关它的全部。有了这些背景知识铺垫,你是否对接下来的学习更有兴趣了呢?
\ No newline at end of file
机器学习是一个庞大的领域。我们在此无法也无需介绍有关它的全部。有了这些背景知识铺垫,你是否对接下来的学习更有兴趣了呢?
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/746)**
......@@ -122,3 +122,5 @@ true_b, dense.bias.data()
- 在训练的时候,为什么我们用了比前面要大10倍的学习率呢?(提示:可以尝试运行 `help(trainer.step)`来寻找答案。)
- 如何拿到`weight`的梯度呢?(提示:尝试 `help(dense.weight)`
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/742)**
......@@ -130,7 +130,7 @@ for e in range(epochs):
loss = square_loss(output, label)
loss.backward()
SGD(params, learning_rate)
total_loss += nd.sum(loss).asscalar()
print("Epoch %d, average loss: %f" % (e, total_loss/num_examples))
```
......@@ -152,3 +152,5 @@ true_b, b
## 练习
尝试用不同的学习率查看误差下降速度(收敛率)
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/743)**
......@@ -141,3 +141,5 @@ id(x) == before
## 总结
ndarray模块提供一系列多维数组操作函数。所有函数列表可以参见[NDArray API文档](https://mxnet.incubator.apache.org/api/python/ndarray.html)
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/745)**
......@@ -75,3 +75,5 @@ Gluon提供的函数有时候比手工写的数值更稳定。
- 再尝试调大下学习率看看?
- 为什么参数都差不多,但gluon版本比从0开始的版本精度更高?
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/740)**
......@@ -218,3 +218,5 @@ print(get_text_labels(predicted_labels.asnumpy()))
- 即使解决exp的问题,求出来的导数是不是还是不稳定?
请仔细想想再去对比下我们小伙伴之一@[pluskid](https://github.com/pluskid)早年写的一篇[blog解释这个问题](http://freemind.pluskid.org/machine-learning/softmax-vs-softmax-loss-numerical-stability/),看看你想的是不是不一样。
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/741)**
......@@ -60,3 +60,5 @@ for epoch in range(5):
- 尝试多加入几个隐含层,对比从0开始的实现。
- 尝试使用一个另外的激活函数,可以使用`help(nd.Activation)`或者[线上文档](https://mxnet.apache.org/api/python/ndarray.html#mxnet.ndarray.Activation)查看提供的选项。
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/739)**
......@@ -77,3 +77,5 @@ for epoch in range(5):
```{.python .input}
```
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/737)**
......@@ -225,3 +225,5 @@ for epoch in range(5):
- 试试把池化层从`max`改到`avg`
- 如果你有GPU,那么尝试用CPU来跑一下看看
- 你可能注意到比前面的多层感知机慢了很多,那么尝试计算下这两个模型分别需要多少浮点计算。例如$n\times m$和$m \times k$的矩阵乘法需要浮点运算 $2nmk$。
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/736)**
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册