提交 a71d2985 编写于 作者: S Sheng Zha 提交者: Mu Li

fix (#29)

上级 aa136c9d
......@@ -288,4 +288,4 @@ Windows默认不支持curl,tar
### 最后
如果你尝试了很多依然一头雾水,可以试试docker安装:http://zh.gluon.ai/install.html#docker
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/249)**
**吐槽和讨论欢迎点**[这里](https://discuss.gluon.ai/t/topic/249)
......@@ -35,10 +35,10 @@
这套教程通过描述深度学习模型是如何一步步实现的,为大家提供了宝贵的动手实践的机会。因为教程里实现的代码都是可执行的,读者可以根据自己所学和思考课后问题运行或修改代码而得到及时的学习反馈。每个人可以通过及时反馈不断实现自我迭代,从而加深对深度学习的理解。
最后,英文中有句话叫做
最后,英文中有句话叫做
> "Get hands dirty."
> "Get hands dirty."
直译过来就是
> “撸起袖子加油干。”
\ No newline at end of file
> “撸起袖子加油干。”
......@@ -95,4 +95,4 @@ z.backward(head_gradient)
print(x.grad)
```
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/744)**
**吐槽和讨论欢迎点**[这里](https://discuss.gluon.ai/t/topic/744)
......@@ -187,4 +187,4 @@ print(' '.join(res))
机器学习是一个庞大的领域。我们在此无法也无需介绍有关它的全部。有了这些背景知识铺垫,你是否对接下来的学习更有兴趣了呢?
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/746)**
**吐槽和讨论欢迎点**[这里](https://discuss.gluon.ai/t/topic/746)
......@@ -123,4 +123,4 @@ true_b, dense.bias.data()
- 在训练的时候,为什么我们用了比前面要大10倍的学习率呢?(提示:可以尝试运行 `help(trainer.step)`来寻找答案。)
- 如何拿到`weight`的梯度呢?(提示:尝试 `help(dense.weight)`
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/742)**
**吐槽和讨论欢迎点**[这里](https://discuss.gluon.ai/t/topic/742)
......@@ -153,4 +153,4 @@ true_b, b
尝试用不同的学习率查看误差下降速度(收敛率)
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/743)**
**吐槽和讨论欢迎点**[这里](https://discuss.gluon.ai/t/topic/743)
......@@ -142,4 +142,4 @@ id(x) == before
ndarray模块提供一系列多维数组操作函数。所有函数列表可以参见[NDArray API文档](https://mxnet.incubator.apache.org/api/python/ndarray.html)
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/745)**
**吐槽和讨论欢迎点**[这里](https://discuss.gluon.ai/t/topic/745)
......@@ -76,4 +76,4 @@ Gluon提供的函数有时候比手工写的数值更稳定。
- 再尝试调大下学习率看看?
- 为什么参数都差不多,但gluon版本比从0开始的版本精度更高?
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/740)**
**吐槽和讨论欢迎点**[这里](https://discuss.gluon.ai/t/topic/740)
......@@ -219,4 +219,4 @@ print(get_text_labels(predicted_labels.asnumpy()))
请仔细想想再去对比下我们小伙伴之一@[pluskid](https://github.com/pluskid)早年写的一篇[blog解释这个问题](http://freemind.pluskid.org/machine-learning/softmax-vs-softmax-loss-numerical-stability/),看看你想的是不是不一样。
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/741)**
**吐槽和讨论欢迎点**[这里](https://discuss.gluon.ai/t/topic/741)
......@@ -61,4 +61,4 @@ for epoch in range(5):
- 尝试多加入几个隐含层,对比从0开始的实现。
- 尝试使用一个另外的激活函数,可以使用`help(nd.Activation)`或者[线上文档](https://mxnet.apache.org/api/python/ndarray.html#mxnet.ndarray.Activation)查看提供的选项。
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/739)**
**吐槽和讨论欢迎点**[这里](https://discuss.gluon.ai/t/topic/738)
......@@ -115,3 +115,5 @@ for epoch in range(5):
- 我们使用了 `weight_scale` 来控制权重的初始化值大小,增大或者变小这个值会怎么样?
- 尝试改变 `num_hiddens` 来控制模型的复杂度
- 尝试加入一个新的隐含层
**吐槽和讨论欢迎点**[这里](https://discuss.gluon.ai/t/topic/739)
......@@ -78,4 +78,4 @@ for epoch in range(5):
```
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/737)**
**吐槽和讨论欢迎点**[这里](https://discuss.gluon.ai/t/topic/737)
......@@ -226,4 +226,4 @@ for epoch in range(5):
- 如果你有GPU,那么尝试用CPU来跑一下看看
- 你可能注意到比前面的多层感知机慢了很多,那么尝试计算下这两个模型分别需要多少浮点计算。例如$n\times m$和$m \times k$的矩阵乘法需要浮点运算 $2nmk$。
**吐槽和讨论欢迎点[这里](https://discuss.gluon.ai/t/topic/736)**
**吐槽和讨论欢迎点**[这里](https://discuss.gluon.ai/t/topic/736)
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册