Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
d2l-zh
提交
a71d2985
D
d2l-zh
项目概览
OpenDocCN
/
d2l-zh
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
D
d2l-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
a71d2985
编写于
9月 10, 2017
作者:
S
Sheng Zha
提交者:
Mu Li
9月 10, 2017
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix (#29)
上级
aa136c9d
变更
13
隐藏空白更改
内联
并排
Showing
13 changed file
with
16 addition
and
14 deletion
+16
-14
chapter00_preface/install.md
chapter00_preface/install.md
+1
-1
chapter00_preface/preface.md
chapter00_preface/preface.md
+3
-3
chapter01_crashcourse/autograd.md
chapter01_crashcourse/autograd.md
+1
-1
chapter01_crashcourse/introduction.md
chapter01_crashcourse/introduction.md
+1
-1
chapter01_crashcourse/linear-regression-gluon.md
chapter01_crashcourse/linear-regression-gluon.md
+1
-1
chapter01_crashcourse/linear-regression-scratch.md
chapter01_crashcourse/linear-regression-scratch.md
+1
-1
chapter01_crashcourse/ndarray.md
chapter01_crashcourse/ndarray.md
+1
-1
chapter01_crashcourse/softmax-regression-gluon.md
chapter01_crashcourse/softmax-regression-gluon.md
+1
-1
chapter01_crashcourse/softmax-regression-scratch.md
chapter01_crashcourse/softmax-regression-scratch.md
+1
-1
chapter02_multilayer-neural-network/mlp-gluon.md
chapter02_multilayer-neural-network/mlp-gluon.md
+1
-1
chapter02_multilayer-neural-network/mlp-scratch.md
chapter02_multilayer-neural-network/mlp-scratch.md
+2
-0
chapter04_convolutional-neural-networks/cnn-gluon.md
chapter04_convolutional-neural-networks/cnn-gluon.md
+1
-1
chapter04_convolutional-neural-networks/cnn-scratch.md
chapter04_convolutional-neural-networks/cnn-scratch.md
+1
-1
未找到文件。
chapter00_preface/install.md
浏览文件 @
a71d2985
...
...
@@ -288,4 +288,4 @@ Windows默认不支持curl,tar
### 最后
如果你尝试了很多依然一头雾水,可以试试docker安装:http://zh.gluon.ai/install.html#docker
**吐槽和讨论欢迎点
[这里](https://discuss.gluon.ai/t/topic/249)**
**吐槽和讨论欢迎点
**
[
这里
](
https://discuss.gluon.ai/t/topic/249
)
chapter00_preface/preface.md
浏览文件 @
a71d2985
...
...
@@ -35,10 +35,10 @@
这套教程通过描述深度学习模型是如何一步步实现的,为大家提供了宝贵的动手实践的机会。因为教程里实现的代码都是可执行的,读者可以根据自己所学和思考课后问题运行或修改代码而得到及时的学习反馈。每个人可以通过及时反馈不断实现自我迭代,从而加深对深度学习的理解。
最后,英文中有句话叫做
最后,英文中有句话叫做
> "Get hands dirty."
> "Get hands dirty."
直译过来就是
> “撸起袖子加油干。”
\ No newline at end of file
> “撸起袖子加油干。”
chapter01_crashcourse/autograd.md
浏览文件 @
a71d2985
...
...
@@ -95,4 +95,4 @@ z.backward(head_gradient)
print(x.grad)
```
**吐槽和讨论欢迎点
[这里](https://discuss.gluon.ai/t/topic/744)**
**吐槽和讨论欢迎点
**
[
这里
](
https://discuss.gluon.ai/t/topic/744
)
chapter01_crashcourse/introduction.md
浏览文件 @
a71d2985
...
...
@@ -187,4 +187,4 @@ print(' '.join(res))
机器学习是一个庞大的领域。我们在此无法也无需介绍有关它的全部。有了这些背景知识铺垫,你是否对接下来的学习更有兴趣了呢?
**吐槽和讨论欢迎点
[这里](https://discuss.gluon.ai/t/topic/746)**
**吐槽和讨论欢迎点
**
[
这里
](
https://discuss.gluon.ai/t/topic/746
)
chapter01_crashcourse/linear-regression-gluon.md
浏览文件 @
a71d2985
...
...
@@ -123,4 +123,4 @@ true_b, dense.bias.data()
-
在训练的时候,为什么我们用了比前面要大10倍的学习率呢?(提示:可以尝试运行
`help(trainer.step)`
来寻找答案。)
-
如何拿到
`weight`
的梯度呢?(提示:尝试
`help(dense.weight)`
)
**吐槽和讨论欢迎点
[这里](https://discuss.gluon.ai/t/topic/742)**
**吐槽和讨论欢迎点
**
[
这里
](
https://discuss.gluon.ai/t/topic/742
)
chapter01_crashcourse/linear-regression-scratch.md
浏览文件 @
a71d2985
...
...
@@ -153,4 +153,4 @@ true_b, b
尝试用不同的学习率查看误差下降速度(收敛率)
**吐槽和讨论欢迎点
[这里](https://discuss.gluon.ai/t/topic/743)**
**吐槽和讨论欢迎点
**
[
这里
](
https://discuss.gluon.ai/t/topic/743
)
chapter01_crashcourse/ndarray.md
浏览文件 @
a71d2985
...
...
@@ -142,4 +142,4 @@ id(x) == before
ndarray模块提供一系列多维数组操作函数。所有函数列表可以参见
[
NDArray API文档
](
https://mxnet.incubator.apache.org/api/python/ndarray.html
)
。
**吐槽和讨论欢迎点
[这里](https://discuss.gluon.ai/t/topic/745)**
**吐槽和讨论欢迎点
**
[
这里
](
https://discuss.gluon.ai/t/topic/745
)
chapter01_crashcourse/softmax-regression-gluon.md
浏览文件 @
a71d2985
...
...
@@ -76,4 +76,4 @@ Gluon提供的函数有时候比手工写的数值更稳定。
-
再尝试调大下学习率看看?
-
为什么参数都差不多,但gluon版本比从0开始的版本精度更高?
**吐槽和讨论欢迎点
[这里](https://discuss.gluon.ai/t/topic/740)**
**吐槽和讨论欢迎点
**
[
这里
](
https://discuss.gluon.ai/t/topic/740
)
chapter01_crashcourse/softmax-regression-scratch.md
浏览文件 @
a71d2985
...
...
@@ -219,4 +219,4 @@ print(get_text_labels(predicted_labels.asnumpy()))
请仔细想想再去对比下我们小伙伴之一@
[
pluskid
](
https://github.com/pluskid
)
早年写的一篇
[
blog解释这个问题
](
http://freemind.pluskid.org/machine-learning/softmax-vs-softmax-loss-numerical-stability/
)
,看看你想的是不是不一样。
**吐槽和讨论欢迎点
[这里](https://discuss.gluon.ai/t/topic/741)**
**吐槽和讨论欢迎点
**
[
这里
](
https://discuss.gluon.ai/t/topic/741
)
chapter02_multilayer-neural-network/mlp-gluon.md
浏览文件 @
a71d2985
...
...
@@ -61,4 +61,4 @@ for epoch in range(5):
-
尝试多加入几个隐含层,对比从0开始的实现。
-
尝试使用一个另外的激活函数,可以使用
`help(nd.Activation)`
或者
[
线上文档
](
https://mxnet.apache.org/api/python/ndarray.html#mxnet.ndarray.Activation
)
查看提供的选项。
**吐槽和讨论欢迎点
[这里](https://discuss.gluon.ai/t/topic/739)**
**吐槽和讨论欢迎点
**
[
这里
](
https://discuss.gluon.ai/t/topic/738
)
chapter02_multilayer-neural-network/mlp-scratch.md
浏览文件 @
a71d2985
...
...
@@ -115,3 +115,5 @@ for epoch in range(5):
-
我们使用了
`weight_scale`
来控制权重的初始化值大小,增大或者变小这个值会怎么样?
-
尝试改变
`num_hiddens`
来控制模型的复杂度
-
尝试加入一个新的隐含层
**吐槽和讨论欢迎点**
[
这里
](
https://discuss.gluon.ai/t/topic/739
)
chapter04_convolutional-neural-networks/cnn-gluon.md
浏览文件 @
a71d2985
...
...
@@ -78,4 +78,4 @@ for epoch in range(5):
```
**吐槽和讨论欢迎点
[这里](https://discuss.gluon.ai/t/topic/737)**
**吐槽和讨论欢迎点
**
[
这里
](
https://discuss.gluon.ai/t/topic/737
)
chapter04_convolutional-neural-networks/cnn-scratch.md
浏览文件 @
a71d2985
...
...
@@ -226,4 +226,4 @@ for epoch in range(5):
-
如果你有GPU,那么尝试用CPU来跑一下看看
-
你可能注意到比前面的多层感知机慢了很多,那么尝试计算下这两个模型分别需要多少浮点计算。例如$n
\t
imes m$和$m
\t
imes k$的矩阵乘法需要浮点运算 $2nmk$。
**吐槽和讨论欢迎点
[这里](https://discuss.gluon.ai/t/topic/736)**
**吐槽和讨论欢迎点
**
[
这里
](
https://discuss.gluon.ai/t/topic/736
)
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录