diff --git a/SUMMARY.md b/SUMMARY.md index e2be43abb7a914d5bf65c3c7348edbd3696d723f..8a7d01457d8606f36a1cfe84adb5ab34b536005f 100644 --- a/SUMMARY.md +++ b/SUMMARY.md @@ -173,33 +173,33 @@ + [第16章_推荐系统](docs/ml/16.md) + [为何录制教学版视频](docs/why-to-record-study-ml-video.md) + [2017-04-08_第一期的总结](docs/report/2017-04-08.md) -+ [莫烦 PyTorch 系列教程](docs/pytorch/README.md) ++ [PyTorch](docs/pytorch/README.md) + [PyTorch 简介](docs/pytorch/01.md) - + [[莫烦 PyTorch 系列教程] 1.1 – Why PyTorch?](docs/pytorch/02.md) - + [[莫烦 PyTorch 系列教程] 1.2 – 安装 PyTorch](docs/pytorch/03.md) + + [1.1 – Why PyTorch?](docs/pytorch/02.md) + + [1.2 – 安装 PyTorch](docs/pytorch/03.md) + [PyTorch 神经网络基础](docs/pytorch/04.md) - + [[莫烦 PyTorch 系列教程] 2.1 – Torch vs Numpy](docs/pytorch/05.md) - + [[莫烦 PyTorch 系列教程] 2.2 – 变量 (Variable)](docs/pytorch/06.md) - + [[莫烦 PyTorch 系列教程] 2.3 – 激励函数 (Activation)](docs/pytorch/07.md) + + [2.1 – Torch vs Numpy](docs/pytorch/05.md) + + [2.2 – 变量 (Variable)](docs/pytorch/06.md) + + [2.3 – 激励函数 (Activation)](docs/pytorch/07.md) + [建造第一个神经网络](docs/pytorch/08.md) - + [[莫烦 PyTorch 系列教程] 3.1 – 关系拟合 (回归 Regression)](docs/pytorch/09.md) - + [[莫烦 PyTorch 系列教程] 3.2 – 区分类型 (分类 Classification)](docs/pytorch/10.md) - + [[莫烦 PyTorch 系列教程] 3.3 – 快速搭建回归神经网络](docs/pytorch/11.md) - + [[莫烦 PyTorch 系列教程] 3.4 – 保存和恢复模型](docs/pytorch/12.md) - + [[莫烦 PyTorch 系列教程] 3.5 – 数据读取 (Data Loader)](docs/pytorch/13.md) - + [[莫烦 PyTorch 系列教程] 3.6 – 优化器 (Optimizer)](docs/pytorch/14.md) + + [3.1 – 关系拟合 (回归 Regression)](docs/pytorch/09.md) + + [3.2 – 区分类型 (分类 Classification)](docs/pytorch/10.md) + + [3.3 – 快速搭建回归神经网络](docs/pytorch/11.md) + + [3.4 – 保存和恢复模型](docs/pytorch/12.md) + + [3.5 – 数据读取 (Data Loader)](docs/pytorch/13.md) + + [3.6 – 优化器 (Optimizer)](docs/pytorch/14.md) + [高级神经网络结构](docs/pytorch/15.md) - + [[莫烦 PyTorch 系列教程] 4.1 – CNN 卷积神经网络](docs/pytorch/16.md) - + [[莫烦 PyTorch 系列教程] 4.2 – RNN 循环神经网络 (分类 Classification)](docs/pytorch/17.md) - + [[莫烦 PyTorch 系列教程] 4.3 – RNN 循环神经网络 (回归 Regression)](docs/pytorch/18.md) - + [[莫烦 PyTorch 系列教程] 4.4 – AutoEncoder (自编码/非监督学习)](docs/pytorch/19.md) - + [[莫烦 PyTorch 系列教程] 4.5 – DQN 强化学习 (Reinforcement Learning)](docs/pytorch/20.md) - + [[莫烦 PyTorch 系列教程] 4.6 – GAN (Generative Adversarial Nets 生成对抗网络)](docs/pytorch/21.md) + + [4.1 – CNN 卷积神经网络](docs/pytorch/16.md) + + [4.2 – RNN 循环神经网络 (分类 Classification)](docs/pytorch/17.md) + + [4.3 – RNN 循环神经网络 (回归 Regression)](docs/pytorch/18.md) + + [4.4 – AutoEncoder (自编码/非监督学习)](docs/pytorch/19.md) + + [4.5 – DQN 强化学习 (Reinforcement Learning)](docs/pytorch/20.md) + + [4.6 – GAN (Generative Adversarial Nets 生成对抗网络)](docs/pytorch/21.md) + [高阶内容](docs/pytorch/22.md) - + [[莫烦 PyTorch 系列教程] 5.1 – 为什么 Torch 是动态的](docs/pytorch/23.md) - + [[莫烦 PyTorch 系列教程] 5.2 – GPU 加速运算](docs/pytorch/24.md) - + [[莫烦 PyTorch 系列教程] 5.3 – Dropout 防止过拟合](docs/pytorch/25.md) - + [[莫烦 PyTorch 系列教程] 5.4 – Batch Normalization 批标准化](docs/pytorch/26.md) + + [5.1 – 为什么 Torch 是动态的](docs/pytorch/23.md) + + [5.2 – GPU 加速运算](docs/pytorch/24.md) + + [5.3 – Dropout 防止过拟合](docs/pytorch/25.md) + + [5.4 – Batch Normalization 批标准化](docs/pytorch/26.md) + 深度学习入门 + [反向传递](docs/dl/反向传递.md) + [CNN原理](docs/dl/CNN原理.md) diff --git a/docs/pytorch/02.md b/docs/pytorch/02.md index 4440c4a642b017f09b65bbde1f2116ba9c153e6a..5417e7bf3d4c6c9978c59d0fb2a43174806898a2 100644 --- a/docs/pytorch/02.md +++ b/docs/pytorch/02.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 1.1 – Why PyTorch? +# 1.1 – Why PyTorch? ## 为什么用 PyTorch diff --git a/docs/pytorch/03.md b/docs/pytorch/03.md index 147499efc4d48aefff36511516cf3380e8f484a9..bf64b37a3b39a9413262ca06f21136afec648d0f 100644 --- a/docs/pytorch/03.md +++ b/docs/pytorch/03.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 1.2 – 安装 PyTorch +# 1.2 – 安装 PyTorch ## 支持的系统 diff --git a/docs/pytorch/05.md b/docs/pytorch/05.md index 6267ecf6551c4bc4eab52c8077837260e780991c..005300cae6aede68becb26c7772c5ca865bd4dd9 100644 --- a/docs/pytorch/05.md +++ b/docs/pytorch/05.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 2.1 – Torch vs Numpy +# 2.1 – Torch vs Numpy ## 用 Numpy 还是 Torch diff --git a/docs/pytorch/06.md b/docs/pytorch/06.md index 5e2e4006c5b427ed030c9f651e5baaadb63015d6..51ff5b3b1e90725725681e89658717742b55d844 100644 --- a/docs/pytorch/06.md +++ b/docs/pytorch/06.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 2.2 – 变量 (Variable) +# 2.2 – 变量 (Variable) ## 什么是 Variable diff --git a/docs/pytorch/07.md b/docs/pytorch/07.md index a69986c3a6a35bca4fa052b788531e2613c7ebd9..f0323fb4f653c6cdab22f834f5a05fdae1107854 100644 --- a/docs/pytorch/07.md +++ b/docs/pytorch/07.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 2.3 – 激励函数 (Activation) +# 2.3 – 激励函数 (Activation) ## 什么是 Activation diff --git a/docs/pytorch/09.md b/docs/pytorch/09.md index 084789e67022e23805879ce8c1f59498360dab60..6469a93f1839bd1c050673dd2f1eb05b7a27087d 100644 --- a/docs/pytorch/09.md +++ b/docs/pytorch/09.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 3.1 – 关系拟合 (回归 Regression) +# 3.1 – 关系拟合 (回归 Regression) 我会这次会来见证神经网络是如何通过简单的形式将一群数据用一条线条来表示. 或者说, 是如何在数据当中找到他们的关系, 然后用神经网络模型来建立一个可以代表他们关系的线条. diff --git a/docs/pytorch/10.md b/docs/pytorch/10.md index 4d19bdbc76da0bc12ba8c4ca694d96d04a4f00b4..6548bd06e6ea6c658f26c8d52acb401eb597ad0f 100644 --- a/docs/pytorch/10.md +++ b/docs/pytorch/10.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 3.2 – 区分类型 (分类 Classification) +# 3.2 – 区分类型 (分类 Classification) 这次我们也是用最简单的途径来看看神经网络是怎么进行事物的分类. diff --git a/docs/pytorch/11.md b/docs/pytorch/11.md index 348f809f402bb0978734dcf7243d2106e7184d55..d166a9c5165cd323df02c20f292f235f50440970 100644 --- a/docs/pytorch/11.md +++ b/docs/pytorch/11.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 3.3 – 快速搭建回归神经网络 +# 3.3 – 快速搭建回归神经网络 Torch 中提供了很多方便的途径, 同样是神经网络, 能快则快, 我们看看如何用更简单的方式搭建同样的回归神经网络. diff --git a/docs/pytorch/12.md b/docs/pytorch/12.md index 1753d5d75dffaabdda045d14eb6ad6262eafad5d..4054510059b2cab581709a9cb24e5b5ad793455a 100644 --- a/docs/pytorch/12.md +++ b/docs/pytorch/12.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 3.4 – 保存和恢复模型 +# 3.4 – 保存和恢复模型 训练好了一个模型, 我们当然想要保存它, 留到下次要用的时候直接提取直接用, 这就是这节的内容啦. 我们用回归的神经网络举例实现保存提取. diff --git a/docs/pytorch/13.md b/docs/pytorch/13.md index eebda76f8c2c0bc5f7bd43252452c29372a59c02..cfcf29b63732cbf9744544d5b1632a205603e25a 100644 --- a/docs/pytorch/13.md +++ b/docs/pytorch/13.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 3.5 – 数据读取 (Data Loader) +# 3.5 – 数据读取 (Data Loader) DataLoader  是 torch 给你用来包装你的数据的工具. 所以你要讲自己的 (numpy array 或其他) 数据形式装换成 Tensor, 然后再放进这个包装器中. 使用 DataLoader  有什么好处呢? 就是他们帮你有效地迭代数据, 举例: diff --git a/docs/pytorch/14.md b/docs/pytorch/14.md index 1e3b5885e36c7c777586e15cac745275ebd00052..723027a9dd4d4a6e9140f58e252693924060d9b3 100644 --- a/docs/pytorch/14.md +++ b/docs/pytorch/14.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 3.6 – 优化器 (Optimizer) +# 3.6 – 优化器 (Optimizer) 这节内容主要是用 Torch 实践几种优化器, 这几种优化器具体的优势不会在这个节内容中说了, 所以想快速了解的话, 上面的那个动画链接是很好的去处. diff --git a/docs/pytorch/16.md b/docs/pytorch/16.md index 802f7de12d285914c6f2be9d46b1e76034c675e9..3eacd13628a9d4cf52cf4983eb8faeb664c9eb25 100644 --- a/docs/pytorch/16.md +++ b/docs/pytorch/16.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 4.1 – CNN 卷积神经网络 +# 4.1 – CNN 卷积神经网络 卷积神经网络目前被广泛地用在图片识别上, 已经有层出不穷的应用, 如果你对卷积神经网络还没有特别了解, 我制作的 卷积神经网络 动画简介 (如下) 能让你花几分钟就了解什么是卷积神经网络. 接着我们就一步一步做一个分析手写数字的 CNN 吧. diff --git a/docs/pytorch/17.md b/docs/pytorch/17.md index 9e3818025f939c505891c0086bca2a4c16303dd4..b9a8e6c4e25d11d47a2823a3a753ba812e98e0d7 100644 --- a/docs/pytorch/17.md +++ b/docs/pytorch/17.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 4.2 – RNN 循环神经网络 (分类 Classification) +# 4.2 – RNN 循环神经网络 (分类 Classification) 循环神经网络让神经网络有了记忆, 对于序列话的数据,循环神经网络能达到更好的效果. 如果你对循环神经网络还没有特别了解, 请观看几分钟的短动画, RNN 动画简介(如下) 和 LSTM(如下) 动画简介 能让你生动理解 RNN. 接着我们就一步一步做一个分析手写数字的 RNN 吧. diff --git a/docs/pytorch/18.md b/docs/pytorch/18.md index 0852c6eea123ee98f819742f2b636569d98ff750..577beb5d7a09c8dd7b7c580191c7773ad1bee440 100644 --- a/docs/pytorch/18.md +++ b/docs/pytorch/18.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 4.3 – RNN 循环神经网络 (回归 Regression) +# 4.3 – RNN 循环神经网络 (回归 Regression) 循环神经网络让神经网络有了记忆, 对于序列话的数据,循环神经网络能达到更好的效果. 如果你对循环神经网络还没有特别了解, 请观看几分钟的短动画,RNN 动画简介(如下) 和 LSTM(如下)动画简介 能让你生动理解 RNN. 上次我们提到了用 RNN 的最后一个时间点输出来判断之前看到的图片属于哪一类, 这次我们来真的了, 用 RNN 来及时预测时间序列. diff --git a/docs/pytorch/19.md b/docs/pytorch/19.md index 7bdef0f7588a1457ee9ef42ce381fa10ec01f800..44abe037c8ed0752ca21421e6a21f39774c4cf3d 100644 --- a/docs/pytorch/19.md +++ b/docs/pytorch/19.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 4.4 – AutoEncoder (自编码/非监督学习) +# 4.4 – AutoEncoder (自编码/非监督学习) 神经网络也能进行非监督学习, 只需要训练数据, 不需要标签数据. 自编码就是这样一种形式. 自编码能自动分类数据, 而且也能嵌套在半监督学习的上面, 用少量的有标签样本和大量的无标签样本学习. diff --git a/docs/pytorch/20.md b/docs/pytorch/20.md index b4f13eb0776cc7c0c4c4f9248b62d152cc555afa..c24227862c9257b355140bdd7e42bc3dc165478f 100644 --- a/docs/pytorch/20.md +++ b/docs/pytorch/20.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 4.5 – DQN 强化学习 (Reinforcement Learning) +# 4.5 – DQN 强化学习 (Reinforcement Learning) Torch 是神经网络库, 那么也可以拿来做强化学习, 之前我用另一个强大神经网络库 Tensorflow来制作了这一个 从浅入深强化学习教程, 你同样也可以用 PyTorch 来实现, 这次我们就举 DQN 的例子, 我对比了我的 Tensorflow DQN 的代码, 发现 PyTorch 写的要简单很多. 如果对 DQN 或者强化学习还没有太多概念, 强烈推荐我的这个DQN动画短片(如下), 让你秒懂DQN. 还有强推这套花了我几个月来制作的[强化学习教程](https://www.pytorchtutorial.com/goto/https://morvanzhou.github.io/tutorials/machine-learning/reinforcement-learning/)! diff --git a/docs/pytorch/21.md b/docs/pytorch/21.md index e42310f4006139feaaf50d4d3b9020961a316ad8..75a89299715bd23fd7b3d291029945c733bbb739 100644 --- a/docs/pytorch/21.md +++ b/docs/pytorch/21.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 4.6 – GAN (Generative Adversarial Nets 生成对抗网络) +# 4.6 – GAN (Generative Adversarial Nets 生成对抗网络) GAN 是一个近几年比较流行的生成网络形式. 对比起传统的生成模型, 他减少了模型限制和生成器限制, 他具有有更好的生成能力. 人们常用假钞鉴定者和假钞制造者来打比喻, 但是我不喜欢这个比喻, 觉得没有真实反映出 GAN 里面的机理. diff --git a/docs/pytorch/23.md b/docs/pytorch/23.md index 1cdf42584bf509f4396c83c67d2ef243e1796475..e30563f0541e89f05e05a943a4a80f58bf8c9422 100644 --- a/docs/pytorch/23.md +++ b/docs/pytorch/23.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 5.1 – 为什么 Torch 是动态的 +# 5.1 – 为什么 Torch 是动态的 听说过 Torch 的人都听说了 torch 是动态的, 那他的动态到底是什么呢? 我们用一个 RNN 的例子来展示一下动态计算到底长什么样. diff --git a/docs/pytorch/24.md b/docs/pytorch/24.md index 58cb31ef12f4992f8ef8ea593202092a3fcaf426..fc153622737c1d9fee429fa81a045c170dfbae27 100644 --- a/docs/pytorch/24.md +++ b/docs/pytorch/24.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 5.2 – GPU 加速运算 +# 5.2 – GPU 加速运算 在 GPU 训练可以大幅提升运算速度. 而且 Torch 也有一套很好的 GPU 运算体系. 但是要强调的是: diff --git a/docs/pytorch/25.md b/docs/pytorch/25.md index bada45b1a9b9da0a2b1d16e9606acbd96bf503b3..38a34c92f066c0f997c4aa3fd284dff3760f86d6 100644 --- a/docs/pytorch/25.md +++ b/docs/pytorch/25.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 5.3 – Dropout 防止过拟合 +# 5.3 – Dropout 防止过拟合 过拟合让人头疼, 明明训练时误差已经降得足够低, 可是测试的时候误差突然飙升. 这很有可能就是出现了过拟合现象. 强烈推荐通过(下面)这个动画的形式短时间了解什么是过拟合, 怎么解决过拟合. 下面动图就显示了我们成功缓解了过拟合现象. diff --git a/docs/pytorch/26.md b/docs/pytorch/26.md index 866a5ceee3c18755014263a6ab9a1249166b210d..9a5bc2c03a0134bb0fd7706068b5a57733303c54 100644 --- a/docs/pytorch/26.md +++ b/docs/pytorch/26.md @@ -1,4 +1,4 @@ -# [莫烦 PyTorch 系列教程] 5.4 – Batch Normalization 批标准化 +# 5.4 – Batch Normalization 批标准化 批标准化通俗来说就是对每一层神经网络进行标准化 (normalize) 处理, 我们知道对输入数据进行标准化能让机器学习有效率地学习. 如果把每一层后看成这种接受输入数据的模式, 那我们何不 “批标准化” 所有的层呢? 具体而且清楚的解释请看到 我(原作者)制作的 什么批标准化 动画简介(推荐)(如下). diff --git a/docs/pytorch/SUMMARY.md b/docs/pytorch/SUMMARY.md index aa8e1fc57059ff59e628043c50366253df439ebb..2ee25f5552418190eef20c58978bce5791883bac 100644 --- a/docs/pytorch/SUMMARY.md +++ b/docs/pytorch/SUMMARY.md @@ -1,27 +1,27 @@ + [莫烦 PyTorch 系列教程](README.md) + [PyTorch 简介](01.md) - + [[莫烦 PyTorch 系列教程] 1.1 – Why PyTorch?](02.md) - + [[莫烦 PyTorch 系列教程] 1.2 – 安装 PyTorch](03.md) + + [1.1 – Why PyTorch?](02.md) + + [1.2 – 安装 PyTorch](03.md) + [PyTorch 神经网络基础](04.md) - + [[莫烦 PyTorch 系列教程] 2.1 – Torch vs Numpy](05.md) - + [[莫烦 PyTorch 系列教程] 2.2 – 变量 (Variable)](06.md) - + [[莫烦 PyTorch 系列教程] 2.3 – 激励函数 (Activation)](07.md) + + [2.1 – Torch vs Numpy](05.md) + + [2.2 – 变量 (Variable)](06.md) + + [2.3 – 激励函数 (Activation)](07.md) + [建造第一个神经网络](08.md) - + [[莫烦 PyTorch 系列教程] 3.1 – 关系拟合 (回归 Regression)](09.md) - + [[莫烦 PyTorch 系列教程] 3.2 – 区分类型 (分类 Classification)](10.md) - + [[莫烦 PyTorch 系列教程] 3.3 – 快速搭建回归神经网络](11.md) - + [[莫烦 PyTorch 系列教程] 3.4 – 保存和恢复模型](12.md) - + [[莫烦 PyTorch 系列教程] 3.5 – 数据读取 (Data Loader)](13.md) - + [[莫烦 PyTorch 系列教程] 3.6 – 优化器 (Optimizer)](14.md) + + [3.1 – 关系拟合 (回归 Regression)](09.md) + + [3.2 – 区分类型 (分类 Classification)](10.md) + + [3.3 – 快速搭建回归神经网络](11.md) + + [3.4 – 保存和恢复模型](12.md) + + [3.5 – 数据读取 (Data Loader)](13.md) + + [3.6 – 优化器 (Optimizer)](14.md) + [高级神经网络结构](15.md) - + [[莫烦 PyTorch 系列教程] 4.1 – CNN 卷积神经网络](16.md) - + [[莫烦 PyTorch 系列教程] 4.2 – RNN 循环神经网络 (分类 Classification)](17.md) - + [[莫烦 PyTorch 系列教程] 4.3 – RNN 循环神经网络 (回归 Regression)](18.md) - + [[莫烦 PyTorch 系列教程] 4.4 – AutoEncoder (自编码/非监督学习)](19.md) - + [[莫烦 PyTorch 系列教程] 4.5 – DQN 强化学习 (Reinforcement Learning)](20.md) - + [[莫烦 PyTorch 系列教程] 4.6 – GAN (Generative Adversarial Nets 生成对抗网络)](21.md) + + [4.1 – CNN 卷积神经网络](16.md) + + [4.2 – RNN 循环神经网络 (分类 Classification)](17.md) + + [4.3 – RNN 循环神经网络 (回归 Regression)](18.md) + + [4.4 – AutoEncoder (自编码/非监督学习)](19.md) + + [4.5 – DQN 强化学习 (Reinforcement Learning)](20.md) + + [4.6 – GAN (Generative Adversarial Nets 生成对抗网络)](21.md) + [高阶内容](22.md) - + [[莫烦 PyTorch 系列教程] 5.1 – 为什么 Torch 是动态的](23.md) - + [[莫烦 PyTorch 系列教程] 5.2 – GPU 加速运算](24.md) - + [[莫烦 PyTorch 系列教程] 5.3 – Dropout 防止过拟合](25.md) - + [[莫烦 PyTorch 系列教程] 5.4 – Batch Normalization 批标准化](26.md) \ No newline at end of file + + [5.1 – 为什么 Torch 是动态的](23.md) + + [5.2 – GPU 加速运算](24.md) + + [5.3 – Dropout 防止过拟合](25.md) + + [5.4 – Batch Normalization 批标准化](26.md) \ No newline at end of file