提交 e179f4c4 编写于 作者: W wizardforcel

2020-08-14 18:34:51

上级 83cacdcb
...@@ -412,8 +412,8 @@ for fig, row in zip([Xtest,out], axarr): ...@@ -412,8 +412,8 @@ for fig, row in zip([Xtest,out], axarr):
# 也可以看看 # 也可以看看
* [http://web.engr.illinois.edu/~hanj/cs412/bk3/KL-divergence.pdf](http://web.engr.illinois.edu/~hanj/cs412/bk3/KL-divergence.pdf) * <http://web.engr.illinois.edu/~hanj/cs412/bk3/KL-divergence.pdf>
* [https://en.wikipedia.org/wiki/Kullback%E2%80%93Leibler_divergence](https://en.wikipedia.org/wiki/Kullback%E2%80%93Leibler_divergence) * <https://en.wikipedia.org/wiki/Kullback%E2%80%93Leibler_divergence>
# 去噪自编码器 # 去噪自编码器
...@@ -612,8 +612,8 @@ for fig, row in zip([Xtest_noisy,out], axarr): ...@@ -612,8 +612,8 @@ for fig, row in zip([Xtest_noisy,out], axarr):
# 也可以看看 # 也可以看看
* [https://cs.stanford.edu/people/karpathy/convnetjs/demo/autoencoder.html](https://cs.stanford.edu/people/karpathy/convnetjs/demo/autoencoder.html) * <https://cs.stanford.edu/people/karpathy/convnetjs/demo/autoencoder.html>
* [http://blackecho.github.io/blog/machine-learning/2016/02/29/denoising-autoencoder-tensorflow.html](http://blackecho.github.io/blog/machine-learning/2016/02/29/denoising-autoencoder-tensorflow.html) * <http://blackecho.github.io/blog/machine-learning/2016/02/29/denoising-autoencoder-tensorflow.html>
# 卷积汽车编码器 # 卷积汽车编码器
...@@ -784,14 +784,14 @@ sess.close() ...@@ -784,14 +784,14 @@ sess.close()
# 还有更多... # 还有更多...
研究人员已将 CAE 用于语义分割。 有趣的读物是 Badrinayanan 等人在 2015 年发表的论文 Segnet:*一种用于图像分割的深度卷积编码器-解码器体系结构*[https://arxiv.org/pdf/1511.00561.pdf](https://arxiv.org/pdf/1511.00561.pdf)。 该网络使用 VGG16 的卷积层作为其编码器网络,并包含一层解码器,每个解码器对应一个解码器层次作为其解码器网络。 解码器使用从相应的编码器接收的最大池索引,并对输入特征图执行非线性上采样。 本文的链接在本食谱的另请参见部分以及 GitHub 链接中给出。 研究人员已将 CAE 用于语义分割。 有趣的读物是 Badrinayanan 等人在 2015 年发表的论文 [Segnet:一种用于图像分割的深度卷积编码器-解码器体系结构](https://arxiv.org/pdf/1511.00561.pdf)。 该网络使用 VGG16 的卷积层作为其编码器网络,并包含一层解码器,每个解码器对应一个解码器层次作为其解码器网络。 解码器使用从相应的编码器接收的最大池索引,并对输入特征图执行非线性上采样。 本文的链接在本食谱的另请参见部分以及 GitHub 链接中给出。
# 也可以看看 # 也可以看看
1. [https://distill.pub/2016/deconv-checkerboard/](https://distill.pub/2016/deconv-checkerboard/) 1. <https://distill.pub/2016/deconv-checkerboard/>
2. [https://pgaleone.eu/neural-networks/2016/11/24/convolutional-autoencoders/](https://pgaleone.eu/neural-networks/2016/11/24/convolutional-autoencoders/) 2. <https://pgaleone.eu/neural-networks/2016/11/24/convolutional-autoencoders/>
3. [https://arxiv.org/pdf/1511.00561.pdf](https://arxiv.org/pdf/1511.00561.pdf) 3. <https://arxiv.org/pdf/1511.00561.pdf>
4. [https://github.com/arahusky/Tensorflow-Segmentation](https://github.com/arahusky/Tensorflow-Segmentation) 4. <https://github.com/arahusky/Tensorflow-Segmentation>
# 堆叠式自编码器 # 堆叠式自编码器
...@@ -1005,7 +1005,7 @@ plt.ylabel('Fine Tuning Reconstruction Error') ...@@ -1005,7 +1005,7 @@ plt.ylabel('Fine Tuning Reconstruction Error')
# 也可以看看 # 也可以看看
* 关于堆叠式自编码器的一个不错的教程: [http://ufldl.stanford.edu/wiki/index.php/Stacked_Autoencoders](http://ufldl.stanford.edu/wiki/index.php/Stacked_Autoencoders) * [关于堆叠式自编码器的一个不错的教程](http://ufldl.stanford.edu/wiki/index.php/Stacked_Autoencoders)
* Schwenk,Holger。 “空中陀螺分类器。” 神经计算 10.8(1998):2175-2200。 * `Schwenk, Holger. "The diabolo classifier." Neural Computation 10.8 (1998): 2175-2200.`
* Sakurada,Mayu 和 Takehisa Yairi。 “使用具有非线性降维功能的自编码器进行异常检测。” MLSDA 2014 第二届机器学习的感官数据分析研讨会论文集。 ACM,2014 年。 * `Sakurada, Mayu, and Takehisa Yairi. "Anomaly detection using autoencoders with nonlinear dimensionality reduction." Proceedings of the MLSDA 2014 2nd Workshop on Machine Learning for Sensory Data Analysis. ACM, 2014.`
* 堆叠式自编码器的酷 TensorBoard 可视化和实现: [https://github.com/cmgreen210/TensorFlowDeepAutoencoder](https://github.com/cmgreen210/TensorFlowDeepAutoencoder) * [堆叠式自编码器的酷 TensorBoard 可视化和实现](https://github.com/cmgreen210/TensorFlowDeepAutoencoder)
\ No newline at end of file \ No newline at end of file
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册