提交 c2507cbb 编写于 作者: W wizardforcel

2019-11-02 18:38:11

上级 98da2ba6
......@@ -73,16 +73,12 @@
当我们处理离散计数时,也会使用伯努利模型。 与多项式情况不同,这里我们在计算是否发生了特征。 例如,我们可能要检查“ count”一词是否在此页面上全部出现。 当特征只有两个可能的值(例如红色或蓝色)时,我们也可以使用伯努利模型。 图 4 显示了我们可能在伯努利模型中使用的数据种类。
<caption>**Figure 4\. A table of word appearances on this page**</caption> | 字 | 当下? |
| --- | --- |
| 代数 | 假 |
| --- | --- |
| 大 | 真正 |
| --- | --- |
| 计数 | 真正 |
| --- | --- |
| 数据 | 真正 |
| 单词 | 出现? |
| --- | --- |
| Algebra | 假 |
| Big | 真 |
| Count | 真 |
| Data | 真 |
相关代码可在 [bernoulli.py](https://github.com/machinelearningmindset/machine-learning-course/blob/master/code/supervised/Naive_Bayes/bernoulli.py) 文件中找到。
......
......@@ -58,7 +58,7 @@
* **线性**
* **多项式**
* **径向基函数(RBF)**
* **径向基函数**(RBF)
您可以通过将“ model = svm.SVC(kernel ='linear',C = 10000)”中的 kernel 值更改为“ poly”或“ rbf”来查看这些核如何改变最佳超平面的结果。 这是在 linear_svm.py 中。
......
......@@ -4,7 +4,7 @@
## 概述
在先前的模块中,我们讨论了监督学习主题。 我们现在准备继续进行**无监督学习**,我们的目标将有很大的不同。 在监督学习中,我们尝试将输入与某些现有模式进行匹配。 对于无监督学习,我们将尝试在未标记的原始数据集中发现模式。 我们看到有监督学习中经常出现分类问题,现在我们将研究无监督学习中的类似问题**聚类**
在先前的模块中,我们讨论了监督学习主题。 我们现在准备继续进行**无监督学习**,我们的目标将有很大的不同。 在监督学习中,我们尝试将输入与某些现有模式进行匹配。 对于无监督学习,我们将尝试在未标记的原始数据集中发现模式。 我们看到有监督学习中经常出现分类问题,现在我们将研究无监督学习中的类似问题**:聚类**
## 聚类
......
......@@ -10,12 +10,12 @@
自编码器是一种神经网络,可模仿其输入并在其输出处生成确切的信息。 它们通常包括两部分:编码器和解码器。 编码器将输入转换为隐藏空间(隐藏层)。 然后,解码器将输入信息重建为输出。 有多种类型的自编码器:
* **不完整的自编码器:**在这种类型中,隐藏的尺寸小于输入的尺寸。 训练此类自编码器可捕获最突出的功能。 但是,在缺乏足够的训练数据的情况下使用过度参数化的架构会导致过拟合,并妨碍学习有价值的功能。 线性解码器可以用作 PCA。 但是,非线性函数的存在创建了更强大的降维模型。
* **正则化自编码器:**不会限制自编码器的尺寸和用于特征学习的隐藏层大小,将添加损失函数以防止过拟合。
* **稀疏自编码器:**稀疏自编码器允许表示信息瓶颈,而无需减小隐藏层的大小。 取而代之的是,它基于损失功能对层内的激活进行惩罚。
* **去噪自编码器(DAE):**我们希望自编码器足够灵敏以重新生成原始输入,但不严格敏感,因此该模型可以学习通用的编码和解码。 该方法是将不显着地损坏了一些噪声与未损坏的数据作为目标输出的输入数据..
* **压缩自编码器(CAE):**在这种类型的自编码器中,对于较小的输入变化,编码后的特征也应该非常相似。 去噪自编码器强制重建功能抵抗输入的微小变化,而收缩式自编码器强制编码器抵抗输入扰动。
* **可变自编码器:**可变自编码器(VAE)提出了一种概率方式,用于解释在隐藏空间中的观察。 因此,不是创建一个编码器来生成代表每个潜在特征的值,而是为每个隐藏特征生成一个概率分布。
* **不完整的自编码器**在这种类型中,隐藏的尺寸小于输入的尺寸。 训练此类自编码器可捕获最突出的功能。 但是,在缺乏足够的训练数据的情况下使用过度参数化的架构会导致过拟合,并妨碍学习有价值的功能。 线性解码器可以用作 PCA。 但是,非线性函数的存在创建了更强大的降维模型。
* **正则化自编码器**不会限制自编码器的尺寸和用于特征学习的隐藏层大小,将添加损失函数以防止过拟合。
* **稀疏自编码器**稀疏自编码器允许表示信息瓶颈,而无需减小隐藏层的大小。 取而代之的是,它基于损失功能对层内的激活进行惩罚。
* **去噪自编码器(DAE)**我们希望自编码器足够灵敏以重新生成原始输入,但不严格敏感,因此该模型可以学习通用的编码和解码。 该方法是将不显着地损坏了一些噪声与未损坏的数据作为目标输出的输入数据..
* **压缩自编码器(CAE)**在这种类型的自编码器中,对于较小的输入变化,编码后的特征也应该非常相似。 去噪自编码器强制重建功能抵抗输入的微小变化,而收缩式自编码器强制编码器抵抗输入扰动。
* **可变自编码器**可变自编码器(VAE)提出了一种概率方式,用于解释在隐藏空间中的观察。 因此,不是创建一个编码器来生成代表每个潜在特征的值,而是为每个隐藏特征生成一个概率分布。
在本文中,我们将在 TensorFlow 中设计一个欠完善的自编码器,以训练低维表示形式。
......@@ -47,7 +47,7 @@ def autoencoder(inputs):
![../../_images/ae.png](img/56a6de2c59a331bbba1999d81ea38c2d.jpg)
**图 1:**自编码器
**图 1**自编码器
MNIST 数据集包含 28X28 的矢量图像。 因此,我们定义了一个新功能,将每批 MNIST 图像的形状调整为 28X28,然后调整为 32X32。 调整为 32X32 大小的原因是使其具有 2 的幂,因此我们可以轻松地使用 2 的步幅进行下采样和上采样。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册