提交 ca5467be 编写于 作者: W wizardforcel

2021-01-02 16:10:56

上级 250bc064
......@@ -205,7 +205,7 @@ DBN 也有许多有趣的应用程序,例如:
... return tf.cast(distribution.sample(), tf.float32)
```
现在我们能够计算吉布斯采样前后的可见输入和条件概率 *P(h | v)*,我们可以计算梯度,包括![](img/672584aa-4b9b-4feb-9717-4b072ab2f22a.png) *,Δa=`v[0]`-v <sub> k </sub>**Δb= P(h | v <sup>(0)</sup>)-P(h | v <sup>(k)</sup> )*,如下所示:
现在我们能够计算吉布斯采样前后的可见输入和条件概率`P(h | v)`,我们可以计算梯度,包括![](img/672584aa-4b9b-4feb-9717-4b072ab2f22a.png)`Δa = v[0] - v[k]``Δb = P(h | v^(k)) - P(h | v^(k))`,如下所示:
```py
>>> def _compute_gradients(self, v0, prob_h_v0, vk, prob_h_vk):
......@@ -1194,7 +1194,7 @@ DAE 通常用于神经网络预训练,其中提取的鲁棒表示形式用作
# 压缩自编码器
我们将学习的最后一种自编码器是压缩自编码器。 它们与稀疏兄弟相似,因为它们增加了惩罚项以学习更强大的表示形式。 但是,惩罚项更为复杂,可以如下推导,其中 *`h[j]`**j <sup>th</sup>* 单位 隐藏层的输出,`W`是编码器的权重, *W <sub>ij</sub>* 是连接 *i <sup>th</sup> 的权重* 输入单元,以及 *j <sup>th</sup>* 隐藏单元
我们将学习的最后一种自编码器是压缩自编码器。 它们与稀疏兄弟相似,因为它们增加了惩罚项以学习更强大的表示形式。 但是,惩罚项更为复杂,可以如下推导,其中 *`h[j]`**j <sup>th</sup>* 单位 隐藏层的输出,`W`是编码器的权重,`W[ij]`是连接第`i`个输入单元,以及第`j`个隐藏单元的权重
![](img/3819616b-4468-43f3-b392-72d7523ae417.png)
......
......@@ -625,11 +625,11 @@ YOLO 中使用的损失函数可分为四个部分:
![](img/93c36209-1288-4964-b35e-b1a8b03d31fa.png)
在此, *s <sub>min</sub>* 是最低特征图的比例, *s <sub>max</sub>* 是最高特征图的比例。 然后,默认框的高度和宽度由以下关系定义:
在此, `s_min`是最低特征图的比例, `s_max`是最高特征图的比例。 然后,默认框的高度和宽度由以下关系定义:
![](img/d3f41649-c78b-4cd0-8e69-d67a555b0e87.png)
以下屏幕快照说明了使用 8 x 8 功能图和 4 x 4 功能图进行 SSD 预测。 p 类的边界框偏移,![](img/6cce1fd5-4fbe-48fc-9de8-b0b5e2b97697.png)和类分数( *c <sub> 1 </sub>*`c`<sub>`2`</sub> ...., *c <sub> p </sub>* )的预测:
以下屏幕快照说明了使用 8 x 8 功能图和 4 x 4 功能图进行 SSD 预测。 p 类的边界框偏移,![](img/6cce1fd5-4fbe-48fc-9de8-b0b5e2b97697.png)和类分数(`c[1], c[2], ..., c[p]`)的预测:
![](img/5b9fce5d-d17d-4e37-9c44-665f6047ddf6.png)
......
......@@ -431,7 +431,7 @@ LSTM 的体系结构的神奇之处在于:在普通循环单元的顶部,增
在上图中从左到右,主要组成部分说明如下:
* ![](img/d2eddb1c-c3ef-49c6-810f-28dc26e845eb.png)**存储单元**,它从输入序列的最开始就存储上下文。
* `f`表示**遗忘门**,它控制来自前一存储状态![](img/ae610622-83d8-4566-a185-a21c8466adb2.png)的多少信息可以向前传递。 与忘记门相关的权重包括 W <sup>f</sup> ,它与先前的隐藏状态 *S <sub> t-1 </sub>**连接* 和 u <sup>f</sup> 与电流输入![](img/c064f4b1-75e0-4b00-a34d-6f3b50982fa1.png)连接。
* `f`表示**遗忘门**,它控制来自前一存储状态![](img/ae610622-83d8-4566-a185-a21c8466adb2.png)的多少信息可以向前传递。 与忘记门相关的权重包括 W <sup>f</sup> ,它与先前的隐藏状态`S[t-1]`*连接*`u[f]`与电流输入![](img/c064f4b1-75e0-4b00-a34d-6f3b50982fa1.png)连接。
* `i`代表**输入门**,它确定当前输入可以通过多少信息。 权重![](img/8cd433d7-2c2f-4642-a2e8-7ddf1183a5dc.png)和![](img/148eead3-586f-48da-aa64-d1a420cf60a2.png)分别将其与先前的隐藏状态和当前输入相连。
* **tanh** 只是隐藏状态的激活函数,并且基于当前输入![](img/a1163f30-f030-4a68-bef6-f1dc1e0af040.png)和先前的隐藏状态![](img/c3fdb075-55bf-414d-87a6-7ab49d707585.png)及其相应的权重![](img/385579ed-f3c0-4acd-9235-470929e0ad56.png)和![](img/55810aa2-f8f7-4e8f-a33a-ed7b829e01c1.png)进行计算。 它与香草 RNN 中的“ a”完全相同。
* `o`用作**输出门**,它定义了将内部存储器中的多少信息用作整个循环单元的输出。 同样,![](img/6f080896-cb2d-48a6-8b99-1f850b583c7f.png)和![](img/9c6a729e-ea1c-44e8-b39d-4a42a525aa43.png)是关联的权重。
......@@ -623,11 +623,11 @@ DJIA 由 30 只大型和重要股票(例如 Apple,IBM,GE 和 Goldman Sachs
将价格时间序列表示为 *`x[1]`,`x[2]`。 。 。 。,`x[n]`* (N = 4276),并以`T`= 5 为例。 通过这样做,我们可以创建训练样本,如下所示:
| **输入** | **输出** |
| *{`x[1]`,`x[2]`,`x[3]`,`x[4]`,`x[5]`}* | *`x[6]`* |
| *{`x[2]`,`x[3]`,`x[4]`,`x[5]`,`x[6]`}* | *`x[7]`* |
| *{`x[3]`,`x[4]`,`x[5]`,`x[6]`,`x[7]`}* | *`x[8]`* |
| `{x[1], x[2], x[3], x[4], x[5]}` | `x[6]` |
| `{x[2], x[3], x[4], x[5], x[6]}` | `x[7]` |
| `{x[3], x[4], x[5], x[6], x[7]}` | `x[8]` |
| ...... | ... |
| *{x <sub>n-1</sub> ,x <sub>N-4</sub> ,x <sub>N-3</sub> ,x <sub>N-2</sub> ,x <sub>N-1</sub> }* | *`x[n]`* |
| `{x[n - 1], x[n - 2], x[n - 3], x[n - 4], x[n - 5]}` | `x[n]` |
在这里,我们通过回顾前 5 个交易日(一周)来预测第二天的价格。 我们还在网络中对其进行了描述:
......
......@@ -719,9 +719,9 @@ CGAN 认为条件变量是已知的。 因此,在训练期间将条件变量
那么,InfoGAN 如何学习潜在功能? 顾名思义,它们是通过最大化信息来实现的,信息是指信息论中的互信息。 我们希望最大化`c`与生成器生成的输出之间的相互信息。 InfoGAN 的`loss`功能可以概括如下:
*L <sub>InfoGAN</sub> (D,G)= L(D,G)-I(c,G(z,c))*
`L_InfoGAN = (D, G) = L(D, G) - I(c, G(z, c))`
此处, *L(D,G)*是常规 GAN 中的`loss`函数, *I(c,G(z,c))**c 之间的互信息* 和生成的输出。 更准确地,将 P( *c | G(z,c)*)预测为更高的 *I(c,G(z,c))*
此处,`L(D, G)`是常规 GAN 中的`loss`函数, *I(c,G(z,c))**c 之间的互信息* 和生成的输出。 更准确地,将 P( *c | G(z,c)*)预测为更高的 *I(c,G(z,c))*
互信息 *I(a,b)*衡量如果我们知道`b`,我们对`a`的了解程度。 *P(a | b)(或 P(b | a))*预测得越准确, *I(a,b)*越高。 *I(a,b)= 0* 表示`a``b`完全无关。
......
......@@ -20,7 +20,7 @@ LBP 是一种灰度图像阈值操作,用于基于不同的模式对图像进
LBP 模式生成的主要步骤如下:
1. 将 RGB 图像 A 转换为灰度图像 G。
2. 对于图像 G 中每个具有强度`I[c]`(x,y)的像素,选择`P`相邻点(`p[0]``p[1]`.. p <sub>P-1</sub> ),其半径[`I[0]``I[1]`.. I <sub>P-1</sub>具有相应的强度。`R`。 半径以像素为单位定义为两个像素之间的差。 像素和相邻点代表图像 G 的滑动窗口 W。对于半径 R = 1,P 变为 8,如下所示。
2. 对于图像 G 中每个具有强度`I[c]`(x,y)的像素,选择`P`相邻点(`p[0], p[1], ..., p[P-1]`),其半径`[I[0], I[1], ..., I[P-1]`具有相应的强度。`R`。 半径以像素为单位定义为两个像素之间的差。 像素和相邻点代表图像 G 的滑动窗口 W。对于半径 R = 1,P 变为 8,如下所示。
滑动窗口`W[0]`用![](img/da8626a4-00d9-4c10-8f2c-bc2209a48071.png)表示为数组。 在这里,点 0 到 P-1 代表围绕中心像素 c 的 P 个点的强度:
......@@ -32,7 +32,7 @@ LBP 模式生成的主要步骤如下:
3. 计算相邻像素和中心像素之间的强度差,并删除第一个值 0。该数组可以表示如下:
*`W[1]`〜[`I[0]`-`I[c]`,`I[1]`-`I[c]`,。 .I <sub>P-1</sub> -`I[c]`]*
`W[1] ~ [I[0] - I[c], I[1] - I[c], ..., I[P-1] - I[c]]`
4. 现在,对图像进行阈值处理。 为此,如果强度差小于 0,则将值分配为 0;如果强度差大于 0,则将值分配为 1,如以下等式所示:
......@@ -40,7 +40,7 @@ LBP 模式生成的主要步骤如下:
应用阈值函数`f`之后的差数组如下:
*`W[2]`= [f(`I[0]`-`I[c]`),f(`I[1]`-`I[c]`),.. f(I <sub>P-1</sub> -`I[c]`)*
`W[2] = [f(I[0] - I[c]), f(I[1] - I[c]), ..., f(I[P-1] - I[c])`
例如,假设第一个差异小于 0 且第二个和最后一个差异大于 0,则数组可以表示如下:
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册