提交 20b47e39 编写于 作者: W wizardforcel

2021-01-02 16:19:25

上级 ca5467be
......@@ -1488,7 +1488,7 @@ def nms(args, classes, offsets, anchors):
![](img/B14853_11_074.png) (Equation 11.13.1)
其中`b[i]`是地面真值边界框的数量`b[i]``n`<sub>pred [ HTG11 是预测边界框的数量`d[j]`。 请注意,该度量标准无法验证两个重叠的边界框是否属于同一类。 如果需要,则可以轻松修改代码。“列表 11.13.1”显示了代码实现。</sub>
其中`n_box`是地面真值边界框`b[i]`的数量和`n_pred`是预测边界框`d[j]`的数量。 请注意,该度量标准无法验证两个重叠的边界框是否属于同一类。 如果需要,则可以轻松修改代码。“列表 11.13.1”显示了代码实现。
第二个度量是**精度**,如“公式 11.3.2”所示。 它是正确预测的对象类别的数量(真阳性或 TP)除以正确预测的对象类别的数量(真阳性或 TP)与错误预测的对象类别的数量(假阳性或 FP)之和。 精度是衡量 SSD 正确识别图像中对象的性能的指标。 精度越接近 1.0 越好。
......
......@@ -343,7 +343,7 @@ segmentation_train.json
segmentation_test.json
```
无法原样使用存储在 JSON 文件中的多边形区域。 每个区域都必须转换成分割蒙版,即张量,其尺寸为*图像* <sub>宽度</sub> x *图像* <sub>高度</sub> x *像素**wise_category* 。 在此数据集中,分割蒙版的尺寸为 640 x 480 x4。类别 0 为背景,其余为 1)对于**水瓶**,2)对于**苏打水 罐**,以及 3)表示**果汁罐**。 在`utils`文件夹中,我们创建了一个`generate_gt_segmentation.py`工具,用于将 JSON 文件转换为分段掩码。 为了方便起见,用于训练和测试的地面真实数据存储在压缩数据集中,该数据集是从[上一章](https://bit.ly/adl2-ssd)下载的:
无法原样使用存储在 JSON 文件中的多边形区域。 每个区域都必须转换成分割蒙版,即张量,其尺寸为`img_w x img_h x px – wise_category`。 在此数据集中,分割蒙版的尺寸为 640 x 480 x 4。类别 0 为背景,其余为 1)对于**水瓶**,2)对于**苏打罐**,以及 3)表示**果汁罐**。 在`utils`文件夹中,我们创建了一个`generate_gt_segmentation.py`工具,用于将 JSON 文件转换为分段掩码。 为了方便起见,用于训练和测试的地面真实数据存储在压缩数据集中,该数据集是从[上一章](https://bit.ly/adl2-ssd)下载的:
```py
segmentation_train.npy
......
......@@ -178,7 +178,7 @@ Ji 等人的**不变信息聚类**(**IIC**)。 [1]建议从联合和边际
![](img/B14853_13_045.png) (Equation 13.3.2)
这将创建一个`N`x`N`矩阵![](img/B14853_13_046.png),其中每个元素`Z`<sub>ij</sub> 对应于同时观察两个元素的概率 随机变量![](img/B14853_13_047.png)。 如果对大批量进行此估计,则大样本均值将估计联合概率。
这将创建一个`N`x`N`矩阵![](img/B14853_13_046.png),其中每个元素`Z[ij]`对应于同时观察两个元素的概率 随机变量![](img/B14853_13_047.png)。 如果对大批量进行此估计,则大样本均值将估计联合概率。
由于我们将使用 MI 来估计密度函数,因此 IIC 将采样限制为![](img/B14853_13_048.png)。 本质上,对于每个样本`x[i]`,我们计算其潜在代码![](img/B14853_13_049.png)。 然后,我们将`x[i]`转换,并计算其潜在代码![](img/B14853_13_050.png)。 联合分布计算如下:
......@@ -629,7 +629,7 @@ def unsupervised_labels(y, yp, n_classes, n_clusters):
![](img/B14853_13_080.png) (Equation 13.5.1)
其中`c`<sub>ij</sub>`x`<sub>ij</sub> 分别是矩阵![](img/B14853_13_081.png)`X`的元素 。`i``j`是索引。`X`的元素受的以下约束:
其中`c[ij]``x[ij]`分别是矩阵![](img/B14853_13_081.png)`X`的元素 。`i``j`是索引。`X`的元素受的以下约束:
![](img/B14853_13_082.png)
......
......@@ -254,7 +254,7 @@ def predict_json(project, model, instances, version=None):
![](img/e6c8acfb-13ae-4537-88c1-af8c800b0746.png)
在此用户项目矩阵中,行代表用户,每一列都是项目,每个单元格都是用户评分。 共有 j + 1 个用户和 n + 1 个项目。 在此, *<sub>jn</sub>**`i[n]`* 的用户 *`u[j]`* 分数。 *A <sub>jn</sub>* 可以在 1 到 5 之间。有时,如果矩阵是用户 *`u[i]`* 是否看着对象[HTG20 无论是`i[n]`*A <sub>jn</sub>* 也可以是二进制的。 在这种情况下, *A <sub>jn</sub>* 为 0 或 1。在我们的情况下,我们将 *A <sub>jn</sub>* 视为 1 到 5 分 。 该矩阵是非常稀疏的矩阵,这意味着其中的许多单元都是空的。
在此用户项目矩阵中,行代表用户,每一列都是项目,每个单元格都是用户评分。 共有 j + 1 个用户和 n + 1 个项目。 在此, `A[jn]``i[n]`的用户`u[j]`分数。`A[jn]`可以在 1 到 5 之间。有时,如果矩阵是用户`u[i]`是否看着对象[HTG20 无论是`i[n]``A[jn]`也可以是二进制的。 在这种情况下, `A[jn]`为 0 或 1。在我们的情况下,我们将`A[jn]`视为 1 到 5 分 。 该矩阵是非常稀疏的矩阵,这意味着其中的许多单元都是空的。
由于项目很多,因此单个用户不可能对所有项目进行评分。 在实际情况下,单个用户甚至不会给最低的项目评分。 这就是为什么此矩阵中约有 99%的单元空着。 空单元格可以表示为**而不是数字****NaN**)。 例如,假设 n 为 1000 万,m 为 20,000。 因此 n * m 为 20 ^ 10M,这是一个非常大的数字。 如果用户平均给 5 项评分,则评分总数为 5 * 1 千万= 5 *10⁶。 这被称为矩阵的**的** **奇偶性。 矩阵稀疏度的公式如下:
......
......@@ -588,8 +588,8 @@ print('Training image object detection model...')
如屏幕截图所示,我们在用户界面上获得了模型评估指标。 我们得到以下重要的模型训练参数:
* **平均精度**:这可衡量所有得分阈值上的模型性能。
* **精度**:这是对阳性指示正确比例的度量。 在数学上,精度定义为 <sub>![](img/7128181c-165b-4e73-806d-4f713785260e.png)</sub> 。 真实肯定代表模型正确预测肯定类别的结果。 假阳性表示模型错误地预测阳性类别的结果。
* **调用**:这是对正确识别的实际阳性比例的度量。 在数学上,召回率定义为 <sub>![](img/b9d248a7-2e83-410d-b5b3-d83f4d63f8c7.png)</sub> 。 假阴性表示模型错误地预测阴性类别的结果。
* **精度**:这是对阳性指示正确比例的度量。 在数学上,精度定义为`Pred = TP / (TP + FP)`。 真实肯定代表模型正确预测肯定类别的结果。 假阳性表示模型错误地预测阳性类别的结果。
* **调用**:这是对正确识别的实际阳性比例的度量。 在数学上,召回率定义为`Recall = TP / (TP + FN)`。 假阴性表示模型错误地预测阴性类别的结果。
可以同时使用精度和召回措施对模型进行全面评估,因此平均精度对于理解模型的有效性非常重要。 AutoML 提供了所有标签上模型参数的合并视图以及特定标签的参数值:
......
......@@ -114,7 +114,7 @@ ANN 由两个组件构建:节点和权重。 节点扮演神经元的角色,
圆圈表示将标量`x`作为输入并在将其与权重`w`相乘后输出`a`的神经元。 在此,将`b`称为偏置。 在方程式中增加了偏置,以提供针对特定输入范围移动输出的功能。 一旦我们通过激活函数,偏见的作用将变得更加清晰。
现在,假设神经元不仅接受单个标量输入,还接受多个输入。 输入可以称为向量(例如`P`)。 然后,`P`可以写成一组标量输入 *`p[1]`* <sub></sub>`p`<sub>`2`</sub> <sub></sub>`p`<sub>`3`</sub> ...., *`p[n]`* 和每个输入也将具有权重向量(例如 *W = w <sub>1,</sub> w <sub>2,</sub> w <sub>3,</sub> [ <sub>...</sub>`w[n]`* ),这将用于激活神经元。 以下矩阵代表`P``W`向量:
现在,假设神经元不仅接受单个标量输入,还接受多个输入。 输入可以称为向量(例如`P`)。 然后,`P`可以写成一组标量输入`p[1], [2], ..., p[n]`和每个输入也将具有权重向量(例如`W = w[1], w[2], ..., w[n]`),这将用于激活神经元。 以下矩阵代表`P``W`向量:
![](img/1f5224a5-58e7-4b78-a07c-2db3e3dab03e.png) ![](img/9bdc844e-2c5f-4fcf-a8b2-0ae365befe92.png)
......
......@@ -57,7 +57,7 @@ DFN 中存在的权重值负责进行预测。 任何深度网络都具有如此
# 均方误差(MSE)
让我们假设我们的数据集中有`n`个样本。 这意味着我们将具有`n`个预测值( *y <sub>1,...,</sub> y <sub>i,...,</sub>`y[n]`* )和`n`对应的期望值(![](img/e653a15c-2e34-4100-aac3-504f856cb54f.png))。 均方由以下公式定义:
让我们假设我们的数据集中有`n`个样本。 这意味着我们将具有`n`个预测值(`y[1], y[2], ..., y[n]`)和`n`对应的期望值(![](img/e653a15c-2e34-4100-aac3-504f856cb54f.png))。 均方由以下公式定义:
![](img/2adae1ac-d004-4f9c-8400-7ca5f53fbdb2.png)
......@@ -93,7 +93,7 @@ DFN 中存在的权重值负责进行预测。 任何深度网络都具有如此
![](img/96daf0f6-9785-474e-8dbe-db5b911afb0b.png)
前面我们提到,最初,我们选择一个随机值作为权重。 假设初始重量由上图中的`A`表示。 我们的目标是达到成本函数的最小值,例如 *J <sub>min</sub> (w)*。 假设先前示例中的成本函数在点`B`处具有最小值。 您可能会注意到,成本函数的最小值(点`B`)的斜率为零,而对于其他点(例如点`A`(我们的初始点))则不为零。 。 因此,我们可以利用成本函数的梯度(斜率)来达到最小值。
前面我们提到,最初,我们选择一个随机值作为权重。 假设初始重量由上图中的`A`表示。 我们的目标是达到成本函数的最小值,例如`J_min(w)`。 假设先前示例中的成本函数在点`B`处具有最小值。 您可能会注意到,成本函数的最小值(点`B`)的斜率为零,而对于其他点(例如点`A`(我们的初始点))则不为零。 。 因此,我们可以利用成本函数的梯度(斜率)来达到最小值。
梯度或斜率是`y`轴值相对于`x`轴的变化率。 在函数的任何一点上,通过计算该函数相对于`x`的导数即可获得梯度。
......@@ -111,7 +111,7 @@ DFN 中存在的权重值负责进行预测。 任何深度网络都具有如此
# 批次梯度下降
让我们说 *`$1[$2]`* 是一批梯度下降之后经过更新的权重集合,而`w`是旧的权重集合。 权重根据以下规则进行更新:
让我们说`$1[$2]`是一批梯度下降之后经过更新的权重集合,而`w`是旧的权重集合。 权重根据以下规则进行更新:
![](img/1bcc1e26-889f-410e-a2c0-2eba6ca9e647.png)
......@@ -147,13 +147,13 @@ DFN 中存在的权重值负责进行预测。 任何深度网络都具有如此
类似地,链规则可以扩展为`n`具有互变量的不同函数。
在转到该算法之前,我们将看到将要使用的符号。 *w <sub>jk</sub>* <sup>`l`</sup> 将用来表示从`k`<sup>*th 起的重量连接 *(l-1)<sup></sup>* 层的*</sup> 神经元与`j`<sup>*th* 神经元`1`<sup>*第*</sup> 层。 对于偏差, *`b[j]`* <sup>`l`</sup> 将用于 *j <sup>th</sup>* 神经元`l`<sup>*第*</sup> 层。 对于激活功能, *`a[j]`* <sup>`l`</sup> 用于表示 *j <sup>th</sup>* 的激活`l`<sup>*th*</sup> 层中的神经元。 该符号易于理解。 上标表示层数,而下标表示层的神经元。</sup>
在转到该算法之前,我们将看到将要使用的符号。 `w[jk]^l`将用来表示第`l - 1`层的神经元`j`与第`l`层的神经元`k`的连接权重。 `b[j]^l`将用于第`l`层的神经元`j`的偏差。 对于激活功能, `a[j]^l`用于表示第`l`层的神经元`j`的激活。 该符号易于理解。 上标表示层数,而下标表示层的神经元。
对于`l`<sup>*th*</sup> 层,输出可以用以下等式表示,其中 *l <sup>th</sup> 的输入*层是*(l-1)* <sup>*th*</sup> 层的激活输出, *a <sup>l-1</sup> = ![](img/7193fa37-d0bd-4671-a38c-beafba0cc8a7.png)(z <sup>l-1</sup> ),* ![](img/2090cbcb-7542-4c6c-a5da-11b0ead2b874.png)代表激活功能:
![](img/d2b66ac6-9341-40cf-a251-6f04f327d7fe.png)
接下来,考虑`l`<sup>*th*</sup> 层中`j`<sup>*第*</sup> 神经元 错误![](img/622c17e3-921b-4c79-a86b-550ebdb7ac53.png) * <sup> l </sup> <sub> j </sub> * 由以下给出:
接下来,考虑`l`层中第`j`个神经元,误差`δ`由以下给出:
![](img/470c6a97-d719-4db6-9229-2aa5d418c7d3.png)
......
......@@ -1194,7 +1194,7 @@ DAE 通常用于神经网络预训练,其中提取的鲁棒表示形式用作
# 压缩自编码器
我们将学习的最后一种自编码器是压缩自编码器。 它们与稀疏兄弟相似,因为它们增加了惩罚项以学习更强大的表示形式。 但是,惩罚项更为复杂,可以如下推导,其中 *`h[j]`* *j <sup>th</sup>* 单位 隐藏层的输出,`W`是编码器的权重,`W[ij]`是连接第`i`个输入单元,以及第`j`个隐藏单元的权重:
我们将学习的最后一种自编码器是压缩自编码器。 它们与稀疏兄弟相似,因为它们增加了惩罚项以学习更强大的表示形式。 但是,惩罚项更为复杂,可以如下推导,其中`h[j]`*j <sup>th</sup>* 单位 隐藏层的输出,`W`是编码器的权重,`W[ij]`是连接第`i`个输入单元,以及第`j`个隐藏单元的权重:
![](img/3819616b-4468-43f3-b392-72d7523ae417.png)
......
......@@ -598,7 +598,7 @@ YOLO 中使用的损失函数可分为四个部分:
图片出自原始论文,“您只看一次”:统一的实时对象检测
损失函数中的第一项采用所有`B`边界框预测变量的边界框位置差的平方和。 第二项的功能相同,但宽度和高度相同。 您会注意到额外的平方根。 这组作者说,大边界框中的小偏差比小边界框中的小偏差要小。 对术语进行平方根运算有助于我们降低对较大值的敏感度。 我们还预测了置信度分数 *`C[i]`* ,以及边界框(预测边界框时模型的置信度)。 损失函数中的第三项与置信度得分有关。 损失函数中的最后一项是关于将对象分类为不同类别的。
损失函数中的第一项采用所有`B`边界框预测变量的边界框位置差的平方和。 第二项的功能相同,但宽度和高度相同。 您会注意到额外的平方根。 这组作者说,大边界框中的小偏差比小边界框中的小偏差要小。 对术语进行平方根运算有助于我们降低对较大值的敏感度。 我们还预测了置信度分数`C[i]`,以及边界框(预测边界框时模型的置信度)。 损失函数中的第三项与置信度得分有关。 损失函数中的最后一项是关于将对象分类为不同类别的。
尽管 YOLO 极大地简化了对象检测体系结构并能够实时进行预测,但是也存在某些缺点。 该模型不会提取不同比例的特征,因此对于不同大小和比例的对象不具有鲁棒性。 该模型还难以检测组合在一起的较小尺寸的对象。 接下来,我们将研究另一种基于回归的对象检测架构,即**单发多框检测器****SSD**),该架构可弥补 YOLO 的缺点。
......@@ -621,7 +621,7 @@ YOLO 中使用的损失函数可分为四个部分:
第一个特征图集是从 VGG 16 体系结构的第 23 层提取的,大小为 38 x 38 x 512(此处 512 是过滤器的深度或数量)。 第二组要素图的大小为 19 x 19 x 1,024,适用于捕获稍大的对象。 进一步的特征图集将尺寸减小到 10 x 10 x 512、5 x 5 x 256、3 x 3 x 256,最后减小到 1 x 1 x 256。
为了进行预测,SSD 在提取的特征图上使用 3 x 3 x`d``d`表示过滤器的深度)卷积内核。 对于特征图上的每个点,3 x 3 内核输出边界框偏移量和类分数。 SSD 为功能图中的每个点分配了默认框。 3 x 3 卷积的工作是从覆盖对象的默认边界框预测四个偏移值。 除偏移量外,它还可以预测类别的`c`类别分数。 如果我们在每个位置都有`m`x`n`尺寸特征图,并且在每个位置都有`k`默认边界框,则从该层做出的预测总数将为*(c + 4)xkxmxn* 。 每个位置的默认框数通常为 4 到 6。 这些默认边界框的比例和大小由网络中最低和最高要素图的比例决定。 假设我们有`m`个特征图; 然后,默认边界框的比例( *`s[k]`* )由以下公式给出:
为了进行预测,SSD 在提取的特征图上使用 3 x 3 x`d``d`表示过滤器的深度)卷积内核。 对于特征图上的每个点,3 x 3 内核输出边界框偏移量和类分数。 SSD 为功能图中的每个点分配了默认框。 3 x 3 卷积的工作是从覆盖对象的默认边界框预测四个偏移值。 除偏移量外,它还可以预测类别的`c`类别分数。 如果我们在每个位置都有`m`x`n`尺寸特征图,并且在每个位置都有`k`默认边界框,则从该层做出的预测总数将为*(c + 4)xkxmxn* 。 每个位置的默认框数通常为 4 到 6。 这些默认边界框的比例和大小由网络中最低和最高要素图的比例决定。 假设我们有`m`个特征图; 然后,默认边界框的比例(`s[k]`)由以下公式给出:
![](img/93c36209-1288-4964-b35e-b1a8b03d31fa.png)
......
......@@ -620,7 +620,7 @@ DJIA 由 30 只大型和重要股票(例如 Apple,IBM,GE 和 Goldman Sachs
接下来,我们需要从原始时间序列构造顺序输入,以便提供 RNN 模型,这与我们在文本生成中所做的类似。 回想一下,在“多对一”架构中,该模型采用一个序列,并经过序列中的所有时间步长后产生一个输出。 在我们的案例中,我们可以将过去`T`天的价格序列提供给 RNN 模型,并输出第二天的价格。
将价格时间序列表示为 *`x[1]`,`x[2]`。 。 。 。,`x[n]`* (N = 4276),并以`T`= 5 为例。 通过这样做,我们可以创建训练样本,如下所示:
将价格时间序列表示为`x[1]``x[2]`。 。 。 。,`x[n]`(N = 4276),并以`T`= 5 为例。 通过这样做,我们可以创建训练样本,如下所示:
| **输入** | **输出** |
| `{x[1], x[2], x[3], x[4], x[5]}` | `x[6]` |
......
......@@ -650,7 +650,7 @@ Luca Bertinetto,Jack Valmadre,Joao F. Henriques,Andrea Vedaldi 和 Philip
![](img/c5197e16-6f1d-47e0-875c-e2e789f29750.png)
在该图中,网络的输出是功能图。 通过 CNN( *`$1[$2]`* )重复该过程两次,一次分别进行测试(`x`)和训练(`z`)。 图像,生成两个相互关联的特征图,如下所示:
在该图中,网络的输出是功能图。 通过 CNN(`$1[$2]`)重复该过程两次,一次分别进行测试(`x`)和训练(`z`)。 图像,生成两个相互关联的特征图,如下所示:
*`$1[$2]`(z,x)=`$1[$2]`(z)*`$1[$2]`(x)*
......
......@@ -108,7 +108,7 @@ intersection = np.true_divide(np.sum(minima),np.sum(train_hist))
![](img/030dc965-f4e1-4340-9941-aa55417eef52.png)
* 给定![](img/79d6a348-1318-4d33-acaa-1a7b185719ee.png)和![](img/43db7d87-5862-4a14-bc63-6da464c3589d.png),此处![](img/7ee049d5-a1cd-43b9-ad01-9b0cac524a36.png)是分布的平均值(第一矩),![](img/d7367661-5eb7-435e-a253-f3dd4aacae81.png)(第二矩)是分布的标准偏差,而ρ <sub>QQ</sub> 为 两个分布![](img/c13f9176-f24f-45fb-bd03-540b2b037683.png)和![](img/05a61ab6-3829-4d26-944a-13e5303f8d58.png)的分位数彼此之间的相关性。
* 给定![](img/79d6a348-1318-4d33-acaa-1a7b185719ee.png)和![](img/43db7d87-5862-4a14-bc63-6da464c3589d.png),此处![](img/7ee049d5-a1cd-43b9-ad01-9b0cac524a36.png)是分布的平均值(第一矩),![](img/d7367661-5eb7-435e-a253-f3dd4aacae81.png)(第二矩)是分布的标准偏差,而`ρ[QQ]`为 两个分布![](img/c13f9176-f24f-45fb-bd03-540b2b037683.png)和![](img/05a61ab6-3829-4d26-944a-13e5303f8d58.png)的分位数彼此之间的相关性。
![](img/a8f2cc2a-5808-42d4-a6fb-34a34ecb4f21.png)
......
......@@ -68,11 +68,11 @@ Haar 级联分类器算法基于这样的思想,即人脸的图像在脸部的
![](img/df105f20-916c-4f3f-806e-543e3028a89a.png)
* **强分类器**:最终的强分类器`h``x`)具有最小的错误, *`E[t]`* ,并由以下给出:
* **强分类器**:最终的强分类器`h``x`)具有最小的错误,`E[t]`,并由以下给出:
![](img/9f117f11-bcad-449e-acf3-dff0ebdb8ca3.png)
在此,*`E[t]`* = log( *1 /`E[t]`* )和*`E[t]`* = *`E[t]`* /(`1`- *`E[t]`* ):
在此,*`E[t]`= log( *1 /`E[t]`)和*`E[t]`=`E[t]`/(`1`-`E[t]`):
![](img/8a29038f-21d3-4a3e-8bd2-e6308d0fddb0.png)
......
......@@ -66,7 +66,7 @@ CNN 的图像过滤和处理方法包括执行多种操作,所有这些操作
![](img/fc5f1a96-b2c9-4318-8352-a2daea8a7234.png)
上图显示了如何使用 3 x 3 过滤器(边缘检测器)在宽度减小和深度增加(从 3 到 32)方面转换 7 x 7 图像的图形的一部分。 内核( *`f[i]`* )中 27 个(3 x 3 x 3)单元中的每一个都乘以输入( *`A[i]`* )。 然后,将这些值与**整流线性单位****ReLU**)激活函数( *`b[i]`* )相加在一起 单个元素(`Z`),如以下等式所示:
上图显示了如何使用 3 x 3 过滤器(边缘检测器)在宽度减小和深度增加(从 3 到 32)方面转换 7 x 7 图像的图形的一部分。 内核(`f[i]`)中 27 个(3 x 3 x 3)单元中的每一个都乘以输入(`A[i]`)。 然后,将这些值与**整流线性单位****ReLU**)激活函数(`b[i]`)相加在一起 单个元素(`Z`),如以下等式所示:
![](img/f7b861f9-ab93-4a27-aecc-567fe346bf5e.png)
......@@ -220,8 +220,8 @@ Softmax 是在 CNN 的最后一层中使用的激活功能。 它由以下等式
CNN 具有许多不同的参数。 训练 CNN 模型需要许多输入图像并执行处理,这可能非常耗时。 如果选择的参数不是最佳参数,则必须再次重复整个过程。 这就是为什么理解每个参数的功能及其相互关系很重要的原因:这样可以在运行 CNN 之前优化其值,以最大程度地减少重复运行。 CNN 的参数如下:
* 图像尺寸=( *n x n*
* 滤镜= *(`f[h]`,`f[w]`),`f[h]`* =应用于图像高度的滤镜, *`f[w]`* =应用于图像宽度的滤镜
* 过滤器数量= *`n[f]`*
* 滤镜= *`f[h]``f[w]`),`f[h]`=应用于图像高度的滤镜,`f[w]`=应用于图像宽度的滤镜
* 过滤器数量=`n[f]`*
* 填充=`p`
* 步幅=`s`
* 输出大小 *=* *{(n + 2p-f)/ s +1} x {(n + 2p-f)/ s +1}*
......
......@@ -562,7 +562,7 @@ GNN 层汇总了来自其邻居的特征信息,并应用 ReLU 激活,合并
![](img/f78efdeb-68ff-4fc8-8d52-7f73d20f4c20.png)
代理以某种状态( *`s[t]`* )启动,观察一系列观察结果,采取行动( *`a[t]`* )并接收 一份奖励。
代理以某种状态(`s[t]`)启动,观察一系列观察结果,采取行动(`a[t]`)并接收 一份奖励。
最大化以下累积值函数,以在`Q`-学习方法中找到所需的输出:
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册