提交 9828251c 编写于 作者: A Aston Zhang

minor fix

上级 cfcad927
......@@ -22,7 +22,7 @@ $$(n_h-k_h+p_h+1)\times(n_w-k_w+p_w+1),$$
卷积神经网络经常使用奇数高宽的卷积核,例如1、3、5和7,所以填充在两端上的数目相同。对任意的二维数组`X`,设它的第`i`行第`j`列的元素为`X[i,j]`。当填充在两端的数目相同,并使得输入和输出具有相同的高和宽时,我们就知道输出`Y[i,j]`是由输入以`X[i,j]`为中心的窗口同卷积核进行互相关计算得到的。
下面例子里我们创建一个高和宽为3的二维卷积层,然后设输入高和宽两侧的填充数为1。给定一个高和宽为8的输入,我们发现输出的高和宽也是8。
下面例子里我们创建一个高和宽为3的二维卷积层,然后设输入高和宽两侧的填充数分别为1。给定一个高和宽为8的输入,我们发现输出的高和宽也是8。
```{.python .input n=1}
from mxnet import nd
......
......@@ -22,7 +22,7 @@ $$L = \ell(\boldsymbol{o}, y).$$
根据$L_2$范数正则化的定义,给定超参数$\lambda$,正则化项即
$$s = \frac{\lambda}{2} L_2 = \frac{\lambda}{2} \left(\|\boldsymbol{W}^{(1)}\|_F^2 + \|\boldsymbol{W}^{(2)}\|_F^2\right),$$
$$s = \frac{\lambda}{2} \left(\|\boldsymbol{W}^{(1)}\|_F^2 + \|\boldsymbol{W}^{(2)}\|_F^2\right),$$
其中矩阵的Frobenius范数等价于将矩阵变平为向量后计算$L_2$范数。最终,模型在给定的数据样本上带正则化的损失为
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册