提交 0d87042f 编写于 作者: L lvmingfu

Optimize quick_start content in notebook

上级 9e7c7458
...@@ -330,9 +330,10 @@ ...@@ -330,9 +330,10 @@
"metadata": {}, "metadata": {},
"source": [ "source": [
"其中\n", "其中\n",
"<br/>`batch_size`:每组包含的数据个数,现设置每组包含32个数据。\n", "- `batch_size`:每组包含的数据个数,现设置每组包含32个数据。\n",
"<br/>`repeat_size`:数据集复制的数量。\n", "- `repeat_size`:数据集复制的数量。\n",
"<br/>先进行`shuffle`、`batch`操作,再进行`repeat`操作,这样能保证1个`epoch`内数据不重复。" "\n",
"先进行`shuffle`、`batch`操作,再进行`repeat`操作,这样能保证1个`epoch`内数据不重复。"
] ]
}, },
{ {
...@@ -700,8 +701,6 @@ ...@@ -700,8 +701,6 @@
"\n", "\n",
"定义了损失函数后,可以得到损失函数关于权重的梯度。梯度用于指示优化器优化权重的方向,以提高模型性能。\n", "定义了损失函数后,可以得到损失函数关于权重的梯度。梯度用于指示优化器优化权重的方向,以提高模型性能。\n",
"\n", "\n",
"定义损失函数。\n",
"\n",
"MindSpore支持的损失函数有`SoftmaxCrossEntropyWithLogits`、`L1Loss`、`MSELoss`等。这里使用`SoftmaxCrossEntropyWithLogits`损失函数。" "MindSpore支持的损失函数有`SoftmaxCrossEntropyWithLogits`、`L1Loss`、`MSELoss`等。这里使用`SoftmaxCrossEntropyWithLogits`损失函数。"
] ]
}, },
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册