提交 fda82882 编写于 作者: W wizardforcel

2020-12-19 21:23:34

上级 5cfd1600
...@@ -129,7 +129,7 @@ TensorBoard 擅长评估神经网络。 正如*第 1 课*,*神经网络和深 ...@@ -129,7 +129,7 @@ TensorBoard 擅长评估神经网络。 正如*第 1 课*,*神经网络和深
### 注意 ### 注意
有关更多信息,请参阅 Keras 回调文档( [https://keras.io/callbacks/](https://keras.io/callbacks/) 有关更多信息,请参阅 [Keras 回调文档](https://keras.io/callbacks/)
实施 TensorBoard 回调后,`loss`函数指标现在可在 TensorBoard 接口中使用。 现在,您可以运行 TensorBoard 进程(使用`tensorboard --logdir=./logs`),并在使用`fit()`训练网络时保持运行状态。 要评估的主要图形通常称为*损耗*。 通过将已知指标传递给`fit()`函数中的`metrics`参数,可以添加更多指标; 这些将可以在 TensorBoard 中用于可视化,但不会用于调整网络权重。 交互式图形将继续实时更新,这使您可以了解每个时期发生的情况。 实施 TensorBoard 回调后,`loss`函数指标现在可在 TensorBoard 接口中使用。 现在,您可以运行 TensorBoard 进程(使用`tensorboard --logdir=./logs`),并在使用`fit()`训练网络时保持运行状态。 要评估的主要图形通常称为*损耗*。 通过将已知指标传递给`fit()`函数中的`metrics`参数,可以添加更多指标; 这些将可以在 TensorBoard 中用于可视化,但不会用于调整网络权重。 交互式图形将继续实时更新,这使您可以了解每个时期发生的情况。
...@@ -294,7 +294,7 @@ return np.mean(np.abs((A - B) / A)) * 100 ...@@ -294,7 +294,7 @@ return np.mean(np.abs((A - B) / A)) * 100
### 注意 ### 注意
这些功能是使用 NumPy 实现的。 原始实现来自 [https://stats.stackexchange.com/questions/58391/mean-absolute-percentage-error-mape-in​​-scikit-learn](https://stats.stackexchange.com/questions/58391/mean-absolute-percentage-error-mape-in-scikit-learn) (MAPE)和 [https:// stackoverflow.com/questions/16774849/mean-squared-error-in-numpy](https://stackoverflow.com/questions/16774849/mean-squared-error-in-numpy) (RMSE)。 这些功能是使用 NumPy 实现的。 原始实现来自[这里](https://stats.stackexchange.com/questions/58391/mean-absolute-percentage-error-mape-in-scikit-learn)(MAPE)和[这里](https://stackoverflow.com/questions/16774849/mean-squared-error-in-numpy)(RMSE)。
在使用这两个函数将测试集与预测进行比较之后,我们得到以下结果: 在使用这两个函数将测试集与预测进行比较之后,我们得到以下结果:
...@@ -551,7 +551,7 @@ TensorFlow 和 Keras 提供了许多激活功能-偶尔会添加新的激活功 ...@@ -551,7 +551,7 @@ TensorFlow 和 Keras 提供了许多激活功能-偶尔会添加新的激活功
### 注意 ### 注意
本部分的灵感来自 Avinash Sharma V 撰写的文章*了解神经网络中的激活函数*,该文章可从获得启发,该文章位于: [https://medium.com/the-theory-of-everything /了解神经网络中的激活功能-9491262884e0。](https://medium.com/the-theory-of-everything/understanding-activation-functions-in-neural-networks-9491262884e0.) 本部分的灵感来自 Avinash Sharma V 撰写的文章[《了解神经网络中的激活函数》](https://medium.com/the-theory-of-everything/understanding-activation-functions-in-neural-networks-9491262884e0),该文章可从获得启发。
###### 线性(身份) ###### 线性(身份)
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册