From fda8288255d1d8b110ae1fddd5defd265027b024 Mon Sep 17 00:00:00 2001 From: wizardforcel <562826179@qq.com> Date: Sat, 19 Dec 2020 21:23:34 +0800 Subject: [PATCH] 2020-12-19 21:23:34 --- new/begin-app-dev-tf-keras/3.md | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/new/begin-app-dev-tf-keras/3.md b/new/begin-app-dev-tf-keras/3.md index aec3bf53..2ac1ed30 100644 --- a/new/begin-app-dev-tf-keras/3.md +++ b/new/begin-app-dev-tf-keras/3.md @@ -129,7 +129,7 @@ TensorBoard 擅长评估神经网络。 正如*第 1 课*,*神经网络和深 ### 注意 -有关更多信息,请参阅 Keras 回调文档( [https://keras.io/callbacks/](https://keras.io/callbacks/) )。 +有关更多信息,请参阅 [Keras 回调文档](https://keras.io/callbacks/)。 实施 TensorBoard 回调后,`loss`函数指标现在可在 TensorBoard 接口中使用。 现在,您可以运行 TensorBoard 进程(使用`tensorboard --logdir=./logs`),并在使用`fit()`训练网络时保持运行状态。 要评估的主要图形通常称为*损耗*。 通过将已知指标传递给`fit()`函数中的`metrics`参数,可以添加更多指标; 这些将可以在 TensorBoard 中用于可视化,但不会用于调整网络权重。 交互式图形将继续实时更新,这使您可以了解每个时期发生的情况。 @@ -294,7 +294,7 @@ return np.mean(np.abs((A - B) / A)) * 100 ### 注意 -这些功能是使用 NumPy 实现的。 原始实现来自 [https://stats.stackexchange.com/questions/58391/mean-absolute-percentage-error-mape-in​​-scikit-learn](https://stats.stackexchange.com/questions/58391/mean-absolute-percentage-error-mape-in-scikit-learn) (MAPE)和 [https:// stackoverflow.com/questions/16774849/mean-squared-error-in-numpy](https://stackoverflow.com/questions/16774849/mean-squared-error-in-numpy) (RMSE)。 +这些功能是使用 NumPy 实现的。 原始实现来自[这里](https://stats.stackexchange.com/questions/58391/mean-absolute-percentage-error-mape-in-scikit-learn)(MAPE)和[这里](https://stackoverflow.com/questions/16774849/mean-squared-error-in-numpy)(RMSE)。 在使用这两个函数将测试集与预测进行比较之后,我们得到以下结果: @@ -551,7 +551,7 @@ TensorFlow 和 Keras 提供了许多激活功能-偶尔会添加新的激活功 ### 注意 -本部分的灵感来自 Avinash Sharma V 撰写的文章*了解神经网络中的激活函数*,该文章可从获得启发,该文章位于: [https://medium.com/the-theory-of-everything /了解神经网络中的激活功能-9491262884e0。](https://medium.com/the-theory-of-everything/understanding-activation-functions-in-neural-networks-9491262884e0.) +本部分的灵感来自 Avinash Sharma V 撰写的文章[《了解神经网络中的激活函数》](https://medium.com/the-theory-of-everything/understanding-activation-functions-in-neural-networks-9491262884e0),该文章可从获得启发。 ###### 线性(身份) -- GitLab