From 948d30e53d15464bd6e37ae5f6026458793a2d58 Mon Sep 17 00:00:00 2001 From: Steffy-zxf <48793257+Steffy-zxf@users.noreply.github.com> Date: Tue, 17 Sep 2019 10:03:22 +0800 Subject: [PATCH] Update autofinetune.ipynb --- tutorial/autofinetune.ipynb | 5 +++-- 1 file changed, 3 insertions(+), 2 deletions(-) diff --git a/tutorial/autofinetune.ipynb b/tutorial/autofinetune.ipynb index 2ea7e6cc..92c659bf 100644 --- a/tutorial/autofinetune.ipynb +++ b/tutorial/autofinetune.ipynb @@ -12,7 +12,7 @@ "\n", "PaddleHub Auto Fine-tune提供两种搜索超参策略:\n", "\n", - "* HAZero: 核心思想是通过对正态分布中协方差矩阵的调整来处理变量之间的依赖关系和scaling。算法基本可以分成以下三步: 采样产生新解;计算目标函数值;更新正太分布参数。调整参数的基本思路为,调整参数使得产生好解的概率逐渐增大\n", + "* HAZero: 核心思想是通过对正态分布中协方差矩阵的调整来处理变量之间的依赖关系和scaling。算法基本可以分成以下三步: 采样产生新解;计算目标函数值;更新正态分布参数。调整参数的基本思路为,调整参数使得产生好解的概率逐渐增大\n", "\n", "* PSHE2: 采用粒子群算法,最优超参数组合就是所求问题的解。现在想求得最优解就是要找到更新超参数组合,即如何更新超参数,才能让算法更快更好的收敛到最优解。PSO算法根据超参数本身历史的最优,在一定随机扰动的情况下决定下一步的更新方向。\n", "\n", @@ -199,9 +199,10 @@ "## 四、可视化\n", "\n", "Auto Finetune API在搜索超参过程中会自动对关键训练指标进行打点,启动程序后执行下面命令\n", - "```bash\n", + "```shell\n", "$ tensorboard --logdir $OUTPUT/tb_paddle --host ${HOST_IP} --port ${PORT_NUM}\n", "```\n", + "\n", "其中${HOST_IP}为本机IP地址,${PORT_NUM}为可用端口号,如本机IP地址为192.168.0.1,端口号8040,用浏览器打开192.168.0.1:8040,\n", "即可看到搜素过程中各超参以及指标的变化情况" ] -- GitLab