未验证 提交 948d30e5 编写于 作者: S Steffy-zxf 提交者: GitHub

Update autofinetune.ipynb

上级 994aa016
...@@ -12,7 +12,7 @@ ...@@ -12,7 +12,7 @@
"\n", "\n",
"PaddleHub Auto Fine-tune提供两种搜索超参策略:\n", "PaddleHub Auto Fine-tune提供两种搜索超参策略:\n",
"\n", "\n",
"* HAZero: 核心思想是通过对正态分布中协方差矩阵的调整来处理变量之间的依赖关系和scaling。算法基本可以分成以下三步: 采样产生新解;计算目标函数值;更新正分布参数。调整参数的基本思路为,调整参数使得产生好解的概率逐渐增大\n", "* HAZero: 核心思想是通过对正态分布中协方差矩阵的调整来处理变量之间的依赖关系和scaling。算法基本可以分成以下三步: 采样产生新解;计算目标函数值;更新正分布参数。调整参数的基本思路为,调整参数使得产生好解的概率逐渐增大\n",
"\n", "\n",
"* PSHE2: 采用粒子群算法,最优超参数组合就是所求问题的解。现在想求得最优解就是要找到更新超参数组合,即如何更新超参数,才能让算法更快更好的收敛到最优解。PSO算法根据超参数本身历史的最优,在一定随机扰动的情况下决定下一步的更新方向。\n", "* PSHE2: 采用粒子群算法,最优超参数组合就是所求问题的解。现在想求得最优解就是要找到更新超参数组合,即如何更新超参数,才能让算法更快更好的收敛到最优解。PSO算法根据超参数本身历史的最优,在一定随机扰动的情况下决定下一步的更新方向。\n",
"\n", "\n",
...@@ -199,9 +199,10 @@ ...@@ -199,9 +199,10 @@
"## 四、可视化\n", "## 四、可视化\n",
"\n", "\n",
"Auto Finetune API在搜索超参过程中会自动对关键训练指标进行打点,启动程序后执行下面命令\n", "Auto Finetune API在搜索超参过程中会自动对关键训练指标进行打点,启动程序后执行下面命令\n",
"```bash\n", "```shell\n",
"$ tensorboard --logdir $OUTPUT/tb_paddle --host ${HOST_IP} --port ${PORT_NUM}\n", "$ tensorboard --logdir $OUTPUT/tb_paddle --host ${HOST_IP} --port ${PORT_NUM}\n",
"```\n", "```\n",
"\n",
"其中${HOST_IP}为本机IP地址,${PORT_NUM}为可用端口号,如本机IP地址为192.168.0.1,端口号8040,用浏览器打开192.168.0.1:8040,\n", "其中${HOST_IP}为本机IP地址,${PORT_NUM}为可用端口号,如本机IP地址为192.168.0.1,端口号8040,用浏览器打开192.168.0.1:8040,\n",
"即可看到搜素过程中各超参以及指标的变化情况" "即可看到搜素过程中各超参以及指标的变化情况"
] ]
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册