From 95243192fc4a96c04f5d2bd4d5c5bc2d6dcf2ae2 Mon Sep 17 00:00:00 2001 From: wuzewu Date: Mon, 23 Sep 2019 21:02:25 +0800 Subject: [PATCH] Update autofinetune.md --- tutorial/autofinetune.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/tutorial/autofinetune.md b/tutorial/autofinetune.md index 64352481..eef54b38 100644 --- a/tutorial/autofinetune.md +++ b/tutorial/autofinetune.md @@ -6,7 +6,7 @@ PaddleHub Auto Fine-tune提供两种超参优化策略: -* HAZero: 核心思想是通过对正态分布中协方差矩阵的调整来处理变量之间的依赖关系和scaling。算法基本可以分成以下三步: 采样产生新解;计算目标函数值;更新正态分布参数。调整参数的基本思路为,调整参数使得产生好解的概率逐渐增大 +* HAZero: 核心思想是通过对正态分布中协方差矩阵的调整来处理变量之间的依赖关系和scaling。算法基本可以分成以下三步: 采样产生新解;计算目标函数值;更新正态分布参数。调整参数的基本思路为,调整参数使得产生更优解的概率逐渐增大 * PSHE2: 采用粒子群算法,最优超参数组合就是所求问题的解。现在想求得最优解就是要找到更新超参数组合,即如何更新超参数,才能让算法更快更好的收敛到最优解。PSE2算法根据超参数本身历史的最优,在一定随机扰动的情况下决定下一步的更新方向。 -- GitLab