diff --git a/models/rank/logistic_regression/readme.md b/models/rank/logistic_regression/readme.md index cd6ee716c5a7000b5c04f5f630d0e89c7e166c0b..84237b60abe6a84bf525a1b44936be02ebc6eea4 100644 --- a/models/rank/logistic_regression/readme.md +++ b/models/rank/logistic_regression/readme.md @@ -210,9 +210,8 @@ first_weights = fluid.layers.reshape(first_weights_re,shape=[-1, self.num_field] #### sigmoid层 将离散数据通过embedding查表得到的值,与连续数据的输入进行相乘再累加的操作,合为一个整体输入。我们又构造了一个初始化为0,shape为1的变量,将其与累加结果相加一起输入sigmoid中得到分类结果。 在这里,可以将这个过程理解为一个全连接层。通过embedding查表获得权重w,构造的变量b_linear即为偏置变量b,再经过激活函数为sigmoid。 -```math -Out=Act(\sum^{N-1}_{i=0}X_iW_i+b) -``` +$$Out=Act(\sum^{N-1}_{i=0}X_iW_i+b)$$ + ```python y_first_order = fluid.layers.reduce_sum(first_weights * feat_value, 1, keep_dim=True)