Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
机器未来
Paddle
提交
d9062cd9
P
Paddle
项目概览
机器未来
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
1
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
1
Issue
1
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
d9062cd9
编写于
10月 26, 2017
作者:
W
wangmeng28
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Add sparse matrix support in factorization machine layer
上级
601c1a35
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
19 addition
and
5 deletion
+19
-5
paddle/gserver/layers/FactorizationMachineLayer.cpp
paddle/gserver/layers/FactorizationMachineLayer.cpp
+19
-5
未找到文件。
paddle/gserver/layers/FactorizationMachineLayer.cpp
浏览文件 @
d9062cd9
...
@@ -62,7 +62,12 @@ void FactorizationMachineLayer::forward(PassType passType) {
...
@@ -62,7 +62,12 @@ void FactorizationMachineLayer::forward(PassType passType) {
outV
->
sumRows
(
*
tmpOut_
,
0.5
,
0
);
outV
->
sumRows
(
*
tmpOut_
,
0.5
,
0
);
x2_
=
inputV
->
clone
(
0
,
0
,
useGpu_
);
x2_
=
inputV
->
clone
(
0
,
0
,
useGpu_
);
inputV
->
square2
(
*
x2_
);
if
(
dynamic_cast
<
CpuSparseMatrix
*>
(
x2_
.
get
()))
{
x2_
->
copyFrom
(
*
inputV
);
(
dynamic_cast
<
CpuSparseMatrix
*>
(
x2_
.
get
()))
->
square2
();
}
else
{
inputV
->
square2
(
*
x2_
);
}
latentVectors_
->
getW
()
->
square2
(
*
v2_
);
latentVectors_
->
getW
()
->
square2
(
*
v2_
);
tmpOut_
->
mul
(
*
x2_
,
*
v2_
);
tmpOut_
->
mul
(
*
x2_
,
*
v2_
);
outV
->
sumRows
(
*
tmpOut_
,
-
0.5
,
1.0
);
outV
->
sumRows
(
*
tmpOut_
,
-
0.5
,
1.0
);
...
@@ -93,11 +98,20 @@ void FactorizationMachineLayer::backward(const UpdateCallback& callback) {
...
@@ -93,11 +98,20 @@ void FactorizationMachineLayer::backward(const UpdateCallback& callback) {
/* Calculate the gradients of the latentVectors_ matrix */
/* Calculate the gradients of the latentVectors_ matrix */
if
(
latentVectors_
->
getWGrad
())
{
if
(
latentVectors_
->
getWGrad
())
{
MatrixPtr
tmpIn
=
inputV
->
clone
(
0
,
0
,
useGpu_
);
MatrixPtr
tmpIn
=
inputV
->
clone
(
0
,
0
,
useGpu_
);
tmpIn
->
rowScale
(
0
,
*
inputV
,
*
oGrad
);
if
(
dynamic_cast
<
CpuSparseMatrix
*>
(
inputV
.
get
()))
{
CpuSparseMatrix
*
inputV_s
=
dynamic_cast
<
CpuSparseMatrix
*>
(
inputV
.
get
());
latentVectors_
->
getWGrad
()
->
mul
(
*
tmpIn
->
getTranspose
(),
*
tmpMul_
,
1
,
1
);
CpuSparseMatrix
*
x2_s
=
dynamic_cast
<
CpuSparseMatrix
*>
(
x2_
.
get
());
CpuSparseMatrix
*
tmpIn_s
=
dynamic_cast
<
CpuSparseMatrix
*>
(
tmpIn
.
get
());
tmpIn_s
->
copyFrom
(
*
inputV_s
);
tmpIn_s
->
rowScale
(
0
,
*
inputV_s
,
*
oGrad
);
latentVectors_
->
getWGrad
()
->
mul
(
*
tmpIn
->
getTranspose
(),
*
tmpMul_
,
1
,
1
);
tmpIn_s
->
rowScale
(
0
,
*
x2_s
,
*
oGrad
);
}
else
{
tmpIn
->
rowScale
(
0
,
*
inputV
,
*
oGrad
);
latentVectors_
->
getWGrad
()
->
mul
(
*
tmpIn
->
getTranspose
(),
*
tmpMul_
,
1
,
1
);
tmpIn
->
rowScale
(
0
,
*
x2_
,
*
oGrad
);
}
tmpIn
->
rowScale
(
0
,
*
x2_
,
*
oGrad
);
tmpSum
->
sumCols
(
*
tmpIn
,
-
1
,
0
);
tmpSum
->
sumCols
(
*
tmpIn
,
-
1
,
0
);
latentVectors_
->
getWGrad
()
->
addRowScale
(
latentVectors_
->
getWGrad
()
->
addRowScale
(
0
,
*
latentVectors_
->
getW
(),
*
tmpSum_T
);
0
,
*
latentVectors_
->
getW
(),
*
tmpSum_T
);
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录