如何写新的Operator¶
概念简介¶
简单介绍需要用到基类,详细介绍请参考设计文档。
framework::OperatorBase
: Operator(简写,Op)基类。framework::OpKernel
: Op计算函数的基类,称作Kernel。framework::OperatorWithKernel
:继承自OperatorBase,Op有计算函数,称作有Kernel。class OpProtoAndCheckerMaker
:描述该Op的输入、输出、属性、注释,主要用于Python API接口生成
依据是否包含kernel,可以将Op分为两种:包含Kernel的Op和不包含kernel的Op,前者Op的定义继承自OperatorBase
,后者继承自OperatorWithKernel
。本教程主要介绍带Kernel的Op如何写,简单总结Op需要包含的内容如下:
内容 | 定义位置
————– | :———————-
OpProtoMake定义 | .cc
文件,Backward Op不需要定义OpProtoMake
Op定义 | .cc
文件
Kernel实现 | CPU、GPU共享Kernel实现在.h
文件中,否则,CPU 实现在.cc
文件中,GPU 实现在.cu
文件中。
注册Op | Op注册实现在.cc
文件;Kernel注册CPU实现在.cc
文件中,GPU实现在.cu
文件中
实现新的op都添加至目录paddle/operators下,文件命名以*_op.h
(如有) 、 *_op.cc
、*_op.cu
(如有)结尾。系统会根据文件名自动构建op和其对应的Python扩展。
下面以矩阵乘操作,即MulOp为例来介绍如何写带Kernel的Operator。
实现C++类¶
1. 定义ProtoMaker类¶
矩阵乘法的公式:$Out = X * Y$, 可见该计算由两个输入,一个输出组成。
首先定义ProtoMaker
来描述该Op的输入、输出,并添加注释:
class MulOpMaker : public framework::OpProtoAndCheckerMaker {
public:
MulOpMaker(framework::OpProto *proto, framework::OpAttrChecker *op_checker)
: OpProtoAndCheckerMaker(proto, op_checker) {
AddInput("X", "The first input of mul op");
AddInput("Y", "The second input of mul op");
AddOutput("Out", "The output of mul op");
AddComment(R"DOC(
Two Element Mul Operator.
The equation is: Out = X * Y
)DOC");
}
};
MulOpMaker
继承自framework::OpProtoAndCheckerMaker
,构造函数含有2个参数:
framework::OpProto
: 前者存储Op的输入输出和参数属性,将用于Python API接口的生成。framework::OpAttrChecker
:后者用于检查参数属性的合法性。
构造函数里通过AddInput
添加输入参数,通过AddOutput
添加输出参数,通过AddComment
添加Op的注释。这些函数会将对应内容添加到OpProto
中。
上面的代码在MulOp
中添加两个输入X
和Y
,添加了一个输出Out
,并解释了各自含义,命名请遵守命名规范。
再以ScaleOp
为例:
template <typename AttrType>
class ScaleOpMaker : public framework::OpProtoAndCheckerMaker {
public:
ScaleOpMaker(framework::OpProto *proto, framework::OpAttrChecker *op_checker)
: OpProtoAndCheckerMaker(proto, op_checker) {
AddInput("X", "The input tensor of scale operator.").NotInGradient();
AddOutput("Out", "The output tensor of scale operator.").NotInGradient();
AddComment(R"DOC(Scale operator
The equation is: Out = scale*X
)DOC");
AddAttr<AttrType>("scale", "scale of scale operator.").SetDefault(1.0);
}
};
这个例子有两处不同:
AddInput("X","...").NotInGradient()
: 表示X
这个输入不参与ScaleOp
对应的梯度Op计算之中,如果Op的某个输入不参与反向梯度的计算,请显示地调用.NotInGradient()
进行设置。AddAttr<AttrType>("scale", "...").SetDefault(1.0);
: 增加scale
系数,作为参数属性,并且设置默认值为1.0。
2. 定义Operator类¶
下面的点实现了MulOp的定义:
class MulOp : public framework::OperatorWithKernel {
public:
using framework::OperatorWithKernel::OperatorWithKernel;
protected:
void InferShape(const framework::InferShapeContext &ctx) const override {
auto dim0 = ctx.Input<Tensor>("X")->dims();
auto dim1 = ctx.Input<Tensor>("Y")->dims();
PADDLE_ENFORCE_EQ(dim0.size(), 2,
"input X(%s) should be a tensor with 2 dims, a matrix",
ctx.op_.Input("X"));
PADDLE_ENFORCE_EQ(dim1.size(), 2,
"input Y(%s) should be a tensor with 2 dims, a matrix",
ctx.op_.Input("Y"));
PADDLE_ENFORCE_EQ(
dim0[1], dim1[0],
"First matrix's width must be equal with second matrix's height.");
ctx.Output<Tensor>("Out")->Resize({dim0[0], dim1[1]});
}
};
MulOp
继承自OperatorWithKernel
。public
成员:
using framework::OperatorWithKernel::OperatorWithKernel;
这句表示使用基类OperatorWithKernel
的构造函数,也可写成:
MulOp(const std::string &type, const framework::VariableNameMap &inputs,
const framework::VariableNameMap &outputs,
const framework::AttributeMap &attrs)
: OperatorWithKernel(type, inputs, outputs, attrs) {}
还需要重写InferShape
接口。InferShape
为const函数,不能修改Op的成员变量,参数为const framework::InferShapeContext &ctx
,通过该参数可获取到输入输出以及属性。它的功能是:
- 1). 做检查, 尽早报错:检查输入数据维度、类型等是否合法。
- 2). 设置输出Tensor的形状。
通常OpProtoMaker
和Op
类的定义写在.cc
文件中,和下面将要介绍的注册函数一起放在.cc
中
3. 定义OpKernel类¶
MulKernel
继承自framework::OpKernel
,带有下面两个模板参数:
typename Place
: 表示设备类型,不同设备(CPU、GPU)共享同一个Kernel时,需加该模板参数,不共享则不加,一个不共享的例子是OnehotCrossEntropyOpKernel
。typename T
: 表示数据类型,如float
,double
等。
需要为MulKernel
类重写Compute
接口。
Compute
接受一个输入参数:const framework::ExecutionContext& context
。- 与
InferShapeContext
相比,ExecutionContext
增加了设备类型,同样可获取到输入输出和属性参数。 Compute
函数里实现OpKernel
的具体计算逻辑。
下面是 MulKernel
Compute
的实现:
template <typename Place, typename T>
class MulKernel : public framework::OpKernel {
public:
void Compute(const framework::ExecutionContext& context) const override {
auto* X = context.Input<Tensor>("X");
auto* Y = context.Input<Tensor>("Y");
auto* Z = context.Output<Tensor>("Out");
Z->mutable_data<T>(context.GetPlace());
auto* device_context =
const_cast<platform::DeviceContext*>(context.device_context_);
math::matmul<Place, T>(*X, false, *Y, false, 1, Z, 0, device_context);
}
};
需要注意:不同设备(CPU、GPU)共享一个Op定义,是否则共享同一个OpKernel
,取决于Compute
调用的函数是否支持不同设备。
MulOp
的CPU、GPU实现共享同一个Kernel
。OpKernel
不共享的例子可以参考:OnehotCrossEntropyOpKernel
。
为了使OpKernel
的计算过程书写更加简单,并且CPU、GPU的代码可以复用,我们通常借助 Eigen unsupported Tensor模块来实现Compute
接口。关于在PaddlePaddle中如何使用Eigen库,请参考使用文档。
到此,前向Op实现完成。接下来,需要在.cc
文件中注册该op和kernel。
反向Op类的定义,反向OpKernel的定义与前向Op类似,这里不再赘述。但需注意反向Op没有ProtoMaker
。
4. 注册Operator¶
在
.cc
文件中注册前向、反向Op类,注册CPU Kernel。namespace ops = paddle::operators; REGISTER_OP(mul, ops::MulOp, ops::MulOpMaker, mul_grad, ops::MulOpGrad); REGISTER_OP_CPU_KERNEL(mul, ops::MulKernel<paddle::platform::CPUPlace, float>); REGISTER_OP_CPU_KERNEL(mul_grad, ops::MulGradKernel<paddle::platform::CPUPlace, float>);
在上面的代码中:
REGISTER_OP
: 注册ops::MulOp
类,类型名为mul
,该类的ProtoMaker
为ops::MulOpMaker
,注册ops::MulOpGrad
,类型名为mul_grad
。REGISTER_OP_WITHOUT_GRADIENT
: 用于注册没有反向的Op。REGISTER_OP_CPU_KERNEL
:注册ops::MulKernel
类,并特化模板参数为paddle::platform::CPUPlace
和float
类型,同理,注册ops::MulKernel
类。
在
.cu
文件中注册GPU Kernel。- 请注意,如果GPU Kernel的实现基于Eigen unsupported模块,那么在
.cu
的开始请加上宏定义#define EIGEN_USE_GPU
,代码示例如下:
// if use Eigen unsupported module before include head files #define EIGEN_USE_GPU namespace ops = paddle::operators; REGISTER_OP_GPU_KERNEL(mul, ops::MulKernel<paddle::platform::GPUPlace, float>); REGISTER_OP_GPU_KERNEL(mul_grad, ops::MulGradKernel<paddle::platform::GPUPlace, float>);
- 请注意,如果GPU Kernel的实现基于Eigen unsupported模块,那么在
绑定Python¶
系统会对新增的op自动绑定Python,并链接到生成的lib库中。
实现单元测试¶
单测包括对比前向Op不同设备(CPU、GPU)的实现、对比反向OP不同设备(CPU、GPU)的实现、反向Op的梯度测试。下面介绍介绍MulOp
的单元测试。
前向Operator单元测试¶
前向Op单元测试继承自unittest.TestCase
,并定义元类__metaclass__ = OpTestMeta
。各项更加具体的单元测试在OpTestMeta
里完成。测试前向Operator,需要:
- 在
setUp
函数定义输入、输出,以及相关的属性参数。 - 生成随机的输入数据。
- 在Python脚本中实现与前向operator相同的计算逻辑,得到输出值,与operator前向计算的输出进行对比。
import unittest
import numpy as np
from gradient_checker import GradientChecker, create_op
from op_test_util import OpTestMeta
class TestMulOp(unittest.TestCase):
__metaclass__ = OpTestMeta
def setUp(self):
self.type = "mul"
self.inputs = {
'X': np.random.random((32, 84)).astype("float32"),
'Y': np.random.random((84, 100)).astype("float32")
}
self.outputs = {'Out': np.dot(self.inputs['X'], self.inputs['Y'])}
上面的代码首先导入依赖的包,下面是对setUp
函数中操作的重要变量的详细解释:
self.type = "mul"
: 定义类型,与operator注册时注册的类型一致。self.inputs
: 定义输入,类型为numpy.array
,并初始化。self.outputs
: 定义输出,并在Python脚本中完成与operator同样的计算逻辑,返回Python端的计算结果。
反向Operator单元测试¶
反向Op单元测试继承自GradientChecker
,而GradientChecker
继承自unittest.TestCase
,因此,反向单元测试函数需要以test_
开头。
class TestMulGradOp(GradientChecker):
def setUp(self):
self.op = create_op("mul")
self.inputs = {
'X': np.random.random((32, 84)).astype("float32"),
'Y': np.random.random((84, 100)).astype("float32")
}
def test_cpu_gpu_compare(self):
self.compare_grad(self.op, self.inputs)
def test_normal(self):
# mul op will enlarge the relative error
self.check_grad(
self.op, self.inputs, ["X", "Y"], "Out", max_relative_error=0.5)
def test_ignore_x(self):
self.check_grad(
self.op,
self.inputs, ["Y"],
"Out",
max_relative_error=0.5,
no_grad_set={"X"})
def test_ignore_y(self):
self.check_grad(
self.op,
self.inputs, ["X"],
"Out",
max_relative_error=0.5,
no_grad_set={"Y"})
下面解释代码中一些关键的地方:
- 调用
create_op("mul")
创建反向Op对应的前向Op。 - 调用
compare_grad
函数对比CPU、GPU计算结果。 test_normal
中调用check_grad
使用数值法检测梯度正确性和稳定性。- 第一个参数
self.op
: 前向Op。 - 第二个参数
self.inputs
: 输入词典,词典的Key和ProtoMaker
定义保持一致。 - 第三个参数
["X", "Y"]
: 指定对输入变量X
、Y
做梯度检测。 - 第四个参数
"Out"
: 指定前向网络最终的输出目标变量Out
- 第一个参数
test_ignore_x
和test_ignore_y
分支用来测试只需要计算一个输入梯度的情况。
编译和执行单元测试¶
python/paddle/v2/framework/tests
目录下新增的 test_*.py
单元测试会被自动加入工程进行编译。
请注意,不同于Op的编译测试,运行单元测试测时需要编译整个工程,并且编译时需要打开WITH_TESTING
, 即cmake paddle_dir -DWITH_TESTING=ON
。编译成功后,执行下面的命令来运行单元测试:
make test ARGS="-R test_mul_op -V"
或者:
ctest -R test_mul_op
注意事项¶
- 为每个Op创建单独的
*_op.h
(如有)、*_op.cc
和*_op.cu
(如有)。不允许一个文件中包含多个Op,这将会导致编译出错。 - 注册Op时的类型名,需要和该Op的名字一样。即不允许在
A_op.cc
里面,注册REGISTER_OP(B, ...)
等,这将会导致单元测试出错。 - 如果Op没有实现GPU Kernel,请不要创建空的
*_op.cu
,这将会导致单元测试出错。 - 如果多个Op依赖一些共用的函数,可以创建非
*_op.*
格式的文件来存放,如gather.h
文件。