如何写新的Operator

概念简介

简单介绍需要用到基类,详细介绍请参考设计文档。

  • framework::OperatorBase: Operator(简写,Op)基类。
  • framework::OpKernel: Op计算函数的基类,称作Kernel。
  • framework::OperatorWithKernel:继承自OperatorBase,Op有计算函数,称作有Kernel。
  • class OpProtoAndCheckerMaker:描述该Op的输入、输出、属性、注释,主要用于Python API接口生成

依据是否包含kernel,可以将Op分为两种:包含Kernel的Op和不包含kernel的Op,前者Op的定义继承自OperatorBase,后者继承自OperatorWithKernel。本教程主要介绍带Kernel的Op如何写,简单总结Op需要包含的内容如下:

内容 | 定义位置 ————– | :———————- OpProtoMake定义 | .cc文件,Backward Op不需要定义OpProtoMake Op定义 | .cc文件 Kernel实现 | CPU、GPU共享Kernel实现在.h文件中,否则,CPU 实现在.cc文件中,GPU 实现在.cu文件中。 注册Op | Op注册实现在.cc文件;Kernel注册CPU实现在.cc文件中,GPU实现在.cu文件中

实现新的op都添加至目录paddle/operators下,文件命名以*_op.h(如有) 、 *_op.cc*_op.cu(如有)结尾。

下面以矩阵乘操作,即MulOp为例来介绍如何写带Kernel的Operator。

实现C++类

1. 定义ProtoMaker类

矩阵乘法的公式:$Out = X * Y$, 可见该计算由两个输入,一个输出组成。

首先定义ProtoMaker来描述该Op的输入、输出,并添加注释:

class MulOpMaker : public framework::OpProtoAndCheckerMaker {
 public:
  MulOpMaker(framework::OpProto *proto, framework::OpAttrChecker *op_checker)
      : OpProtoAndCheckerMaker(proto, op_checker) {
    AddInput("X", "The first input of mul op");
    AddInput("Y", "The second input of mul op");
    AddOutput("Out", "The output of mul op");
    AddComment(R"DOC(
Two Element Mul Operator.
The equation is: Out = X * Y
)DOC");
  }
};

MulOpMaker继承自framework::OpProtoAndCheckerMaker,构造函数含有2个参数:

  • framework::OpProto : 前者存储Op的输入输出和参数属性,将用于Python API接口的生成。
  • framework::OpAttrChecker :后者用于检查参数属性的合法性。

构造函数里通过AddInput添加输入参数,通过AddOutput添加输出参数,通过AddComment添加Op的注释。这些函数会将对应内容添加到OpProto中。

上面的代码在MulOp中添加两个输入XY,添加了一个输出Out,并解释了各自含义,命名请遵守命名规范。

再以ScaleOp为例:

template <typename AttrType>
class ScaleOpMaker : public framework::OpProtoAndCheckerMaker {
 public:
  ScaleOpMaker(framework::OpProto *proto, framework::OpAttrChecker *op_checker)
      : OpProtoAndCheckerMaker(proto, op_checker) {
    AddInput("X", "The input tensor of scale operator.").NotInGradient();
    AddOutput("Out", "The output tensor of scale operator.").NotInGradient();
    AddComment(R"DOC(Scale operator
The equation is: Out = scale*X
)DOC");
    AddAttr<AttrType>("scale", "scale of scale operator.").SetDefault(1.0);
  }
};

这个例子有两处不同:

  • AddInput("X","...").NotInGradient() : 表示X这个输入不参与ScaleOp对应的梯度Op计算之中,如果Op的某个输入不参与反向梯度的计算,请显示地调用.NotInGradient()进行设置。
  • AddAttr<AttrType>("scale", "...").SetDefault(1.0); : 增加scale系数,作为参数属性,并且设置默认值为1.0。

2. 定义Operator类

下面的点实现了MulOp的定义:

class MulOp : public framework::OperatorWithKernel {
 public:
  using framework::OperatorWithKernel::OperatorWithKernel;

 protected:
  void InferShape(const framework::InferShapeContext &ctx) const override {
    auto dim0 = ctx.Input<Tensor>("X")->dims();
    auto dim1 = ctx.Input<Tensor>("Y")->dims();
    PADDLE_ENFORCE_EQ(dim0.size(), 2,
                      "input X(%s) should be a tensor with 2 dims, a matrix",
                      ctx.op_.Input("X"));
    PADDLE_ENFORCE_EQ(dim1.size(), 2,
                      "input Y(%s) should be a tensor with 2 dims, a matrix",
                      ctx.op_.Input("Y"));
    PADDLE_ENFORCE_EQ(
        dim0[1], dim1[0],
        "First matrix's width must be equal with second matrix's height.");
    ctx.Output<Tensor>("Out")->Resize({dim0[0], dim1[1]});
  }
};

MulOp继承自OperatorWithKernelpublic成员:

using framework::OperatorWithKernel::OperatorWithKernel;

这句表示使用基类OperatorWithKernel的构造函数,也可写成:

MulOp(const std::string &type, const framework::VariableNameMap &inputs,
      const framework::VariableNameMap &outputs,
      const framework::AttributeMap &attrs)
  : OperatorWithKernel(type, inputs, outputs, attrs) {}

还需要重写InferShape接口。InferShape为const函数,不能修改Op的成员变量,参数为const framework::InferShapeContext &ctx,通过该参数可获取到输入输出以及属性。它的功能是:

  • 1). 做检查, 尽早报错:检查输入数据维度、类型等是否合法。
  • 2). 设置输出Tensor的形状。

通常OpProtoMakerOp类的定义写在.cc文件中,和下面将要介绍的注册函数一起放在.cc

3. 定义OpKernel类

MulKernel继承自framework::OpKernel,带有下面两个模板参数:

  • typename Place: 表示设备类型,不同设备(CPU、GPU)共享同一个Kernel时,需加该模板参数,不共享则不加,一个不共享的例子是OnehotCrossEntropyOpKernel
  • typename T : 表示数据类型,如float, double等。

需要为MulKernel类重写Compute接口。

  • Compute接受一个输入参数:const framework::ExecutionContext& context
  • InferShapeContext相比,ExecutionContext增加了设备类型,同样可获取到输入输出和属性参数。
  • Compute函数里实现OpKernel的具体计算逻辑。

下面是 MulKernel Compute的实现:

template <typename Place, typename T>
class MulKernel : public framework::OpKernel {
public:
void Compute(const framework::ExecutionContext& context) const override {
  auto* X = context.Input<Tensor>("X");
  auto* Y = context.Input<Tensor>("Y");
  auto* Z = context.Output<Tensor>("Out");
  Z->mutable_data<T>(context.GetPlace());
  auto* device_context =
      const_cast<platform::DeviceContext*>(context.device_context_);
  math::matmul<Place, T>(*X, false, *Y, false, 1, Z, 0, device_context);
}
};

需要注意:不同设备(CPU、GPU)共享一个Op定义,是否则共享同一个OpKernel,取决于Compute调用的函数是否支持不同设备。

MulOp的CPU、GPU实现共享同一个KernelOpKernel不共享的例子可以参考:OnehotCrossEntropyOpKernel

为了使OpKernel的计算过程书写更加简单,并且CPU、GPU的代码可以复用,我们通常借助 Eigen unsupported Tensor模块来实现Compute接口。关于在PaddlePaddle中如何使用Eigen库,请参考使用文档

到此,前向Op实现完成。接下来,需要在.cc文件中注册该op和kernel。 反向Op类的定义,反向OpKernel的定义与前向Op类似,这里不再赘述。但需注意反向Op没有ProtoMaker

4. 注册Operator

  • .cc文件中注册前向、反向Op类,注册CPU Kernel。

    namespace ops = paddle::operators;
    REGISTER_OP(mul, ops::MulOp, ops::MulOpMaker, mul_grad, ops::MulOpGrad);
    REGISTER_OP_CPU_KERNEL(mul, ops::MulKernel<paddle::platform::CPUPlace, float>);
    REGISTER_OP_CPU_KERNEL(mul_grad,
                  ops::MulGradKernel<paddle::platform::CPUPlace, float>);
    

    在上面的代码中:

    • REGISTER_OP : 注册ops::MulOp类,类型名为mul,该类的ProtoMakerops::MulOpMaker,注册ops::MulOpGrad,类型名为mul_grad
    • REGISTER_OP_WITHOUT_GRADIENT : 用于注册没有反向的Op。
    • REGISTER_OP_CPU_KERNEL :注册ops::MulKernel类,并特化模板参数为paddle::platform::CPUPlacefloat类型,同理,注册ops::MulKernel类。
  • .cu文件中注册GPU Kernel。

    • 请注意,如果GPU Kernel的实现基于Eigen unsupported模块,那么在 .cu的开始请加上宏定义 #define EIGEN_USE_GPU,代码示例如下:
    // if use Eigen unsupported module before include head files
    #define EIGEN_USE_GPU
    
    namespace ops = paddle::operators;
    REGISTER_OP_GPU_KERNEL(mul, ops::MulKernel<paddle::platform::GPUPlace, float>);
    REGISTER_OP_GPU_KERNEL(mul_grad,
                           ops::MulGradKernel<paddle::platform::GPUPlace, float>);
    

5. 编译

  • 简单无特殊依赖的OP无需修改CMakeList.txt文件。paddle/operators/CMakeLists.txt 会自动将 paddle/operators 目录下新增的 *_op.cc 文件加入编译。

  • 较为复杂、有额外依赖 的operator仍需要修改paddle/operators/CMakeLists.txt。如,mul_op 依赖 math_function,需要在CMakeLists.txt中添加如下内容:

    op_library(mul_op SRCS mul_op.cc mul_op.cu DEPS math_function)       +
    
  • 运行下面命令可以进行编译:

    make mul_op
    

绑定Python

  • 绑定Python

    paddle/pybind/pybind.cc 使用USE_OP告知编译器需要链接的Op,具体解释参考代码注释

    USE_OP(mul);
    

    如果只实现了CPU版本,则使用USE_CPU_ONLY_OP:

    USE_CPU_ONLY_OP(gather);
    

    如果OP不带Kernel,则使用USE_NO_KENREL_OP:

    USE_NO_KENREL_OP(recurrent);
    
  • 生成库

    无需修改 paddle/pybind/CMakeLists.txt文件,paddle/operators 目录下新增的 *_op.cc 文件会被自动添加链接到生成的lib库中。

实现单元测试

单测包括对比前向Op不同设备(CPU、GPU)的实现、对比反向OP不同设备(CPU、GPU)的实现、反向Op的梯度测试。下面介绍介绍MulOp的单元测试

前向Operator单元测试

前向Op单元测试继承自unittest.TestCase,并定义元类__metaclass__ = OpTestMeta。各项更加具体的单元测试在OpTestMeta里完成。测试前向Operator,需要:

  1. setUp函数定义输入、输出,以及相关的属性参数。
  2. 生成随机的输入数据。
  3. 在Python脚本中实现与前向operator相同的计算逻辑,得到输出值,与operator前向计算的输出进行对比。
import unittest
import numpy as np
from gradient_checker import GradientChecker, create_op
from op_test_util import OpTestMeta

class TestMulOp(unittest.TestCase):
    __metaclass__ = OpTestMeta

    def setUp(self):
        self.type = "mul"
        self.inputs = {
            'X': np.random.random((32, 84)).astype("float32"),
            'Y': np.random.random((84, 100)).astype("float32")
        }
        self.outputs = {'Out': np.dot(self.inputs['X'], self.inputs['Y'])}

上面的代码首先导入依赖的包,下面是对setUp函数中操作的重要变量的详细解释:

  • self.type = "mul" : 定义类型,与operator注册时注册的类型一致。
  • self.inputs : 定义输入,类型为numpy.array,并初始化。
  • self.outputs : 定义输出,并在Python脚本中完成与operator同样的计算逻辑,返回Python端的计算结果。

反向Operator单元测试

反向Op单元测试继承自GradientChecker,而GradientChecker继承自unittest.TestCase,因此,反向单元测试函数需要以test_开头

class TestMulGradOp(GradientChecker):
    def setUp(self):
        self.op = create_op("mul")
        self.inputs = {
            'X': np.random.random((32, 84)).astype("float32"),
            'Y': np.random.random((84, 100)).astype("float32")
        }

    def test_cpu_gpu_compare(self):
        self.compare_grad(self.op, self.inputs)

    def test_normal(self):
        # mul op will enlarge the relative error
        self.check_grad(
            self.op, self.inputs, ["X", "Y"], "Out", max_relative_error=0.5)

    def test_ignore_x(self):
        self.check_grad(
            self.op,
            self.inputs, ["Y"],
            "Out",
            max_relative_error=0.5,
            no_grad_set={"X"})

    def test_ignore_y(self):
        self.check_grad(
            self.op,
            self.inputs, ["X"],
            "Out",
            max_relative_error=0.5,
            no_grad_set={"Y"})

下面解释代码中一些关键的地方:

  • 调用create_op("mul")创建反向Op对应的前向Op。
  • 调用compare_grad函数对比CPU、GPU计算结果。
  • test_normal中调用check_grad使用数值法检测梯度正确性和稳定性。
    • 第一个参数self.op : 前向Op。
    • 第二个参数self.inputs : 输入词典,词典的Key和ProtoMaker定义保持一致。
    • 第三个参数["X", "Y"] : 指定对输入变量XY做梯度检测。
    • 第四个参数"Out" : 指定前向网络最终的输出目标变量Out
  • test_ignore_xtest_ignore_y分支用来测试只需要计算一个输入梯度的情况。

编译和执行单元测试

单元测试编写完成之后,在python/paddle/v2/framework/tests/CMakeLists.txt中添加以下内容,将单元测试加入工程:

py_test(test_mul_op SRCS test_mul_op.py)

请注意,不同于Op的编译测试,运行单元测试测时需要编译整个工程,并且编译时需要打开WITH_TESTING, 即cmake paddle_dir -DWITH_TESTING=ON。编译成功后,执行下面的命令来运行单元测试:

make test ARGS="-R test_mul_op -V"

或者:

ctest -R test_mul_op