如何写新的Operator

概念简介

简单介绍需要用到基类,详细介绍请参考设计文档。

  • framework::OperatorBase: Operator(简写,Op)基类。
  • framework::OpKernel: Op计算函数的基类,称作Kernel。
  • framework::OperatorWithKernel:继承自OperatorBase,Op有计算函数,称作有Kernel。
  • class OpProtoAndCheckerMaker:描述该Op的输入、输出、属性、注释,主要用于Python API接口生成

依据是否包含kernel,可以将Op分为两种:包含Kernel的Op和不包含kernel的Op,前者Op的定义继承自OperatorBase,后者继承自OperatorWithKernel。本教程主要介绍带Kernel的Op如何写,简单总结Op需要包含的内容如下:

内容 | 定义位置 ————– | :———————- OpProtoMake定义 | .cc文件,Backward Op不需要定义OpProtoMake Op定义 | .cc文件 Kernel实现 | CPU、GPU共享Kernel实现在.h文件中,否则,CPU 实现在.cc文件中,GPU 实现在.cu文件中。 注册Op | Op注册实现在.cc文件;Kernel注册CPU实现在.cc文件中,GPU实现在.cu文件中

实现新的op都添加至目录paddle/operators下,文件命名以*_op.h(如有) 、 *_op.cc*_op.cu(如有)结尾。

下面以矩阵乘操作,即MulOp为例来介绍如何写带Kernel的Operator。

实现C++类

1. 定义ProtoMaker类

矩阵乘的公式:$Out = X * Y$, 可见该计算由两个输入,一个输出组成。首先定义ProtoMaker来描述该Op的输入、输出及注释:

class MulOpMaker : public framework::OpProtoAndCheckerMaker {
 public:
  MulOpMaker(framework::OpProto *proto, framework::OpAttrChecker *op_checker)
      : OpProtoAndCheckerMaker(proto, op_checker) {
    AddInput("X", "The first input of mul op");
    AddInput("Y", "The second input of mul op");
    AddOutput("Out", "The output of mul op");
    AddComment(R"DOC(
Two Element Mul Operator.
The equation is: Out = X * Y
)DOC");
  }
};

MulOpMaker继承自framework::OpProtoAndCheckerMaker,构造函数包括2个参数:

  • framework::OpProto : 前者存储Op的输入输出和参数属性,将用于Python API接口的生成。
  • framework::OpAttrChecker :后者用于检查参数属性的合法性。

构造函数里通过AddInput添加输入参数,通过AddOutput添加输出参数,通过AddComment添加该Op的注释,这些函数会将对应内容添加到OpProto中。

MulOp中添加两个输入XY,添加了一个输出Out,并解释了各自含义,命名请遵守命名规范。

再举个ScaleOp的例子:

template <typename AttrType>
class ScaleOpMaker : public framework::OpProtoAndCheckerMaker {
 public:
  ScaleOpMaker(framework::OpProto *proto, framework::OpAttrChecker *op_checker)
      : OpProtoAndCheckerMaker(proto, op_checker) {
    AddInput("X", "The input tensor of scale operator.").NotInGradient();
    AddOutput("Out", "The output tensor of scale operator.").NotInGradient();
    AddComment(R"DOC(Scale operator
The equation is: Out = scale*X
)DOC");
    AddAttr<AttrType>("scale", "scale of scale operator.").SetDefault(1.0);
  }
};

这个例子有两处不同:

  • AddInput("X","...").NotInGradient() : 表示X这个输入不参与ScaleOp对应的梯度Op计算之中。
  • AddAttr<AttrType>("scale", "...").SetDefault(1.0); : 增加scale系数,作为参数属性,并且设置默认值为1.0。

2. 定义Operator类

class MulOp : public framework::OperatorWithKernel {
 public:
  using framework::OperatorWithKernel::OperatorWithKernel;

 protected:
  void InferShape(const framework::InferShapeContext &ctx) const override {
    auto dim0 = ctx.Input<Tensor>("X")->dims();
    auto dim1 = ctx.Input<Tensor>("Y")->dims();
    PADDLE_ENFORCE_EQ(dim0.size(), 2,
                      "input X(%s) should be a tensor with 2 dims, a matrix",
                      ctx.op_.Input("X"));
    PADDLE_ENFORCE_EQ(dim1.size(), 2,
                      "input Y(%s) should be a tensor with 2 dims, a matrix",
                      ctx.op_.Input("Y"));
    PADDLE_ENFORCE_EQ(
        dim0[1], dim1[0],
        "First matrix's width must be equal with second matrix's height.");
    ctx.Output<Tensor>("Out")->Resize({dim0[0], dim1[1]});
  }
};

MulOp继承自OperatorWithKernelpublic成员:

using framework::OperatorWithKernel::OperatorWithKernel;

这句表示使用基类OperatorWithKernel的构造函数,也可写成:

MulOp(const std::string &type, const framework::VariableNameMap &inputs,
      const framework::VariableNameMap &outputs,
      const framework::AttributeMap &attrs)
  : OperatorWithKernel(type, inputs, outputs, attrs) {}

还需要重写InferShape接口。InferShape为const函数,不能修改Op的成员变量,参数为const framework::InferShapeContext &ctx,通过该参数可获取到输入输出以及属性。它的功能是:

  • 1). 做检查, 尽早报错:检查输入数据维度、类型等是否合法。
  • 2). 设置输出Tensor的形状。

通常OpProtoMakerOp类的定义写在.cc文件中,和要讲到的注册函数一起放在.cc

3. 定义OpKernel类

template <typename Place, typename T>
class MulKernel : public framework::OpKernel {
 public:
  void Compute(const framework::ExecutionContext& context) const override {
    auto* X = context.Input<Tensor>("X");
    auto* Y = context.Input<Tensor>("Y");
    auto* Z = context.Output<Tensor>("Out");
    Z->mutable_data<T>(context.GetPlace());
    auto* device_context =
        const_cast<platform::DeviceContext*>(context.device_context_);
    math::matmul<Place, T>(*X, false, *Y, false, 1, Z, 0, device_context);
  }
};

MulKernel继承自framework::OpKernel,带有模板参数:

  • typename Place: 表示设备类型,不同设备(CPU、GPU)共享同一个Kernel时,需加该模板参数,不共享则不加,一个不共享的例子是OnehotCrossEntropyOpKernel
  • typename T : 表示数据类型,如float, double等。

MulKernel需要重写Compute接口,该接口参数为const framework::ExecutionContext& context, ExecutionContext相比InferShapeContext增加了设备类型,同样可获取到输入输出和属性参数,Compute函数里写具体实现时。

注意,不同设备(CPU、GPU)共享一个Op定义,是否则共享同一个OpKernel,取决于Compute调用的函数是否支持不同设备。MulOp的CPU、GPU实现共享同一个KernelOpKernel不共享的例子可以参考OnehotCrossEntropyOpKernel

为了使得OpKernel的计算过程书写较为简单,CPU、GPU的代码可以复用,我们通常借助Eigen unsupported Tensor模块来实现。关于在paddle中如何使用Eigen库,请参考对应的使用文档

到此前向Op实现完成,需要在.cc文件中注册该op和kernel。反向Op类的定义和Kernel定义与前向Op类似,这里不再重复。但注意,反向Op没有ProtoMaker

4. 注册Operator

.cc文件中注册前向、反向Op类,注册CPU Kernel。

namespace ops = paddle::operators;
REGISTER_OP(mul, ops::MulOp, ops::MulOpMaker, mul_grad, ops::MulOpGrad);
REGISTER_OP_CPU_KERNEL(mul, ops::MulKernel<paddle::platform::CPUPlace, float>);
REGISTER_OP_CPU_KERNEL(mul_grad,
              ops::MulGradKernel<paddle::platform::CPUPlace, float>);
  • REGISTER_OP : 注册ops::MulOp类,类型名为mul,该类的ProtoMakerops::MulOpMaker,注册ops::MulOpGrad,类型名为mul_grad
  • REGISTER_OP_WITHOUT_GRADIENT : 用于注册没有反向的Op。
  • REGISTER_OP_CPU_KERNEL :注册ops::MulKernel类,并特化模板参数为paddle::platform::CPUPlacefloat类型,同理,注册ops::MulKernel类。

.cu文件中注册GPU Kernel。请注意,如果GPU Kernel的实现是基于Eigen unsupported模块,那么在 .cu的最前面请加上宏定义 #define EIGEN_USE_GPU

// if use Eigen unsupported module before include head files
#define EIGEN_USE_GPU

namespace ops = paddle::operators;
REGISTER_OP_GPU_KERNEL(mul, ops::MulKernel<paddle::platform::GPUPlace, float>);
REGISTER_OP_GPU_KERNEL(mul_grad,
                       ops::MulGradKernel<paddle::platform::GPUPlace, float>);

5. 编译

  • 简单无特殊依赖的OP无需修改CMakeList.txt文件。paddle/operators/CMakeLists.txt 会自动将 paddle/operators 目录下新增的 *_op.cc 文件加入编译。

  • 较为复杂、有额外依赖 的operator仍需要修改paddle/operators/CMakeLists.txt。如,mul_op 依赖 math_function,需要在CMakeLists.txt中添加如下内容:

    op_library(mul_op SRCS mul_op.cc mul_op.cu DEPS math_function)       +
    
  • 运行下面命令可以进行编译:

    make mul_op
    

绑定Python

  • 绑定Python

    paddle/pybind/pybind.cc文件中添加该类:

    USE_OP(mul);
    

    如果只实现了CPU版本,则使用USE_CPU_ONLY_OP:

    USE_CPU_ONLY_OP(gather);
    

    如果OP不带Kernel,则使用USE_NO_KENREL_OP:

    USE_NO_KENREL_OP(recurrent);
    

    使用USE_OP告知编译器需要链接该Op的目标文件,具体解释参考代码注释

  • 生成库

    无需修改 paddle/pybind/CMakeLists.txt文件,paddle/operators 目录下新增的 *_op.cc 文件会自动被添加链接到生成的lib库中。

实现单元测试

单测包括对比前向Op不同设备(CPU、GPU)的实现、对比反向OP不同设备(CPU、GPU)的实现、反向Op的梯度测试。下面介绍介绍MulOp的单测

前向Operator单元测试

前向Op单测继承自unittest.TestCase,并定义元类__metaclass__ = OpTestMeta,具体单测流程在OpTestMeta里完成。需在setUp函数定义输入输出和属性参数,以及Python对比的输出值。

import unittest
import numpy as np
from gradient_checker import GradientChecker, create_op
from op_test_util import OpTestMeta

class TestMulOp(unittest.TestCase):
    __metaclass__ = OpTestMeta

    def setUp(self):
        self.type = "mul"
        self.inputs = {
            'X': np.random.random((32, 84)).astype("float32"),
            'Y': np.random.random((84, 100)).astype("float32")
        }
        self.outputs = {'Out': np.dot(self.inputs['X'], self.inputs['Y'])}

首先需要import必要的包,下面详细解释其他值:

  • self.type = "mul" : 定义类型,和注册的类型一致。
  • self.inputs : 定义输入,类型为Numpy.array,并初始化。
  • self.outputs : 定义输出,并得到Python结算结果。

反向Operator单元测试

反向Op单测继承自GradientChecker,而GradientChecker集成自unittest.TestCase,所以反向单测函数需要test_开头。

class TestMulGradOp(GradientChecker):
    def setUp(self):
        self.op = create_op("mul")
        self.inputs = {
            'X': np.random.random((32, 84)).astype("float32"),
            'Y': np.random.random((84, 100)).astype("float32")
        }

    def test_cpu_gpu_compare(self):
        self.compare_grad(self.op, self.inputs)

    def test_normal(self):
        # mul op will enlarge the relative error
        self.check_grad(
            self.op, self.inputs, ["X", "Y"], "Out", max_relative_error=0.5)

    def test_ignore_x(self):
        self.check_grad(
            self.op,
            self.inputs, ["Y"],
            "Out",
            max_relative_error=0.5,
            no_grad_set={"X"})

    def test_ignore_y(self):
        self.check_grad(
            self.op,
            self.inputs, ["X"],
            "Out",
            max_relative_error=0.5,
            no_grad_set={"Y"})

下面解释一些关键的地方:

  • 调用create_op("mul")创建反向Op对应的前向Op。
  • 调用compare_grad函数对比CPU、GPU计算结果。
  • test_normal中调用check_grad检查梯度稳定性,这里采用数值法检测梯度正确性。
    • 第一个参数self.op : 前向Op。
    • 第二个参数self.inputs : 输入词典,词典的Key和ProtoMaker定义保持一致。
    • 第三个参数["X", "Y"] : 指定对输入变量XY做梯度检测。
    • 第四个参数"Out" : 指定前向网络最终的输出目标变量Out
  • test_ignore_xtest_ignore_y分支测试只需要计算一个输入梯度的情况。

编译和执行单元测试

单测完成之后,在python/paddle/v2/framework/tests/CMakeLists.txt里添加以下内容将单测加入工程中:

py_test(test_mul_op SRCS test_mul_op.py)

请注意,不同于Op的编译测试,运行单元测试测时需要编译整个工程,并且编译时需要打开WITH_TESTING, 即cmake paddle_dir -DWITH_TESTING=ON。编译成功后,执行下面的命令来运行单测:

make test ARGS="-R test_mul_op -V"

或者:

ctest -R test_mul_op