resize.cpp 7.5 KB
Newer Older
1 2
#include "test/common/resize.h"
#include "megdnn/oprs/cv.h"
M
Megvii Engine Team 已提交
3 4
#include "test/common/checker.h"
#include "test/naive/fixture.h"
5 6 7 8 9 10 11 12 13

using namespace megdnn;
using namespace test;

TEST_F(NAIVE, RESIZE_NCHW4) {
    Checker<Resize> checker(handle());

    auto args = resize::get_nchw4_args();
    auto convert_true_format = [](const TensorLayout& layout) {
M
Megvii Engine Team 已提交
14
        return layout.reshape({layout[0], layout[1] / 4, layout[2], layout[3], 4})
15 16 17 18
                .dimshuffle({0, 1, 4, 2, 3});
    };

    for (auto&& arg : args) {
M
Megvii Engine Team 已提交
19 20
        auto extra_impl = [this, param = arg.param,
                           convert_true_format](const TensorNDArray& tensors) {
21 22 23 24 25 26 27
            auto resize = handle()->create_operator<Resize>();
            resize->param().imode = param.imode;
            resize->param().format = Resize::Param::Format::NCHW;

            TensorNDArray nchw_tensors;
            for (size_t i = 0; i < tensors.size(); ++i) {
                auto layout = tensors[i].layout;
M
Megvii Engine Team 已提交
28 29
                layout = layout.reshape(
                        {layout[0], layout[1] * 4, layout[2], layout[3]});
30
                layout.dtype = dtype::Int8();
M
Megvii Engine Team 已提交
31
                nchw_tensors.emplace_back(malloc(layout.span().dist_byte()), layout);
32 33 34 35
            }
            TensorNDArray nchw4_tensors;
            for (size_t i = 0; i < tensors.size(); ++i) {
                auto layout = convert_true_format(nchw_tensors[i].layout);
36
                nchw4_tensors.emplace_back(tensors[i].raw_ptr(), std::move(layout));
37 38 39 40 41 42 43
            }

            auto relayout = handle()->create_operator<RelayoutForward>();
            relayout->exec(nchw4_tensors[0], nchw_tensors[0]);

            auto workspace_size = resize->get_workspace_in_bytes(
                    nchw_tensors[0].layout, nchw_tensors[1].layout);
M
Megvii Engine Team 已提交
44
            dt_byte* workspace_ptr = static_cast<dt_byte*>(malloc(workspace_size));
45 46 47 48 49 50 51
            Workspace workspace{workspace_ptr, workspace_size};

            resize->exec(nchw_tensors[0], nchw_tensors[1], workspace);

            relayout->exec(nchw_tensors[1], nchw4_tensors[1]);

            free(workspace_ptr);
M
Megvii Engine Team 已提交
52
            for (auto&& tensor : nchw_tensors) {
53
                free(tensor.raw_ptr());
54 55 56 57
            }
        };
        checker.set_extra_opr_impl(extra_impl);
        checker.set_param(arg.param)
M
Megvii Engine Team 已提交
58 59 60 61
                .set_dtype(0, dtype::QuantizedS8(0.1f))
                .set_dtype(1, dtype::QuantizedS8(0.1f))
                .set_epsilon(1 + 1e-3)
                .execs({arg.src, arg.dst});
62 63
    }
}
64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155

TEST_F(NAIVE, RESIZE3D_NCDHW) {
    using IMode = param::Resize3D::InterpolationMode;
    using Format = param::Resize3D::Format;
    auto ac_param = param::Resize3D{IMode::LINEAR, Format::NCDHW, true};
    auto nac_param = param::Resize3D{IMode::LINEAR, Format::NCDHW, false};

    Checker<Resize3D> checker(handle());
    checker.set_param(nac_param).exect(
            Testcase{
                    TensorValue(
                            {1, 1, 2, 2, 2}, dtype::Float32(),
                            {0., 1., 2., 3., 4., 5., 6., 7.}),
                    {}},
            Testcase{
                    {},
                    TensorValue(
                            {1, 1, 4, 4, 4}, dtype::Float32(),
                            {0.,   0.25, 0.75, 1.,   0.5,  0.75, 1.25, 1.5,  1.5,  1.75,
                             2.25, 2.5,  2.,   2.25, 2.75, 3.,   1.,   1.25, 1.75, 2.,
                             1.5,  1.75, 2.25, 2.5,  2.5,  2.75, 3.25, 3.5,  3.,   3.25,
                             3.75, 4.,   3.,   3.25, 3.75, 4.,   3.5,  3.75, 4.25, 4.5,
                             4.5,  4.75, 5.25, 5.5,  5.,   5.25, 5.75, 6.,   4.,   4.25,
                             4.75, 5.,   4.5,  4.75, 5.25, 5.5,  5.5,  5.75, 6.25, 6.5,
                             6.,   6.25, 6.75, 7.})});

    checker.set_param(ac_param).exect(
            Testcase{
                    TensorValue(
                            {1, 1, 2, 2, 2}, dtype::Float32(),
                            {0., 1., 2., 3., 4., 5., 6., 7.}),
                    {}},
            Testcase{
                    {},
                    TensorValue(
                            {1, 1, 4, 4, 4}, dtype::Float32(),
                            {0.,        0.3333333, 0.6666667, 1.,        0.6666667,
                             1.,        1.3333333, 1.6666666, 1.3333334, 1.6666667,
                             1.9999999, 2.3333333, 2.,        2.3333333, 2.6666665,
                             3.,        1.3333334, 1.6666666, 2.0000002, 2.3333335,
                             2.,        2.333333,  2.6666667, 2.9999998, 2.6666665,
                             3.,        3.3333333, 3.6666665, 3.3333333, 3.6666665,
                             4.,        4.3333335, 2.6666667, 3.,        3.3333337,
                             3.6666667, 3.3333335, 3.6666663, 4.,        4.333333,
                             3.9999998, 4.333333,  4.6666665, 5.,        4.6666665,
                             5.,        5.3333335, 5.666667,  4.,        4.333333,
                             4.666667,  5.,        4.6666665, 4.9999995, 5.3333335,
                             5.6666665, 5.333333,  5.6666665, 6.,        6.3333335,
                             6.,        6.333333,  6.666667,  7.})});

    checker.set_param(nac_param).exect(
            Testcase{
                    TensorValue(
                            {1, 1, 2, 2, 2}, dtype::Float16(),
                            {0., 1., 2., 3., 4., 5., 6., 7.}),
                    {}},
            Testcase{
                    {},
                    TensorValue(
                            {1, 1, 4, 4, 4}, dtype::Float16(),
                            {0.,   0.25, 0.75, 1.,   0.5,  0.75, 1.25, 1.5,  1.5,  1.75,
                             2.25, 2.5,  2.,   2.25, 2.75, 3.,   1.,   1.25, 1.75, 2.,
                             1.5,  1.75, 2.25, 2.5,  2.5,  2.75, 3.25, 3.5,  3.,   3.25,
                             3.75, 4.,   3.,   3.25, 3.75, 4.,   3.5,  3.75, 4.25, 4.5,
                             4.5,  4.75, 5.25, 5.5,  5.,   5.25, 5.75, 6.,   4.,   4.25,
                             4.75, 5.,   4.5,  4.75, 5.25, 5.5,  5.5,  5.75, 6.25, 6.5,
                             6.,   6.25, 6.75, 7.})});

    checker.set_param(ac_param).exect(
            Testcase{
                    TensorValue(
                            {1, 1, 2, 2, 2}, dtype::Float16(),
                            {0., 1., 2., 3., 4., 5., 6., 7.}),
                    {}},
            Testcase{
                    {},
                    TensorValue(
                            {1, 1, 4, 4, 4}, dtype::Float16(),
                            {0.,        0.3333333, 0.6666667, 1.,        0.6666667,
                             1.,        1.3333333, 1.6666666, 1.3333334, 1.6666667,
                             1.9999999, 2.3333333, 2.,        2.3333333, 2.6666665,
                             3.,        1.3333334, 1.6666666, 2.0000002, 2.3333335,
                             2.,        2.333333,  2.6666667, 2.9999998, 2.6666665,
                             3.,        3.3333333, 3.6666665, 3.3333333, 3.6666665,
                             4.,        4.3333335, 2.6666667, 3.,        3.3333337,
                             3.6666667, 3.3333335, 3.6666663, 4.,        4.333333,
                             3.9999998, 4.333333,  4.6666665, 5.,        4.6666665,
                             5.,        5.3333335, 5.666667,  4.,        4.333333,
                             4.666667,  5.,        4.6666665, 4.9999995, 5.3333335,
                             5.6666665, 5.333333,  5.6666665, 6.,        6.3333335,
                             6.,        6.333333,  6.666667,  7.})});
}