提交 e368bc58 编写于 作者: L Liangliang He

Update formatting

上级 bd222f84
......@@ -20,6 +20,6 @@ struct StatsFuture {
};
};
} // namespace mace
} // namespace mace
#endif // MACE_CORE_FUTURE_H_
......@@ -63,6 +63,6 @@ std::unique_ptr<NetBase> CreateNet(
DeviceType type,
const NetMode mode = NetMode::NORMAL);
} // namespace mace
} // namespace mace
#endif // MACE_CORE_NET_H_
......@@ -169,6 +169,6 @@ MACE_DECLARE_REGISTRY(OpRegistry,
#define REGISTER_OPERATOR(op_registry, name, ...) \
MACE_REGISTER_CLASS(OpRegistry, op_registry->registry(), name, __VA_ARGS__)
} // namespace mace
} // namespace mace
#endif // MACE_CORE_OPERATOR_H
......@@ -74,4 +74,4 @@ size_t GetEnumTypeSize(const DataType dt) {
}
}
} // namespace mace
} // namespace mace
......@@ -66,7 +66,7 @@ struct BiasAddFunctor<DeviceType::OPENCL, T> {
cl::Kernel kernel_;
};
} // namepsace kernels
} // namespace mace
} // namepsace kernels
} // namespace mace
#endif // MACE_KERNELS_BIAS_ADD_H_
......@@ -39,7 +39,7 @@ struct BufferToImageFunctor<DeviceType::OPENCL, T> : BufferToImageFunctorBase{
StatsFuture *future);
};
} // namepsace kernels
} // namespace mace
} // namepsace kernels
} // namespace mace
#endif // MACE_KERNELS_BUFFER_TO_IMAGE_H_
......@@ -43,7 +43,7 @@ class ChannelShuffleFunctor {
const int group_;
};
} // namespace kernels
} // namespace mace
} // namespace kernels
} // namespace mace
#endif // MACE_KERNELS_CHANNEL_SHUFFLE_H_
......@@ -85,7 +85,7 @@ struct ConcatFunctor<DeviceType::OPENCL, T> : ConcatFunctorBase{
};
} // namepsace kernels
} // namespace mace
} // namepsace kernels
} // namespace mace
#endif // MACE_KERNELS_CONCAT_H_
......@@ -50,7 +50,7 @@ void ConstructNHWCInputWithPadding(const Tensor *input,
Tensor *output_tensor,
bool padding_same_value = false);
} // namespace kernels
} // namespace mace
} // namespace kernels
} // namespace mace
#endif // MACE_KERNELS_CONV_POOL_2D_UTIL_H_
......@@ -90,7 +90,7 @@ struct FullyConnectedFunctor<DeviceType::OPENCL, T> : FullyConnectedBase {
cl::Kernel kernel_;
};
} // namespace kernels
} // namespace mace
} // namespace kernels
} // namespace mace
#endif // MACE_KERNELS_FULLY_CONNECTED_H_
......@@ -42,7 +42,7 @@ void GlobalAvgPoolingFunctor<DeviceType::NEON, float>::operator()(
const float *input, const index_t *input_shape,
float *output, StatsFuture *future);
} // namespace kernels
} // namespace mace
} // namespace kernels
} // namespace mace
#endif // MACE_KERNELS_GLOBAL_AVG_POOLING_H_
......@@ -63,7 +63,7 @@ struct MatMulFunctor<DeviceType::OPENCL, T> {
cl::Kernel kernel_;
};
} // namespace kernels
} // namespace mace
} // namespace kernels
} // namespace mace
#endif // MACE_KERNELS_MATMUL_H_
......@@ -106,5 +106,5 @@ void Conv2dFunctor<DeviceType::NEON, float>::operator()(const Tensor *input,
bias_data, output_data, output_shape);
}
} // namespace kernels
} // namespace mace
} // namespace kernels
} // namespace mace
......@@ -331,5 +331,5 @@ void Conv2dNeonK3x3S2(const float *input, // NCHW
}
}
}
} // namespace kernels
} // namespace mace
} // namespace kernels
} // namespace mace
......@@ -413,7 +413,7 @@ void Conv2dNeonK5x5S1(const float *input, // NCHW
}
}
} // namespace kernels
} // namespace mace
} // namespace kernels
} // namespace mace
#endif // MACE_KERNELS_NEON_CONV_2D_NEON_5X5_H_
......@@ -77,5 +77,5 @@ void DepthwiseConv2dFunctor<DeviceType::NEON, float>::operator()(
output_shape);
}
} // namespace kernels
} // namespace mace
} // namespace kernels
} // namespace mace
......@@ -84,4 +84,4 @@ template
struct AddNFunctor<DeviceType::OPENCL, half>;
} // namespace kernels
} // namespace mace
} // namespace mace
......@@ -103,4 +103,4 @@ template
struct FullyConnectedFunctor<DeviceType::OPENCL, half>;
} // namespace kernels
} // namespace mace
} // namespace mace
......@@ -74,4 +74,4 @@ template
struct MatMulFunctor<DeviceType::OPENCL, half>;
} // namespace kernels
} // namespace mace
} // namespace mace
......@@ -175,7 +175,7 @@ struct PoolingFunctor<DeviceType::OPENCL, T> : PoolingFunctorBase {
cl::Kernel kernel_;
};
} // namespace kernels
} // namespace mace
} // namespace kernels
} // namespace mace
#endif // MACE_KERNELS_POOLING_H
......@@ -59,7 +59,7 @@ struct SoftmaxFunctor<DeviceType::OPENCL, T> {
cl::Kernel kernel_;
};
} // namepsace kernels
} // namespace mace
} // namepsace kernels
} // namespace mace
#endif // MACE_KERNELS_SOFTMAX_H_
......@@ -26,4 +26,4 @@ void Register_Activation(OperatorRegistry *op_registry) {
ActivationOp<DeviceType::OPENCL, half>);
}
} // namespace mace
} // namespace mace
......@@ -26,4 +26,4 @@ void Register_AddN(OperatorRegistry *op_registry) {
AddNOp<DeviceType::OPENCL, half>);
}
} // namespace mace
} // namespace mace
......@@ -55,6 +55,6 @@ class BatchNormOp : public Operator<D, T> {
OP_OUTPUT_TAGS(OUTPUT);
};
} // namespace mace
} // namespace mace
#endif // MACE_OPS_BATCH_NORM_H_
......@@ -19,4 +19,4 @@ void Register_BatchToSpaceND(OperatorRegistry *op_registry) {
BatchToSpaceNDOp<DeviceType::OPENCL, half>);
}
} // namespace mace
} // namespace mace
......@@ -26,4 +26,4 @@ void Register_BiasAdd(OperatorRegistry *op_registry) {
BiasAddOp<DeviceType::OPENCL, half>);
}
} // namespace mace
} // namespace mace
......@@ -40,6 +40,6 @@ class BiasAddOp : public Operator<D, T> {
OP_OUTPUT_TAGS(OUTPUT);
};
} // namespace mace
} // namespace mace
#endif // MACE_BIAS_ADD_H_
......@@ -40,6 +40,6 @@ class ConcatOp : public Operator<D, T> {
OP_OUTPUT_TAGS(OUTPUT);
};
} // namespace mace
} // namespace mace
#endif // MACE_OPS_CONCAT_H_
......@@ -101,4 +101,4 @@ static void BM_CONCATOPENCLHalf(int iters, int dim1) {
BENCHMARK(BM_CONCATOPENCLFloat)->Arg(32)->Arg(64)->Arg(128)->Arg(256);
BENCHMARK(BM_CONCATOPENCLHalf)->Arg(32)->Arg(64)->Arg(128)->Arg(256);
} // namespace mace
\ No newline at end of file
} // namespace mace
\ No newline at end of file
......@@ -56,4 +56,4 @@ TEST(CoreTest, INIT_MODE) {
1e-5);
}
} // namespace mace
} // namespace mace
......@@ -26,4 +26,4 @@ void Register_Eltwise(OperatorRegistry *op_registry) {
EltwiseOp<DeviceType::OPENCL, half>);
}
} // namespace mace
} // namespace mace
......@@ -42,6 +42,6 @@ class EltwiseOp : public Operator<D, T> {
OP_OUTPUT_TAGS(OUTPUT);
};
} // namespace mace
} // namespace mace
#endif // MACE_OPS_RESHAPE_H_
......@@ -81,4 +81,4 @@ BM_ELTWISE(0, 1, 240, 240, 256);
BM_ELTWISE(1, 1, 240, 240, 256);
BM_ELTWISE(2, 1, 240, 240, 256);
} // namespace mace
} // namespace mace
......@@ -29,4 +29,4 @@ void Register_FoldedBatchNorm(OperatorRegistry *op_registry) {
FoldedBatchNormOp<DeviceType::OPENCL, half>);
}
} // namespace mace
} // namespace mace
......@@ -49,6 +49,6 @@ class FoldedBatchNormOp : public Operator<D, T> {
OP_OUTPUT_TAGS(OUTPUT);
};
} // namespace mace
} // namespace mace
#endif // MACE_OPS_FOLDED_BATCH_NORM_H_
......@@ -26,4 +26,4 @@ void Register_FullyConnected(OperatorRegistry *op_registry) {
FullyConnectedOp<DeviceType::OPENCL, half>);
}
} // namespace mace
} // namespace mace
......@@ -14,4 +14,4 @@ void Register_GlobalAvgPooling(OperatorRegistry *op_registry) {
GlobalAvgPoolingOp<DeviceType::CPU, float>);
}
} // namespace mace
} // namespace mace
......@@ -20,4 +20,4 @@ void Register_ImageToBuffer(OperatorRegistry *op_registry) {
ImageToBufferOp<DeviceType::OPENCL, half>);
}
} // namespace mace
} // namespace mace
......@@ -26,4 +26,4 @@ void Register_MatMul(OperatorRegistry *op_registry) {
MatMulOp<DeviceType::OPENCL, half>);
}
} // namespace mace
} // namespace mace
......@@ -30,4 +30,4 @@ void Register_Pooling(OperatorRegistry *op_registry) {
PoolingOp<DeviceType::OPENCL, half>);
}
} // namespace mace
} // namespace mace
......@@ -14,4 +14,4 @@ void Register_Reshape(OperatorRegistry *op_registry) {
ReshapeOp<DeviceType::CPU, float>);
}
} // namespace mace
} // namespace mace
......@@ -59,6 +59,6 @@ class ReshapeOp : public Operator<D, T> {
OP_OUTPUT_TAGS(OUTPUT);
};
} // namespace mace
} // namespace mace
#endif // MACE_OPS_RESHAPE_H_
......@@ -26,4 +26,4 @@ void Register_ResizeBilinear(OperatorRegistry *op_registry) {
ResizeBilinearOp<DeviceType::OPENCL, half>);
}
} // namespace mace
} // namespace mace
......@@ -26,4 +26,4 @@ void Register_Softmax(OperatorRegistry *op_registry) {
SoftmaxOp<DeviceType::OPENCL, half>);
}
} // namespace mace
} // namespace mace
......@@ -35,6 +35,6 @@ class SoftmaxOp : public Operator<D, T> {
OP_OUTPUT_TAGS(OUTPUT);
};
} // namespace mace
} // namespace mace
#endif // MACE_SOFTMAX_H_
......@@ -65,4 +65,4 @@ BM_SOFTMAX(1, 3, 128, 128);
BM_SOFTMAX(1, 3, 512, 512);
BM_SOFTMAX(1, 32, 112, 112);
BM_SOFTMAX(1, 64, 256, 256);
} // namespace mace
} // namespace mace
......@@ -19,4 +19,4 @@ void Register_SpaceToBatchND(OperatorRegistry *op_registry) {
SpaceToBatchNDOp<DeviceType::OPENCL, half>);
}
} // namespace mace
} // namespace mace
......@@ -19,4 +19,4 @@ void Register_WinogradInverseTransform(OperatorRegistry *op_registry) {
WinogradInverseTransformOp<DeviceType::OPENCL, half>);
}
} // namespace mace
} // namespace mace
......@@ -19,4 +19,4 @@ void Register_WinogradTransform(OperatorRegistry *op_registry) {
WinogradTransformOp<DeviceType::OPENCL, half>);
}
} // namespace mace
} // namespace mace
......@@ -180,5 +180,5 @@ class Tuner {
std::unordered_map<std::string, std::vector<param_type>> param_table_;
};
} // namespace mace
} // namespace mace
#endif // MACE_UTILS_TUNER_H_
......@@ -94,5 +94,5 @@ inline std::string ObfuscateSymbol(const std::string &src) {
#define MACE_OBFUSCATE_SYMBOL(str) (str)
#endif
} // namespace mace
} // namespace mace
#endif // MACE_UTILS_UTILS_H_
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册