“3638320f3b75e3949ffe77a546a918a0bc4fb295”上不存在“paddlespeech/cli/whisper/infer.py”
提交 bd222f84 编写于 作者: L Liangliang He

Fix comment format

上级 123f4938
...@@ -598,4 +598,4 @@ bool MaceEngine::Run(const float *input, ...@@ -598,4 +598,4 @@ bool MaceEngine::Run(const float *input,
} }
} }
} // namespace mace } // namespace mace
...@@ -69,4 +69,4 @@ struct BiasAddFunctor<DeviceType::OPENCL, T> { ...@@ -69,4 +69,4 @@ struct BiasAddFunctor<DeviceType::OPENCL, T> {
} // namepsace kernels } // namepsace kernels
} // namespace mace } // namespace mace
#endif // MACE_KERNELS_BIAS_ADD_H_ #endif // MACE_KERNELS_BIAS_ADD_H_
...@@ -42,4 +42,4 @@ struct BufferToImageFunctor<DeviceType::OPENCL, T> : BufferToImageFunctorBase{ ...@@ -42,4 +42,4 @@ struct BufferToImageFunctor<DeviceType::OPENCL, T> : BufferToImageFunctorBase{
} // namepsace kernels } // namepsace kernels
} // namespace mace } // namespace mace
#endif // MACE_KERNELS_BUFFER_TO_IMAGE_H_ #endif // MACE_KERNELS_BUFFER_TO_IMAGE_H_
...@@ -88,4 +88,4 @@ struct ConcatFunctor<DeviceType::OPENCL, T> : ConcatFunctorBase{ ...@@ -88,4 +88,4 @@ struct ConcatFunctor<DeviceType::OPENCL, T> : ConcatFunctorBase{
} // namepsace kernels } // namepsace kernels
} // namespace mace } // namespace mace
#endif // MACE_KERNELS_CONCAT_H_ #endif // MACE_KERNELS_CONCAT_H_
...@@ -416,4 +416,4 @@ void Conv2dNeonK5x5S1(const float *input, // NCHW ...@@ -416,4 +416,4 @@ void Conv2dNeonK5x5S1(const float *input, // NCHW
} // namespace kernels } // namespace kernels
} // namespace mace } // namespace mace
#endif // MACE_KERNELS_NEON_CONV_2D_NEON_5X5_H_ #endif // MACE_KERNELS_NEON_CONV_2D_NEON_5X5_H_
...@@ -106,4 +106,4 @@ template ...@@ -106,4 +106,4 @@ template
struct ConcatFunctor<DeviceType::OPENCL, half>; struct ConcatFunctor<DeviceType::OPENCL, half>;
} // namespace kernels } // namespace kernels
} // namespace mace } // namespace mace
...@@ -95,5 +95,5 @@ std::string Concat(Args... args) { ...@@ -95,5 +95,5 @@ std::string Concat(Args... args) {
} }
} // namespace kernels } // namespace kernels
} // namespace mace } // namespace mace
#endif // MACE_KERNELS_OPENCL_HELPER_H_ #endif // MACE_KERNELS_OPENCL_HELPER_H_
...@@ -75,6 +75,6 @@ void SpaceToBatchFunctor<DeviceType::OPENCL, T>::operator()(Tensor *space_tensor ...@@ -75,6 +75,6 @@ void SpaceToBatchFunctor<DeviceType::OPENCL, T>::operator()(Tensor *space_tensor
template struct SpaceToBatchFunctor<DeviceType::OPENCL, float>; template struct SpaceToBatchFunctor<DeviceType::OPENCL, float>;
template struct SpaceToBatchFunctor<DeviceType::OPENCL, half>; template struct SpaceToBatchFunctor<DeviceType::OPENCL, half>;
} // namespace kernels } // namespace kernels
} // namespace mace } // namespace mace
#endif // MACE_KERNELS_OPENCL_SPACE_TO_BATCH_H_ #endif // MACE_KERNELS_OPENCL_SPACE_TO_BATCH_H_
...@@ -62,4 +62,4 @@ struct SoftmaxFunctor<DeviceType::OPENCL, T> { ...@@ -62,4 +62,4 @@ struct SoftmaxFunctor<DeviceType::OPENCL, T> {
} // namepsace kernels } // namepsace kernels
} // namespace mace } // namespace mace
#endif // MACE_KERNELS_SOFTMAX_H_ #endif // MACE_KERNELS_SOFTMAX_H_
...@@ -57,4 +57,4 @@ class BatchNormOp : public Operator<D, T> { ...@@ -57,4 +57,4 @@ class BatchNormOp : public Operator<D, T> {
} // namespace mace } // namespace mace
#endif // MACE_OPS_BATCH_NORM_H_ #endif // MACE_OPS_BATCH_NORM_H_
...@@ -42,4 +42,4 @@ class BiasAddOp : public Operator<D, T> { ...@@ -42,4 +42,4 @@ class BiasAddOp : public Operator<D, T> {
} // namespace mace } // namespace mace
#endif // MACE_BIAS_ADD_H_ #endif // MACE_BIAS_ADD_H_
...@@ -42,4 +42,4 @@ class ConcatOp : public Operator<D, T> { ...@@ -42,4 +42,4 @@ class ConcatOp : public Operator<D, T> {
} // namespace mace } // namespace mace
#endif // MACE_OPS_CONCAT_H_ #endif // MACE_OPS_CONCAT_H_
...@@ -44,4 +44,4 @@ class EltwiseOp : public Operator<D, T> { ...@@ -44,4 +44,4 @@ class EltwiseOp : public Operator<D, T> {
} // namespace mace } // namespace mace
#endif // MACE_OPS_RESHAPE_H_ #endif // MACE_OPS_RESHAPE_H_
...@@ -51,4 +51,4 @@ class FoldedBatchNormOp : public Operator<D, T> { ...@@ -51,4 +51,4 @@ class FoldedBatchNormOp : public Operator<D, T> {
} // namespace mace } // namespace mace
#endif // MACE_OPS_FOLDED_BATCH_NORM_H_ #endif // MACE_OPS_FOLDED_BATCH_NORM_H_
...@@ -34,5 +34,5 @@ class ImageToBufferOp: public Operator<D, T> { ...@@ -34,5 +34,5 @@ class ImageToBufferOp: public Operator<D, T> {
OP_OUTPUT_TAGS(OUTPUT); OP_OUTPUT_TAGS(OUTPUT);
}; };
} // namespace mace } // namespace mace
#endif // MACE_OPS_IMAGE_TO_BUFFER_H_ #endif // MACE_OPS_IMAGE_TO_BUFFER_H_
...@@ -405,4 +405,4 @@ void ImageToBuffer(OpsTestNet &net, ...@@ -405,4 +405,4 @@ void ImageToBuffer(OpsTestNet &net,
} // namespace mace } // namespace mace
#endif // MACE_OPS_TEST_UTIL_H_ #endif // MACE_OPS_TEST_UTIL_H_
...@@ -61,4 +61,4 @@ class ReshapeOp : public Operator<D, T> { ...@@ -61,4 +61,4 @@ class ReshapeOp : public Operator<D, T> {
} // namespace mace } // namespace mace
#endif // MACE_OPS_RESHAPE_H_ #endif // MACE_OPS_RESHAPE_H_
...@@ -37,4 +37,4 @@ class SoftmaxOp : public Operator<D, T> { ...@@ -37,4 +37,4 @@ class SoftmaxOp : public Operator<D, T> {
} // namespace mace } // namespace mace
#endif // MACE_SOFTMAX_H_ #endif // MACE_SOFTMAX_H_
...@@ -181,4 +181,4 @@ class Tuner { ...@@ -181,4 +181,4 @@ class Tuner {
}; };
} // namespace mace } // namespace mace
#endif // MACE_UTILS_TUNER_H_ #endif // MACE_UTILS_TUNER_H_
...@@ -81,4 +81,4 @@ TEST_F(TunerTest, SimpleTune) { ...@@ -81,4 +81,4 @@ TEST_F(TunerTest, SimpleTune) {
EXPECT_EQ(expect, res); EXPECT_EQ(expect, res);
} }
} // namespace mace } // namespace mace
...@@ -95,4 +95,4 @@ inline std::string ObfuscateSymbol(const std::string &src) { ...@@ -95,4 +95,4 @@ inline std::string ObfuscateSymbol(const std::string &src) {
#endif #endif
} // namespace mace } // namespace mace
#endif // MACE_UTILS_UTILS_H_ #endif // MACE_UTILS_UTILS_H_
...@@ -81,4 +81,4 @@ TEST_F(TunerTest, SimpleTune) { ...@@ -81,4 +81,4 @@ TEST_F(TunerTest, SimpleTune) {
EXPECT_EQ(expect, res); EXPECT_EQ(expect, res);
} }
} // namespace mace } // namespace mace
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册