提交 ae87863c 编写于 作者: W weishengyu

update tipc configs

上级 d909facc
...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran ...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran
-o Global.benchmark:True -o Global.benchmark:True
null:null null:null
null:null null:null
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,224,224]}]
...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran ...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran
-o Global.benchmark:True -o Global.benchmark:True
null:null null:null
null:null null:null
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,384,384]}]
...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran ...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran
-o Global.benchmark:True -o Global.benchmark:True
null:null null:null
null:null null:null
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,224,224]}]
...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran ...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran
-o Global.benchmark:True -o Global.benchmark:True
null:null null:null
null:null null:null
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,384,384]}]
...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran ...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran
-o Global.benchmark:True -o Global.benchmark:True
null:null null:null
null:null null:null
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,224,224]}]
...@@ -56,3 +56,5 @@ fp_items:fp32 ...@@ -56,3 +56,5 @@ fp_items:fp32
epoch:1 epoch:1
--profiler_options:batch_range=[10,20];state=GPU;tracer_option=Default;profile_path=model.profile --profiler_options:batch_range=[10,20];state=GPU;tracer_option=Default;profile_path=model.profile
flags:FLAGS_eager_delete_tensor_gb=0.0;FLAGS_fraction_of_gpu_memory_to_use=0.98;FLAGS_conv_workspace_size_limit=4096 flags:FLAGS_eager_delete_tensor_gb=0.0;FLAGS_fraction_of_gpu_memory_to_use=0.98;FLAGS_conv_workspace_size_limit=4096
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,224,224]}]
...@@ -56,3 +56,5 @@ fp_items:fp32 ...@@ -56,3 +56,5 @@ fp_items:fp32
epoch:1 epoch:1
--profiler_options:batch_range=[10,20];state=GPU;tracer_option=Default;profile_path=model.profile --profiler_options:batch_range=[10,20];state=GPU;tracer_option=Default;profile_path=model.profile
flags:FLAGS_eager_delete_tensor_gb=0.0;FLAGS_fraction_of_gpu_memory_to_use=0.98;FLAGS_conv_workspace_size_limit=4096 flags:FLAGS_eager_delete_tensor_gb=0.0;FLAGS_fraction_of_gpu_memory_to_use=0.98;FLAGS_conv_workspace_size_limit=4096
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,256,256]}]
...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran ...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran
-o Global.benchmark:True -o Global.benchmark:True
null:null null:null
null:null null:null
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,256,256]}]
...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran ...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran
-o Global.benchmark:True -o Global.benchmark:True
null:null null:null
null:null null:null
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,256,256]}]
...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran ...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran
-o Global.benchmark:True -o Global.benchmark:True
null:null null:null
null:null null:null
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,224,224]}]
\ No newline at end of file
...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran ...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran
-o Global.benchmark:True -o Global.benchmark:True
null:null null:null
null:null null:null
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,224,224]}]
\ No newline at end of file
...@@ -56,3 +56,5 @@ fp_items:fp32 ...@@ -56,3 +56,5 @@ fp_items:fp32
epoch:1 epoch:1
--profiler_options:batch_range=[10,20];state=GPU;tracer_option=Default;profile_path=model.profile --profiler_options:batch_range=[10,20];state=GPU;tracer_option=Default;profile_path=model.profile
flags:FLAGS_eager_delete_tensor_gb=0.0;FLAGS_fraction_of_gpu_memory_to_use=0.98;FLAGS_conv_workspace_size_limit=4096 flags:FLAGS_eager_delete_tensor_gb=0.0;FLAGS_fraction_of_gpu_memory_to_use=0.98;FLAGS_conv_workspace_size_limit=4096
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,224,224]}]
...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran ...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran
-o Global.benchmark:True -o Global.benchmark:True
null:null null:null
null:null null:null
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,224,224]}]
...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran ...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran
-o Global.benchmark:True -o Global.benchmark:True
null:null null:null
null:null null:null
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,224,224]}]
...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran ...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran
-o Global.benchmark:True -o Global.benchmark:True
null:null null:null
null:null null:null
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,224,224]}]
...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran ...@@ -50,3 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran
-o Global.benchmark:True -o Global.benchmark:True
null:null null:null
null:null null:null
===========================infer_benchmark_params==========================
random_infer_input:[{float32,[3,224,224]}]
...@@ -50,9 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran ...@@ -50,9 +50,5 @@ inference:python/predict_cls.py -c configs/inference_cls.yaml -o PreProcess.tran
-o Global.benchmark:True -o Global.benchmark:True
null:null null:null
null:null null:null
===========================train_benchmark_params========================== ===========================infer_benchmark_params==========================
batch_size:128 random_infer_input:[{float32,[3,248,248]}]
fp_items:fp32
epoch:1
--profiler_options:batch_range=[10,20];state=GPU;tracer_option=Default;profile_path=model.profile
flags:FLAGS_eager_delete_tensor_gb=0.0;FLAGS_fraction_of_gpu_memory_to_use=0.98;FLAGS_conv_workspace_size_limit=4096
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册