未验证 提交 bd8cf89d 编写于 作者: S ShiningZhang 提交者: GitHub

Merge branch 'develop' into develop

......@@ -392,6 +392,9 @@ op:
#ir_optim, 开启TensorRT时,必须同时设置ir_optim=True,否则无效
ir_optim: True
#CPU 计算线程数,在CPU场景开启会降低单次请求响应时长
#thread_num: 10
#precsion, 预测精度,降低预测精度可提升预测速度
#GPU 支持: "fp32"(default), "fp16", "int8";
#CPU 支持: "fp32"(default), "fp16", "bf16"(mkldnn); 不支持: "int8"
......@@ -430,6 +433,9 @@ op:
#ir_optim, 开启TensorRT时,必须同时设置ir_optim=True,否则无效
ir_optim: True
#CPU 计算线程数,在CPU场景开启会降低单次请求响应时长
#thread_num: 10
#precsion, 预测精度,降低预测精度可提升预测速度
#GPU 支持: "fp32"(default), "fp16", "int8";
#CPU 支持: "fp32"(default), "fp16", "bf16"(mkldnn); 不支持: "int8"
......
......@@ -397,6 +397,9 @@ op:
#ir_optim, When running on TensorRT,must set ir_optim=True
ir_optim: True
#CPU 计算线程数,在CPU场景开启会降低单次请求响应时长
#thread_num: 10
#precsion, Decrease accuracy can increase speed
#GPU 支持: "fp32"(default), "fp16", "int8";
#CPU 支持: "fp32"(default), "fp16", "bf16"(mkldnn); 不支持: "int8"
......@@ -435,6 +438,9 @@ op:
#ir_optim, When running on TensorRT,must set ir_optim=True
ir_optim: True
#CPU 计算线程数,在CPU场景开启会降低单次请求响应时长
#thread_num: 10
#precsion, Decrease accuracy can increase speed
#GPU 支持: "fp32"(default), "fp16", "int8";
#CPU 支持: "fp32"(default), "fp16", "bf16"(mkldnn); 不支持: "int8"
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册