diff --git a/lite/tutorials/source_zh_cn/use/benchmark_tool.md b/lite/tutorials/source_zh_cn/use/benchmark_tool.md index 172026a124d13a5b497bb67e1e6ccb278a0fc66a..343cc463771816d9e003bbebc356142d3d9d97cd 100644 --- a/lite/tutorials/source_zh_cn/use/benchmark_tool.md +++ b/lite/tutorials/source_zh_cn/use/benchmark_tool.md @@ -37,6 +37,7 @@ Benchmark工具是一款可以对MindSpore Lite模型进行基准测试的工具 [--inDataType=] [--loopCount=] [--numThreads=] [--omModelPath=] [--resizeDims=] [--warmUpLoopCount=] + [--fp16Priority=] ``` 下面提供详细的参数说明。 @@ -56,6 +57,7 @@ Benchmark工具是一款可以对MindSpore Lite模型进行基准测试的工具 | `--omModelPath=` | 可选 | 指定OM模型的文件路径,此参数仅当`device`类型为NPU时可选设置。 | String | null | - | | `--resizeDims=` | 可选 | 指定测试模型输入数据需要调整的尺寸大小。 | String | null | - | | `--warmUpLoopCount=` | 可选 | 指定测试模型在执行基准测试运行轮数前进行的模型预热推理次数。 | Integer | 3 | - | +| `--fp16Priority=` | 可选 | 指定是否优先使用float16算子。 | Bool | false | true, false | ## 使用示例 diff --git a/lite/tutorials/source_zh_cn/use/timeprofiler_tool.md b/lite/tutorials/source_zh_cn/use/timeprofiler_tool.md index f3bce7af197beacb782aa4a8a1d7b0188712be6a..f43612d95f10ecdb454b7c1e0a254ecd32038201 100644 --- a/lite/tutorials/source_zh_cn/use/timeprofiler_tool.md +++ b/lite/tutorials/source_zh_cn/use/timeprofiler_tool.md @@ -29,7 +29,7 @@ TimeProfiler工具可以对MindSpore Lite模型网络层的前向推理进行耗 使用编译好的TimeProfiler工具进行模型网络层耗时分析时,其命令格式如下所示。 ```bash -./timeprofiler --modelPath= [--help] [--loopCount=] [--numThreads=] [--cpuBindMode=] [--inDataPath=] +./timeprofiler --modelPath= [--help] [--loopCount=] [--numThreads=] [--cpuBindMode=] [--inDataPath=] [--fp16Priority=] ``` 下面提供详细的参数说明。 @@ -42,6 +42,7 @@ TimeProfiler工具可以对MindSpore Lite模型网络层的前向推理进行耗 | `--numThreads=` | 可选 | 指定模型推理程序运行的线程数。 | Integer | 4 | - | | `--cpuBindMode=` | 可选 | 指定模型推理程序运行时绑定的CPU核类型。 | Integer | 1 | -1:表示中核
1:表示大核
0:表示不绑定 | | `--inDataPath=` | 可选 | 指定模型输入数据的文件路径。如果未设置,则使用随机输入。 | String | null | - | +| `--fp16Priority=` | 可选 | 指定是否优先使用float16算子。 | Bool | false | true, false | ## 使用示例