提交 1f2b0dd3 编写于 作者: M mindspore-ci-bot 提交者: Gitee

!396 Ascend 310 do not support ckpt model inference

Merge pull request !396 from leiyuning/master
......@@ -7,13 +7,12 @@
- [Inference on the Ascend 910 AI processor](#inference-on-the-ascend-910-ai-processor)
- [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file)
- [Inference on the Ascend 310 AI processor](#inference-on-the-ascend-310-ai-processor)
- [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file-1)
- [Inference Using an ONNX or GEIR File](#inference-using-an-onnx-or-geir-file)
- [Inference on a GPU](#inference-on-a-gpu)
- [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file-2)
- [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file-1)
- [Inference Using an ONNX File](#inference-using-an-onnx-file)
- [Inference on a CPU](#inference-on-a-cpu)
- [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file-3)
- [Inference Using a Checkpoint File](#inference-using-a-checkpoint-file-2)
- [Inference Using an ONNX File](#inference-using-an-onnx-file-1)
- [On-Device Inference](#on-device-inference)
......@@ -71,10 +70,6 @@ MindSpore supports the following inference scenarios based on the hardware platf
## Inference on the Ascend 310 AI processor
### Inference Using a Checkpoint File
The inference is the same as that on the Ascend 910 AI processor.
### Inference Using an ONNX or GEIR File
The Ascend 310 AI processor is equipped with the ACL framework and supports the OM format which needs to be converted from the model in ONNX or GEIR format. For inference on the Ascend 310 AI processor, perform the following steps:
......
......@@ -7,13 +7,12 @@
- [Ascend 910 AI处理器上推理](#ascend-910-ai处理器上推理)
- [使用checkpoint格式文件推理](#使用checkpoint格式文件推理)
- [Ascend 310 AI处理器上推理](#ascend-310-ai处理器上推理)
- [使用checkpoint格式文件推理](#使用checkpoint格式文件推理-1)
- [使用ONNX与GEIR格式文件推理](#使用onnx与geir格式文件推理)
- [GPU上推理](#gpu上推理)
- [使用checkpoint格式文件推理](#使用checkpoint格式文件推理-2)
- [使用checkpoint格式文件推理](#使用checkpoint格式文件推理-1)
- [使用ONNX格式文件推理](#使用onnx格式文件推理)
- [CPU上推理](#cpu上推理)
- [使用checkpoint格式文件推理](#使用checkpoint格式文件推理-3)
- [使用checkpoint格式文件推理](#使用checkpoint格式文件推理-2)
- [使用ONNX格式文件推理](#使用onnx格式文件推理-1)
- [端侧推理](#端侧推理)
......@@ -71,10 +70,6 @@ CPU | ONNX格式 | 支持ONNX推理的runtime/SDK,如TensorRT。
## Ascend 310 AI处理器上推理
### 使用checkpoint格式文件推理
与在Ascend 910 AI处理器上推理一样。
### 使用ONNX与GEIR格式文件推理
Ascend 310 AI处理器上搭载了ACL框架,他支持OM格式,而OM格式需要从ONNX或者GEIR模型进行转换。所以在Ascend 310 AI处理器上推理,需要下述两个步骤:
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册