提交 36a7e0bb 编写于 作者: Z zhaizhiqiang

update README

上级 e3899c55
NNACL(neural network accelerated computing library) is a high performance library of neural network inference computing kernels for ARM.
MindSpore的设计目标
1 端云一体化:IR统一,云侧训练模型可以在端侧重训;云侧混合精度训练与端侧混合精度推理协同提升推理性能;
2 高性能与轻量化:高性能内核计算库nnacl,支持slide window、im2col+gemm、winograde等多种卷积算法,深度汇编指令优化;在线运行模块不依赖第三方库,保持框架的轻量化;
3 快捷部署:支持TensorFlow Lite、Caffe、ONNX等多种格式的模型转换;提供量化、图片数据处理等功能,便利用户部署;
4 全场景覆盖: Lite & Micro覆盖手机、IoT等各种智能设备
 
\ No newline at end of file
NNACL(neural network accelerated computing library) is a high performance library of neural network inference computing kernels for ARM.
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册