Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
magicwindyyd
mindspore
提交
ce27b7ba
M
mindspore
项目概览
magicwindyyd
/
mindspore
与 Fork 源项目一致
Fork自
MindSpore / mindspore
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
M
mindspore
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
ce27b7ba
编写于
8月 05, 2020
作者:
A
andy
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
change scripts to english
上级
f0f32302
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
21 addition
and
22 deletion
+21
-22
mindspore/lite/test/run_benchmark_nets.sh
mindspore/lite/test/run_benchmark_nets.sh
+21
-22
未找到文件。
mindspore/lite/test/run_benchmark_nets.sh
浏览文件 @
ce27b7ba
#!/bin/bash
#获取相关输入参数
#举例:sh run_benchmark_nets.sh -a /home/temp_test -c /home/temp_test -m /home/temp_test/models -d "8KE5T19620002408"
#example:sh run_benchmark_nets.sh -a /home/temp_test -c /home/temp_test -m /home/temp_test/models -d "8KE5T19620002408"
while
getopts
"a:c:m:d:"
opt
do
case
$opt
in
a
)
arm_path
=
$OPTARG
echo
"
参数arm_path的值
$OPTARG
"
echo
"
arm_path is
$OPTARG
"
;;
c
)
convertor_path
=
$OPTARG
echo
"
参数convertor_path的值
$OPTARG
"
echo
"
convertor_path is
$OPTARG
"
;;
m
)
models_path
=
$OPTARG
echo
"
参数models_path的值
$OPTARG
"
echo
"
models_path is
$OPTARG
"
;;
d
)
device_id
=
$OPTARG
echo
"
参数device_id的值
$OPTARG
"
echo
"
device_id is
$OPTARG
"
;;
?
)
echo
"
未知参数
"
echo
"
unknown para
"
exit
1
;;
esac
done
#
将编译好的arm包先放在如下目录进行调试
#
unzip arm
cd
$arm_path
tar
-zxf
MSLite-
*
-linux_arm64
.tar.gz
#
部署模型转换工具
#
unzip convertor
cd
$convertor_path
tar
-zxf
MSLite-
*
-linux_x86_64
.tar.gz
cd
$convertor_path
/MSLite-
*
-linux_x86_64
cp
converter/converter_lite ./
export
LD_LIBRARY_PATH
=
$LD_LIBRARY_PATH
:./lib/:./third_party/protobuf/lib
#
获取原始模型提前放置在
$models_path/
#
the original model's path:
$models_path/
#
进行模型转换
#
convert the models
cd
$convertor_path
/MSLite-
*
-linux_x86_64
#
模型
1:
#
model
1:
./converter_lite
--fmk
=
CAFFE
--modelFile
=
$models_path
/test.prototxt
--outputFile
=
$models_path
/test
--weightFile
=
$models_path
/test.caffemodel
#
模型
2:
#
model
2:
./converter_lite
--fmk
=
TFLITE
--modelFile
=
$models_path
/hiai_bigmodel_ghost_2_1_no_normalized_no_trans_tflite.tflite
--outputFile
=
$models_path
/hiai_bigmodel_ghost_2_1_no_normalized_no_trans_tflite
#
推送到手机上执行
benchmark:
#
push to the arm and run
benchmark:
#
一:复制到手机所在的机器上
#
first:copy to the server which connected to the phone
mkdir
-p
./benchmark_test
cp
$arm_path
/MSLite-0.6.0-linux_arm64/lib/libmindspore-lite.so ./benchmark_test/libmindspore-lite.so
cp
$arm_path
/MSLite-0.6.0-linux_arm64/benchmark/benchmark ./benchmark_test/benchmark
#
复制模型到连接手机服务器所在目录
:
#
模型
1:
#
copy the models
:
#
model
1:
cp
$models_path
/test.ms ./benchmark_test/
#
模型
2:
#
model
2:
cp
$models_path
/hiai_bigmodel_ghost_2_1_no_normalized_no_trans_tflite.ms ./benchmark_test/
#
二:adb 推送到手机上
#
second:adb push to the phone
adb
-s
$device_id
push ./benchmark_test /data/local/tmp/
#
三:执行adb命令,运行推理,获取返回值判断结果;
#
third:run adb ,run session ,check the result:
echo
'cd /data/local/tmp/'
>
adb_cmd.txt
echo
'chmod 777 benchmark'
>>
adb_cmd.txt
#
模型
1:
#
model
1:
echo
'export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/data/local/tmp/;./benchmark --modelPath=test.ms'
>>
adb_cmd.txt
#
模型
2:
#
model
2:
echo
'export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/data/local/tmp/benchmark_test;./benchmark --modelPath=hiai_bigmodel_ghost_2_1_no_normalized_no_trans_tflite.ms'
>>
adb_cmd.txt
adb
-s
$device_id
shell < adb_cmd.txt
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录