Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
ERNIE
提交
c54d5f93
E
ERNIE
项目概览
PaddlePaddle
/
ERNIE
大约 1 年 前同步成功
通知
109
Star
5997
Fork
1270
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
29
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
E
ERNIE
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
29
Issue
29
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
c54d5f93
编写于
3月 04, 2019
作者:
Y
Yibing Liu
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Release docs of bert
上级
cf6c39fc
变更
2
展开全部
隐藏空白更改
内联
并排
Showing
2 changed file
with
408 addition
and
18 deletion
+408
-18
BERT/README.md
BERT/README.md
+400
-0
BERT/inference/README.md
BERT/inference/README.md
+8
-18
未找到文件。
BERT/README.md
浏览文件 @
c54d5f93
此差异已折叠。
点击以展开。
BERT/inference/README.md
浏览文件 @
c54d5f93
...
...
@@ -28,25 +28,24 @@ src_id, pos_id, segment_id, self_attention_bias, next_segment_index
## 编译和运行
为了编译 inference demo,
`
c
++`
编译器需要支持
`C++11`
标准。
为了编译 inference demo,
`
C
++`
编译器需要支持
`C++11`
标准。
首先下载对应的
[
Fluid_inference库
](
http://paddlepaddle.org/documentation/docs/zh/1.2/advanced_usage/deploy/inference/build_and_install_lib_cn.html
)
, 根据使用的 paddle 的版本和配置状况 (是否使用 avx, mkl, 以及 cuda, cudnn 版本) 选择下载对应的版本,并解压至
`inference`
目录,会得到
`fluid_inference`
文件夹
。
首先下载对应的
[
PaddlePaddle预测库
](
http://paddlepaddle.org/documentation/docs/zh/1.3/advanced_usage/deploy/inference/build_and_install_lib_cn.html
)
, 根据使用的 paddle 的版本和配置状况 (是否使用 avx, mkl, 以及 cuda, cudnn 版本) 选择下载对应的版本,并解压至
`inference`
目录,会得到
`fluid_inference`
子目录
。
设置运行相关的环境变量(以
`cpu_avx_mkl`
版本为例)
假设
`paddle_infer_lib_path`
是刚才解压得到的
`fluid_inference`
子目录的绝对路径,
设置运行相关的环境变量(以
`cpu_avx_mkl`
版本为例)
```
bash
LD_LIBRARY_PATH
=
fluid_inference
/paddle/lib/:
$LD_LIBRARY_PATH
LD_LIBRARY_PATH
=
fluid_inference
/third_party/install/mklml/lib:
$LD_LIBRARY_PATH
LD_LIBRARY_PATH
=
fluid_inference
/third_party/install/mkldnn/lib:
$LD_LIBRARY_PATH
LD_LIBRARY_PATH
=
${
paddle_infer_lib_path
}
/paddle/lib/:
$LD_LIBRARY_PATH
LD_LIBRARY_PATH
=
${
paddle_infer_lib_path
}
/third_party/install/mklml/lib:
$LD_LIBRARY_PATH
LD_LIBRARY_PATH
=
${
paddle_infer_lib_path
}
/third_party/install/mkldnn/lib:
$LD_LIBRARY_PATH
export
LD_LIBRARY_PATH
```
编译 demo
```
bash
mkdir
build
cd
build
cmake
mkdir
build
&&
cd
build
cmake ..
-DFLUID_INFER_LIB
=
${
paddle_infer_lib_path
}
make
```
...
...
@@ -60,12 +59,3 @@ make
--data
$DATA_PATH
\
--repeat
$REPEAT_NUM
```
## 性能测试
E5-2680 CPU,单线程下196样本性能如下
| repeat | 单样本耗时(ms) |
| ----- | ----- |
| 10 | 264.696 |
| 50 | 264.84 |
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录