Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
FluidDoc
提交
2afade00
F
FluidDoc
项目概览
PaddlePaddle
/
FluidDoc
通知
5
Star
2
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
23
列表
看板
标记
里程碑
合并请求
111
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
F
FluidDoc
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
23
Issue
23
列表
看板
标记
里程碑
合并请求
111
合并请求
111
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
2afade00
编写于
10月 12, 2018
作者:
T
tink2123
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix doc typo for release/1.0.0
上级
a72b01cf
变更
4
显示空白变更内容
内联
并排
Showing
4 changed file
with
56 addition
and
62 deletion
+56
-62
doc/fluid/advanced_usage/deploy/anakin_tutorial.md
doc/fluid/advanced_usage/deploy/anakin_tutorial.md
+35
-38
doc/fluid/advanced_usage/development/gpu_profiling_cn.rst
doc/fluid/advanced_usage/development/gpu_profiling_cn.rst
+1
-4
doc/fluid/user_guides/howto/inference/native_infer.md
doc/fluid/user_guides/howto/inference/native_infer.md
+18
-18
doc/fluid/user_guides/howto/inference/paddle_tensorrt_infer.md
...luid/user_guides/howto/inference/paddle_tensorrt_infer.md
+2
-2
未找到文件。
doc/fluid/advanced_usage/deploy/anakin_tutorial.md
浏览文件 @
2afade00
...
@@ -114,15 +114,15 @@ Anakin中数据类型与基本数据类型的对应如下:
...
@@ -114,15 +114,15 @@ Anakin中数据类型与基本数据类型的对应如下:
理论上,Anakin支持申明1维以上的tensor,但是对于Anakin中的Op来说,只支持NW、NHW、NCHW、NCHW_C4这四种LayOut,其中NCHW是默认的LayOuteType,NCHW_C4是专门针对于int8这种数据类型的。
理论上,Anakin支持申明1维以上的tensor,但是对于Anakin中的Op来说,只支持NW、NHW、NCHW、NCHW_C4这四种LayOut,其中NCHW是默认的LayOuteType,NCHW_C4是专门针对于int8这种数据类型的。
例子
**例子:**
下面的代码将展示如何使用tensor, 我们建议先看看这些示例。
下面的代码将展示如何使用tensor, 我们建议先看看这些示例。
要想获得更多关于tensor的信息, 请参考 *soure_path/core/tensor.h*
要想获得更多关于tensor的信息, 请参考
*soure_path/core/tensor.h*
>
1. 使用shape对象初始化tensor
1.
使用shape对象初始化tensor
```c
++
```c
pp
//create a null tensor. A null tensor holds for nothing.
//create a null tensor. A null tensor holds for nothing.
//tensor's buffer is resident at CPU and its datatype is AK_FLOAT.
//tensor's buffer is resident at CPU and its datatype is AK_FLOAT.
//tensor's Layout is NCHW(default)
//tensor's Layout is NCHW(default)
...
@@ -136,7 +136,7 @@ Anakin中数据类型与基本数据类型的对应如下:
...
@@ -136,7 +136,7 @@ Anakin中数据类型与基本数据类型的对应如下:
Shape shape2(N, C, H, W); // batch x channel x height x width
Shape shape2(N, C, H, W); // batch x channel x height x width
```
```
>
`注意:Shape的维度必须和tensor的`[LayoutType](#layout)`相同,比如Shape(N,C,H,W), 那么Tensor的 LayoutType必须是NCHW,否则会出错。如下列代码所示`
`注意:Shape的维度必须和tensor的`[LayoutType](#layout)`相同,比如Shape(N,C,H,W), 那么Tensor的 LayoutType必须是NCHW,否则会出错。如下列代码所示`
```c++
```c++
// A 4-D tensor.
// A 4-D tensor.
...
@@ -147,13 +147,11 @@ Anakin中数据类型与基本数据类型的对应如下:
...
@@ -147,13 +147,11 @@ Anakin中数据类型与基本数据类型的对应如下:
Tensor<X86, AK_FLOAT, NHW> mytensor4(shape2); //wrong!! shape's dimetion must be equal to tensor's Layout.
Tensor<X86, AK_FLOAT, NHW> mytensor4(shape2); //wrong!! shape's dimetion must be equal to tensor's Layout.
Tensor<NV, AK_FLOAT, NCHW_C4> mytensor5(shape2); //wrong!!!!
Tensor<NV, AK_FLOAT, NCHW_C4> mytensor5(shape2); //wrong!!!!
```
```
>
2. 使用现有的数据和shape初始化tensor
2.
使用现有的数据和shape初始化tensor
```c++
```c++
/**
/**
* A construtor of Tensor.
* A construtor of Tensor.
* data_ptr is a pointer to any data type of data
* data_ptr is a pointer to any data type of data
...
@@ -165,16 +163,15 @@ Anakin中数据类型与基本数据类型的对应如下:
...
@@ -165,16 +163,15 @@ Anakin中数据类型与基本数据类型的对应如下:
//using existing data feed to a tensor
//using existing data feed to a tensor
Tensor<X86, AK_FLOAT> mytensor(data_ptr, TargetType, device_id, shape); //shape must has dimention (N, C, H, W).
Tensor<X86, AK_FLOAT> mytensor(data_ptr, TargetType, device_id, shape); //shape must has dimention (N, C, H, W).
```
```
>
3. 使用tensor初始化tensor
3.
使用tensor初始化tensor
```c++
```c++
Tensor<NV, AK_FLOAT> tensor(exist_tensor);
Tensor<NV, AK_FLOAT> tensor(exist_tensor);
```
```
>
提示: 你可以用` typedef Tensor<X86, AK_FLOAT> Tensor4d_X86 `方便定义tensor
>
提示: 你可以用` typedef Tensor<X86, AK_FLOAT> Tensor4d_X86 `方便定义tensor
#### 填充tensor数据区
#### 填充tensor数据区
...
...
doc/fluid/advanced_usage/development/gpu_profiling_cn.rst
浏览文件 @
2afade00
...
@@ -63,10 +63,7 @@ above profilers.
...
@@ -63,10 +63,7 @@ above profilers.
上述的代码片段包含了两种方法,您可以任意使用一个或两个来对感兴趣的代码段做性能分析。
上述的代码片段包含了两种方法,您可以任意使用一个或两个来对感兴趣的代码段做性能分析。
1. :code:`REGISTER_TIMER_INFO` 是一个内置的定时器封装,可以用来计算CPU函数或cuda内核的时间消耗。
1. :code:`REGISTER_TIMER_INFO` 是一个内置的定时器封装,可以用来计算CPU函数或cuda内核的时间消耗。
2. :code:`REGISTER_GPU_PROFILER` 是 :code:`cudaProfilerStart` 和 :code:`cudaProfilerStop` 的通用包装对象,避免当CPU版本的PaddlePaddle调用它们时程序崩溃。
2. :code:`REGISTER_GPU_PROFILER` is a general purpose wrapper object of :code:`cudaProfilerStart` and :code:`cudaProfilerStop` to avoid
program crashes when CPU version of PaddlePaddle invokes them.
3. :code:`REGISTER_GPU_PROFILER` 是一个封装对象,封装了 :code:`cudaProfilerStart` 和 :code:`cudaProfileStop` 两个操作;同时其内部实现可以避免纯CPU版本PaddlePaddle在执行本语句时发生崩溃。
3. :code:`REGISTER_GPU_PROFILER` 是一个封装对象,封装了 :code:`cudaProfilerStart` 和 :code:`cudaProfileStop` 两个操作;同时其内部实现可以避免纯CPU版本PaddlePaddle在执行本语句时发生崩溃。
您会在接下来的部分中获得更多的细节介绍。
您会在接下来的部分中获得更多的细节介绍。
...
...
doc/fluid/user_guides/howto/inference/native_infer.md
浏览文件 @
2afade00
...
@@ -76,25 +76,25 @@ CHECK(predictor->Run(slots, &outputs));
...
@@ -76,25 +76,25 @@ CHECK(predictor->Run(slots, &outputs));
1.
自动分配和管理内存
1.
自动分配和管理内存
```
c++
```
c++
int
some_size
=
1024
;
int
some_size
=
1024
;
PaddleTensor
tensor
;
PaddleTensor
tensor
;
tensor
.
data
.
Resize
(
some_size
);
tensor
.
data
.
Resize
(
some_size
);
```
```
2.
外部内存传入
2.
外部内存传入
```
c++
int
some_size
=
1024
;
// 用户外部分配内存并保证 PaddleTensor 使用过程中,内存一直可用
void
*
memory
=
new
char
[
some_size
];
```
c++
tensor
.
data
.
Reset
(
memory
,
some_size
);
int
some_size
=
1024
;
// ...
// 用户外部分配内存并保证 PaddleTensor 使用过程中,内存一直可用
void
*
memory
=
new
char
[
some_size
];
tensor
.
data
.
Reset
(
memory
,
some_size
);
// 用户最后需要自行删除内存以避免内存泄漏
// ...
// 用户最后需要自行删除内存以避免内存泄漏
delete
[]
memory
;
delete
[]
memory
;
```
```
两种模式中,第一种比较方便;第二种则可以严格控制内存的管理,便于与
`tcmalloc`
等库的集成。
两种模式中,第一种比较方便;第二种则可以严格控制内存的管理,便于与
`tcmalloc`
等库的集成。
...
...
doc/fluid/user_guides/howto/inference/paddle_tensorrt_infer.md
浏览文件 @
2afade00
...
@@ -113,12 +113,12 @@ int main() {
...
@@ -113,12 +113,12 @@ int main() {
**原始网络**
**原始网络**
<p
align=
"center"
>
<p
align=
"center"
>
<img
src=
"https://raw.githubusercontent.com/NHZlX/FluidDoc/add_trt_doc/doc/fluid/user_guides/howto/inference/image/model_graph_original.png"
width=
800
>
<img
src=
"https://raw.githubusercontent.com/NHZlX/FluidDoc/add_trt_doc/doc/fluid/user_guides/howto/inference/image/model_graph_original.png"
width=
"600"
>
</p>
</p>
**转换的网络**
**转换的网络**
<p
align=
"center"
>
<p
align=
"center"
>
<img
src=
"https://raw.githubusercontent.com/NHZlX/FluidDoc/add_trt_doc/doc/fluid/user_guides/howto/inference/image/model_graph_trt.png"
width=
800
>
<img
src=
"https://raw.githubusercontent.com/NHZlX/FluidDoc/add_trt_doc/doc/fluid/user_guides/howto/inference/image/model_graph_trt.png"
width=
"600"
>
</p>
</p>
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录