diff --git a/doc/fluid/advanced_usage/deploy/inference/native_infer.md b/doc/fluid/advanced_usage/deploy/inference/native_infer.md index cfc4b85f0868785ac9912a7bc6bd525e4be82620..985959a74975a1b5c34b3e03a62f02c85237b66c 100644 --- a/doc/fluid/advanced_usage/deploy/inference/native_infer.md +++ b/doc/fluid/advanced_usage/deploy/inference/native_infer.md @@ -25,7 +25,8 @@ PaddleTensor 定义了预测最基本的输入输出的数据格式,常用字 `Config` 有两种,`NativeConfig` 较简单和稳定,`AnalysisConfig` 功能更新,性能更好 - `NativeConfig` 原生 engine,由 paddle 原生的 forward operator - 组成,可以天然支持所有paddle 训练出的模型, + 组成,可以天然支持所有paddle 训练出的模型 + - `AnalysisConfig` - 支持计算图的分析和优化 - 支持最新的各类 op fuse,性能一般比 `NativeConfig` 要好 diff --git a/doc/fluid/user_guides/howto/prepare_data/reader_cn.md b/doc/fluid/user_guides/howto/prepare_data/reader_cn.md index bc2ecf35cb81134b678b5748fff08f19503983c6..fc44cc298c0c04fda2dea0a4f561463c0f188978 100644 --- a/doc/fluid/user_guides/howto/prepare_data/reader_cn.md +++ b/doc/fluid/user_guides/howto/prepare_data/reader_cn.md @@ -159,7 +159,7 @@ reader = paddle.reader.shuffle(paddle.dataset.mnist.train(), 512) 我们提供一个函数来将一个单项reader转换成一个batch reader。 -### 为什么需要一个batch raeder,在训练过程中给出reader和batch_size参数这样不足够吗? +### 为什么需要一个batch reader,在训练过程中给出reader和batch_size参数这样不足够吗? 在大多数情况下,在训练方法中给出reader和batch_size参数是足够的。但有时用户想自定义mini batch里数据项的顺序,或者动态改变batch_size。在这些情况下用batch reader会非常高效有用。