提交 d4adaa95 编写于 作者: H Hao Wang 提交者: Cheerego

[to 1.3] cn api debug (#655)

* debug

* fix 2 -conv2d

* "锚" ==> anchor(s)
上级 335f5cd5
...@@ -11,16 +11,16 @@ load_inference_model ...@@ -11,16 +11,16 @@ load_inference_model
.. py:class:: paddle.fluid.io.load_inference_model(dirname, executor, model_filename=None, params_filename=None, pserver_endpoints=None) .. py:class:: paddle.fluid.io.load_inference_model(dirname, executor, model_filename=None, params_filename=None, pserver_endpoints=None)
从指定目录中加载 推理model(inference model) 从指定目录中加载预测模型model(inference model)
参数: 参数:
- **dirname** (str) – model的路径 - **dirname** (str) – model的路径
- **executor** (Executor) – 运行 inference model的 ``executor`` - **executor** (Executor) – 运行 inference model的 ``executor``
- **model_filename** (str|None) – 推理 Program 的文件名称。如果设置为None,将使用默认的文件名为: ``__model__`` - **model_filename** (str|None) – 存储着预测 Program 的文件名称。如果设置为None,将使用默认的文件名为: ``__model__``
- **params_filename** (str|None) – 加载所有相关参数的文件名称。如果设置为None,则参数将保存在单独的文件中。 - **params_filename** (str|None) – 加载所有相关参数的文件名称。如果设置为None,则参数将保存在单独的文件中。
- **pserver_endpoints** (list|None) – 只有在分布式推理时需要用到。 当在训练时使用分布式 look up table , 需要这个参数. 该参数是 pserver endpoints 的列表 - **pserver_endpoints** (list|None) – 只有在分布式预测时需要用到。 当在训练时使用分布式 look up table , 需要这个参数. 该参数是 pserver endpoints 的列表
返回: 这个函数的返回有三个元素的元组(Program,feed_target_names, fetch_targets)。Program 是一个 ``Program`` ,它是推理 ``Program``。 ``feed_target_names`` 是一个str列表,它包含需要在推理 ``Program`` 中提供数据的变量的名称。` `fetch_targets`` 是一个 ``Variable`` 列表,从中我们可以得到推断结果。 返回: 这个函数的返回有三个元素的元组(Program,feed_target_names, fetch_targets)。Program 是一个 ``Program`` ,它是预测 ``Program``。 ``feed_target_names`` 是一个str列表,它包含需要在预测 ``Program`` 中提供数据的变量的名称。``fetch_targets`` 是一个 ``Variable`` 列表,从中我们可以得到推断结果。
返回类型:元组(tuple) 返回类型:元组(tuple)
...@@ -39,7 +39,7 @@ load_inference_model ...@@ -39,7 +39,7 @@ load_inference_model
fetch_list=fetch_targets) fetch_list=fetch_targets)
# 在这个示例中,inference program 保存在 ./infer_model/__model__”中 # 在这个示例中,inference program 保存在 ./infer_model/__model__”中
# 参数保存在./infer_mode 单独的若干文件中 # 参数保存在./infer_mode 单独的若干文件中
# 加载 inference program 后, executor 使用 fetch_targets 和 feed_target_names 执行Program, 得到推理结果 # 加载 inference program 后, executor 使用 fetch_targets 和 feed_target_names 执行Program, 得到预测结果
...@@ -71,13 +71,13 @@ load_params ...@@ -71,13 +71,13 @@ load_params
**代码示例** **代码示例**
.. code-block:: python .. code-block:: python
exe = fluid.Executor(fluid.CPUPlace()) exe = fluid.Executor(fluid.CPUPlace())
param_path = "./my_paddle_model" param_path = "./my_paddle_model"
prog = fluid.default_main_program() prog = fluid.default_main_program()
fluid.io.load_params(executor=exe, dirname=param_path, fluid.io.load_params(executor=exe, dirname=param_path,
main_program=None) main_program=None)
...@@ -184,19 +184,19 @@ save_inference_model ...@@ -184,19 +184,19 @@ save_inference_model
.. py:class:: paddle.fluid.io.save_inference_model(dirname, feeded_var_names, target_vars, executor, main_program=None, model_filename=None, params_filename=None, export_for_deployment=True) .. py:class:: paddle.fluid.io.save_inference_model(dirname, feeded_var_names, target_vars, executor, main_program=None, model_filename=None, params_filename=None, export_for_deployment=True)
修改指定的 ``main_program`` ,构建一个专门用于推理的 ``Program``,然后 ``executor`` 把它和所有相关参数保存到 ``dirname`` 中 修改指定的 ``main_program`` ,构建一个专门用预测的 ``Program``,然后 ``executor`` 把它和所有相关参数保存到 ``dirname`` 中
``dirname`` 用于指定保存变量的目录。如果变量保存在指定目录的若干文件中,设置文件名 None; 如果所有变量保存在一个文件中,请使用filename来指定它 ``dirname`` 用于指定保存变量的目录。如果变量保存在指定目录的若干文件中,设置文件名 None; 如果所有变量保存在一个文件中,请使用filename来指定它
参数: 参数:
- **dirname** (str) – 保存推理model的路径 - **dirname** (str) – 保存预测model的路径
- **feeded_var_names** (list[str]) – 推理(inference)需要 feed 的数据 - **feeded_var_names** (list[str]) – 预测(inference)需要 feed 的数据
- **target_vars** (list[Variable]) – 保存推理(inference)结果的 Variables - **target_vars** (list[Variable]) – 保存预测(inference)结果的 Variables
- **executor** (Executor) – executor 保存 inference model - **executor** (Executor) – executor 保存 inference model
- **main_program** (Program|None) – 使用 ``main_program`` ,构建一个专门用于推理的 ``Program`` (inference model). 如果为None, 使用 ``default main program`` 默认: None. - **main_program** (Program|None) – 使用 ``main_program`` ,构建一个专门用于预测的 ``Program`` (inference model). 如果为None, 使用 ``default main program`` 默认: None.
- **model_filename** (str|None) – 保存 推理P rogram 的文件名称。如果设置为None,将使用默认的文件名为: ``__model__`` - **model_filename** (str|None) – 保存预测Program 的文件名称。如果设置为None,将使用默认的文件名为: ``__model__``
- **params_filename** (str|None) – 保存所有相关参数的文件名称。如果设置为None,则参数将保存在单独的文件中。 - **params_filename** (str|None) – 保存所有相关参数的文件名称。如果设置为None,则参数将保存在单独的文件中。
- **export_for_deployment** (bool) – 如果为真,Program将被修改为只支持直接推理部署的Program。否则,将存储更多的信息,方便优化和再训练。目前只支持True。 - **export_for_deployment** (bool) – 如果为真,Program将被修改为只支持直接预测部署的Program。否则,将存储更多的信息,方便优化和再训练。目前只支持True。
返回: None 返回: None
...@@ -214,7 +214,7 @@ save_inference_model ...@@ -214,7 +214,7 @@ save_inference_model
target_vars=[predict_var], executor=exe) target_vars=[predict_var], executor=exe)
# 在这个示例中,函数将修改默认的主程序让它适合于推断‘predict_var’。修改的 # 在这个示例中,函数将修改默认的主程序让它适合于推断‘predict_var’。修改的
# 推理Program 将被保存在 ./infer_model/__model__”中。 # 预测Program 将被保存在 ./infer_model/__model__”中。
# 和参数将保存在文件夹下的单独文件中 ./infer_mode # 和参数将保存在文件夹下的单独文件中 ./infer_mode
......
此差异已折叠。
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册