提交 c7c57850 编写于 作者: M MRXLT

fix doc

上级 ec0930d4
...@@ -40,7 +40,7 @@ serving_io.inference_model_to_serving(dirname, model_filename=None, params_filen ...@@ -40,7 +40,7 @@ serving_io.inference_model_to_serving(dirname, model_filename=None, params_filen
``` ```
dirname (str) - Path of saved model files. Program file and parameter files are saved in this directory. dirname (str) - Path of saved model files. Program file and parameter files are saved in this directory.
model_filename (str, optional) - The name of file to load the inference program. If it is None, the default filename __model__ will be used. Default: None. model_filename (str, optional) - The name of file to load the inference program. If it is None, the default filename `__model__` will be used. Default: None.
paras_filename (str, optional) - The name of file to load all parameters. It is only used for the case that all parameters were saved in a single binary file. If parameters were saved in separate files, set it as None. Default: None. paras_filename (str, optional) - The name of file to load all parameters. It is only used for the case that all parameters were saved in a single binary file. If parameters were saved in separate files, set it as None. Default: None.
......
...@@ -13,7 +13,7 @@ serving_io.save_model("imdb_model", "imdb_client_conf", ...@@ -13,7 +13,7 @@ serving_io.save_model("imdb_model", "imdb_client_conf",
``` ```
imdb_model是具有服务配置的服务器端模型。 imdb_client_conf是客户端rpc配置。 imdb_model是具有服务配置的服务器端模型。 imdb_client_conf是客户端rpc配置。
Serving有一个提供给用户存放Feed和Fetch变量信息的字典。 在示例中,`{words”:data}` 是用于指定已保存推理模型输入的提要字典。`{"prediction":projection}`是指定保存的推理模型输出的字典。可以为feed和fetch变量定义一个别名。 如何使用别名的例子 示例如下: Serving有一个提供给用户存放Feed和Fetch变量信息的字典。 在示例中,`{"words":data}` 是用于指定已保存推理模型输入的提要字典。`{"prediction":projection}`是指定保存的推理模型输出的字典。可以为feed和fetch变量定义一个别名。 如何使用别名的例子 示例如下:
``` python ``` python
from paddle_serving_client import Client from paddle_serving_client import Client
...@@ -41,10 +41,10 @@ serving_io.inference_model_to_serving(dirname, model_filename=None, params_filen ...@@ -41,10 +41,10 @@ serving_io.inference_model_to_serving(dirname, model_filename=None, params_filen
``` ```
dirname (str) – 需要转换的模型文件存储路径,Program结构文件和参数文件均保存在此目录。 dirname (str) – 需要转换的模型文件存储路径,Program结构文件和参数文件均保存在此目录。
model_filename (str,可选) – 存储需要转换的模型Inference Program结构的文件名称。如果设置为None,则使用 __model__ 作为默认的文件名。默认值为None model_filename (str,可选) – 存储需要转换的模型Inference Program结构的文件名称。如果设置为None,则使用 `__model__` 作为默认的文件名。默认值为`None`
params_filename (str,可选) – 存储需要转换的模型所有参数的文件名称。当且仅当所有模型参数被保存在一个单独的二进制文件中,它才需要被指定。如果模型参数是存储在各自分离的文件中,设置它的值为None。默认值为None。 params_filename (str,可选) – 存储需要转换的模型所有参数的文件名称。当且仅当所有模型参数被保存在一个单独的二进制文件中,它才需要被指定。如果模型参数是存储在各自分离的文件中,设置它的值为None。默认值为None。
serving_server (str, 可选) - 转换后的模型文件和配置文件的存储路径。默认值为"serving_server" serving_server (str, 可选) - 转换后的模型文件和配置文件的存储路径。默认值为`serving_server`
serving_client (str, 可选) - 转换后的客户端配置文件存储路径。默认值为"serving_client" serving_client (str, 可选) - 转换后的客户端配置文件存储路径。默认值为`serving_client`
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册