diff --git a/doc/HOT_LOADING_IN_SERVING_CN.md b/doc/HOT_LOADING_IN_SERVING_CN.md index 117117d2c792bf1b6319ca52358319a23f9797cd..448e1a8bbaef559ff6372683ecdf7a3e645aba9d 100644 --- a/doc/HOT_LOADING_IN_SERVING_CN.md +++ b/doc/HOT_LOADING_IN_SERVING_CN.md @@ -6,12 +6,12 @@ Paddle Serving目前支持下面几种类型的远端监控Monitor: -| Monitor类型 | 描述 | 特殊选项 | -| :---------: | :----------------------------------------: | :----------------------------------------------------------: | -| General | 远端无认证,可以通过`wget`直接访问下载文件 | `general_host` 通用远端host | -| HDFS | 远端为HDFS,通过HDFS二进制执行相关命令 | `hdfs_bin` HDFS二进制的路径 | -| FTP | 远端为FTP,可以通过用户名、密码访问 | `ftp_host` FTP host
`ftp_port` FTP port
`ftp_username` FTP username,默认为空
`ftp_password` FTP password,默认为空 | -| AFS | 远端为AFS,通过Hadoop-client执行相关命令 | `hadoop_bin` Hadoop二进制的路径
`hadoop_host` AFS host,默认为空
`hadoop_ugi` AFS ugi,默认为空 | +| Monitor类型 | 描述 | 特殊选项 | +| :---------: | :----------------------------------------------------------: | :----------------------------------------------------------: | +| General | 远端无认证,可以通过`wget`直接访问下载文件(如无需认证的FTP,OBS等) | `general_host` 通用远端host | +| HDFS | 远端为HDFS,通过HDFS二进制执行相关命令 | `hdfs_bin` HDFS二进制的路径 | +| FTP | 远端为FTP,可以通过用户名、密码访问 | `ftp_host` FTP host
`ftp_port` FTP port
`ftp_username` FTP username,默认为空
`ftp_password` FTP password,默认为空 | +| AFS | 远端为AFS,通过Hadoop-client执行相关命令 | `hadoop_bin` Hadoop二进制的路径
`hadoop_host` AFS host,默认为空
`hadoop_ugi` AFS ugi,默认为空 | | Monitor通用选项 | 描述 | | :--------------------: | :----------------------------------------------------------: | @@ -33,8 +33,8 @@ Paddle Serving目前支持下面几种类型的远端监控Monitor: ```shell . -├── server_path -└── product_path +├── product_path +└── server_path ``` ### 生产模型 @@ -125,15 +125,10 @@ python -m paddle_serving_server.serve --model uci_housing_model --thread 10 --po ```shell python -m paddle_serving_server.monitor \ - --type='hdfs' \ - --hdfs_bin='hdfs' \ - --remote_path='/' \ - --remote_model_name='uci_housing_model' \ - --remote_donefile_name='donefile' \ - --local_path='.' \ - --local_model_name='uci_housing_model' \ - --local_timestamp_file='fluid_time_file' \ - --local_tmp_path='_tmp' +--type='hdfs' --hdfs_bin='/hadoop-3.1.2/bin/hdfs' --remote_path='/' \ +--remote_model_name='uci_housing_model' --remote_donefile_name='donefile' \ +--local_path='.' --local_model_name='uci_housing_model' \ +--local_timestamp_file='fluid_time_file' --local_tmp_path='_tmp' ``` 上面代码通过轮询方式监控远程HDFS地址`/`的时间戳文件`/donefile`,当时间戳变更则认为远程模型已经更新,将远程模型`/uci_housing_model`拉取到本地临时路径`./_tmp/uci_housing_model`下,更新本地模型`./uci_housing_model`以及Paddle Serving的时间戳文件`./uci_housing_model/fluid_time_file`。