diff --git a/README.md b/README.md index e57fb58dd90b18b613142d2a308bbaad84d8b8fa..f3e44252e551276eae57edcdf7cded08cf65c60f 100644 --- a/README.md +++ b/README.md @@ -115,8 +115,6 @@ PaddleHub如何使用ULMFiT策略微调预训练模型,详情参考[PaddleHub **A:** 因为ernie/bert module的创建时和此时运行环境中PaddlePaddle版本不对应。可以将PaddlePaddle和PaddleHub升级至最新版本,同时将ernie卸载。 ```shell -# 若是CPU环境,则 pip install --upgrade paddlepaddle -$ pip install --upgrade paddlepaddle-gpu $ pip install --upgrade paddlehub $ hub uninstall ernie ``` diff --git a/tutorial/autofinetune.md b/tutorial/autofinetune.md index 181608b506842ce7e76b9ee35611d0a5b9a6641a..34115d11fb28725cfe78a52fad1318e46c056a68 100644 --- a/tutorial/autofinetune.md +++ b/tutorial/autofinetune.md @@ -164,7 +164,7 @@ $ tensorboard --logdir ${OUTPUT}/visualization --host ${HOST_IP} --port ${PORT_N 首先根据终端上的输出信息,确定这个输出信息是在第几个round(如round 3),之后查看${OUTPUT}/round3/下的日志文件信息log.info, 查看具体出错原因。 2. PaddleHub Auto Fine-tune 命令行支持从启动命令hub autofinetune传入train.py中不需要搜索的选项参数,如 -[PaddleHub Auto Fine-tune超参优化--NLP情感分类任务](./autofinetune-nlp.md)示例中的max_seq_len选项,可以参照以下方式传入。 +[PaddleHub Auto Fine-tune超参优化--NLP情感分类任务](./autofinetune-nlp.md)示例中的max_seq_len选项,可以参照以下方式传入。这个不需要搜索的选项参数名称应该和通过hub autofinetune的传入选项参数名称保持一致。 ```shell $ OUTPUT=result/