提交 13a3611f 编写于 作者: W wangxiao

fix download bugs

上级 c17b1efb
......@@ -113,16 +113,16 @@ paddlepalm框架的运行原理图如图所示
我们提供了BERT、ERNIE等主干网络的相关预训练模型。为了加速模型收敛,获得更佳的测试集表现,我们强烈建议用户在多任务学习时尽量在预训练模型的基础上进行(而不是从参数随机初始化开始)。用户可以查看可供下载的预训练模型:
```shell
python download_models.py ls pretrain
python download_models.py -l
```
用户可通过运行`python download_models.py download <model_name>`下载需要的预训练模型,例如,下载预训练BERT模型(uncased large)的命令如下:
用户可通过运行`python download_models.py -d <model_name>`下载需要的预训练模型,例如,下载预训练BERT模型(uncased large)的命令如下:
```shell
python download_models.py download bert-en-uncased-large
python download_models.py -d bert-en-uncased-large
```
此外,用户也可通过运行`python download_models.py download all`下载已提供的所有预训练模型。
此外,用户也可通过运行`python download_models.py -d all`下载已提供的所有预训练模型。
脚本会自动在**当前文件夹**中创建一个pretrain目录(注:运行DEMO时,需保证pretrain文件夹在PALM项目目录下),并在其中创建bert子目录,里面存放预训练模型(`params`文件夹内)、相关的网络参数(`bert_config.json`)和字典(`vocab.txt`)。除了BERT模型,脚本还提供了ERNIE预训练模型(uncased large)的一键下载,将`<model_name>`改成`ernie-en-uncased-large`即可。全部可用的预训练模型列表见[paddlenlp/lark](https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP/PaddleLARK)
......
......@@ -15,11 +15,15 @@
import paddlepalm as palm
import sys
import argparse
# create parser
parser = argparse.ArgumentParser(description = 'Download pretrain models for initializing params of backbones. ')
parser.add_argument("-l", "--list", action = 'store_true', help = 'show the list of pretrain models')
parser.add_argument("-d", "--download", action = 'store', help = 'download pretrain models')
args = parser.parse_args()
items = ['ls', 'download']
assert len(sys.argv) == 3, 'please input 2 parameters.'
assert sys.argv[1] in items, '{} is not found. Support methods: {}'.format(sys.argv[1], items)
if(sys.argv[1] == 'ls'):
palm.downloader.ls(sys.argv[2])
if(sys.argv[1] == 'download'):
palm.downloader.download('pretrain', sys.argv[2])
if(args.list):
palm.downloader.ls('pretrain')
if(args.download):
palm.downloader.download('pretrain', args.download)
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册