paddle bert输入问题
Created by: chaojiewang94
bert中lodtensor输入 https://github.com/PaddlePaddle/models/blob/release/1.8/PaddleNLP/pretrain_language_models/BERT/model/classifier.py
您好,上面Bert的demo中src_ids 输入形状是(None,None),即Batch_size*Max_seq_len; 我想问的是既然输入定义是Lod tensor,那么Bert中的src_ids输入能不能和lstm里面的Lodtensor一样,把Batch_size维度和seq_lens维度合成到一个维度上面,这样就不需要对短句子进行padding了。
请问有这样做的吗,有类似的code可以参考吗,谢谢
lstm里面的lodtensor输入 https://github.com/baidu/information-extraction/blob/master/bin/p_classification/p_train.py