Created by: renke2
请问下在similarity_net/nets/lstm.py中,如果输入的是批量的文本,内部的lstm_layer会不会把整个batch的sentence拼接在一起,然后作为整个长句子输入到LSTM模型里面,学习每个词的表示,我看代码里的好像是这样做的,是不是有问题呀?还是我哪里没有注意到?求指教。