怎么得到单个词的word embedding vector
Created by: Walleclipse
你好,
按照 FAQ说的那样利用 ernir_encoder.py
可以得到 cls_emb.npy
和 top_layer_emb.npy
。但是由于position embedding的存在,top_layer_emb.npy
中的每个token的embedding还跟位置有关是不是?如果我想像elmo一样得到一个字典的word embedding vector的话该怎么操作呢?
谢谢