我正在尝试在预训练的 HuggingFace Transformers 模型的词汇表中添加一些新词。我做了以下更改标记器的词汇表并增加了模型的嵌入大小:
tokenizer.add_tokens(['word1', 'word2', 'word3', 'word4'])
model.resize_token_embeddings(len(tokenizer))
print(len(tokenizer)) # outputs len_vocabulary + 4
但是在我的语料库上训练模型并保存后,我发现保存的分词器词汇量没有改变。再次检查后发现上述代码并没有改变词汇大小(tokenizer.vocab_size 仍然相同),只有 len(tokenizer) 发生了变化。
所以现在我的问题是;tokenizer.vocab_size 和 len(tokenizer) 有什么区别?