13

我正在尝试将 tokenizer 保存在 huggingface 中,以便以后可以从不需要访问 Internet 的容器中加载它。

BASE_MODEL = "distilbert-base-multilingual-cased"
tokenizer = AutoTokenizer.from_pretrained(BASE_MODEL)
tokenizer.save_vocabulary("./models/tokenizer/")
tokenizer2 = AutoTokenizer.from_pretrained("./models/tokenizer/")

但是,最后一行给出了错误:

OSError: Can't load config for './models/tokenizer3/'. Make sure that:

- './models/tokenizer3/' is a correct model identifier listed on 'https://huggingface.co/models'

- or './models/tokenizer3/' is the correct path to a directory containing a config.json file

变形金刚版本:3.1.0

不幸的是,如何从 Pytorch 中的预训练模型加载保存的标记器并没有帮助。

编辑 1

感谢@ashwin在下面的回答,我save_pretrained改为尝试,但出现以下错误:

OSError: Can't load config for './models/tokenizer/'. Make sure that:

- './models/tokenizer/' is a correct model identifier listed on 'https://huggingface.co/models'

- or './models/tokenizer/' is the correct path to a directory containing a config.json file

tokenizer 文件夹的内容如下: 在此处输入图像描述

我尝试重命名tokenizer_config.jsonconfig.json,然后出现错误:

ValueError: Unrecognized model in ./models/tokenizer/. Should have a `model_type` key in its config.json, or contain one of the following strings in its name: retribert, t5, mobilebert, distilbert, albert, camembert, xlm-roberta, pegasus, marian, mbart, bart, reformer, longformer, roberta, flaubert, bert, openai-gpt, gpt2, transfo-xl, xlnet, xlm, ctrl, electra, encoder-decoder
4

3 回答 3

11

save_vocabulary(),仅保存标记器的词汇文件(BPE 标记列表)。

要保存整个标记器,您应该使用save_pretrained()

因此,如下:

BASE_MODEL = "distilbert-base-multilingual-cased"
tokenizer = AutoTokenizer.from_pretrained(BASE_MODEL)
tokenizer.save_pretrained("./models/tokenizer/")
tokenizer2 = DistilBertTokenizer.from_pretrained("./models/tokenizer/")

编辑:

由于某些未知原因:而不是

tokenizer2 = AutoTokenizer.from_pretrained("./models/tokenizer/")

使用

tokenizer2 = DistilBertTokenizer.from_pretrained("./models/tokenizer/")

作品。

于 2020-10-27T10:41:26.633 回答
2

您需要将模型和标记器都保存在同一目录中。HuggingFace 实际上是在寻找模型的 config.json 文件,因此重命名 tokenizer_config.json 并不能解决问题

于 2021-05-16T16:13:51.133 回答
2

将“tokenizer_config.json”文件(由 save_pretrained() 函数创建的文件)重命名为“config.json”在我的环境中解决了同样的问题。

于 2021-04-07T00:18:40.273 回答