我正在处理文本分类问题,我想使用 BERT 模型作为基础,然后是密集层。我想知道这 3 个论点是如何工作的?例如,如果我有 3 个句子为:
'My name is slim shade and I am an aspiring AI Engineer',
'I am an aspiring AI Engineer',
'My name is Slim'
那么这三个论点会做什么呢?我的想法如下:
max_length=5
将严格保留长度为 5 的所有句子padding=max_length
将为第三句添加 1 的填充truncate=True
将截断第一句和第二句,使其长度严格为 5。
如果我错了,请纠正我。
下面是我使用过的代码。
! pip install transformers==3.5.1
from transformers import BertTokenizerFast
tokenizer = BertTokenizerFast.from_pretrained('bert-base-uncased')
tokens = tokenizer.batch_encode_plus(text,max_length=5,padding='max_length', truncation=True)
text_seq = torch.tensor(tokens['input_ids'])
text_mask = torch.tensor(tokens['attention_mask'])