5

https://spacy.io/models/en#en_vectors_web_lg 表示该模型包含 1.1m 键,但 https://nlp.stanford.edu/projects/glove/ 表示 Glove 向量包含 2.2M 词汇

我可以知道缺少哪些词汇吗?

非常感谢。

4

1 回答 1

4

您可以通过查看 spaCy.vocab属性/对象自己检查 spaCy 和 GloVe 模型的词汇表,并将其与 GloVe 文件中的单词进行比较。首先将数据加载到两个列表中:

import spacy
nlp = spacy.load('en_vectors_web_lg')
spacy_words = [word for word in nlp.vocab.strings]
glove_filename = 'glove.840B.300d.txt'
glove_words = [line.split()[0].decode('utf-8') for line in open(glove_filename)]

然后检查设置的差异以获得“缺失”的单词:

>>> list(set(glove_words) - set(spacy_words))[:10]
[u'Inculcation', u'Dholes', u'6-night', u'AscensionMidkemia',
 u'.90.99', u'USAMol', u'USAMon', u'Connerty', u'RealLife',
 u'NaughtyAllie']

>>> list(set(spacy_words) - set(glove_words))[:10]
[u'ftdna', u'verplank', u'NICARIO', u'Plastic-Treated', u'ZAI-TECH',
 u'Lower-Sulfur', u'desmonds', u'KUDNER', u'berlinghoff', u'50-ACRE']

有超过 2.2 mio - 1.1 mio ~ 1.1 mio 单词缺失:

>>> len(set(glove_words) - set(spacy_words))
1528158

nlp.vocab.strings请注意和中的内容有所不同nlp.vocab.vectors。您可以从矢量对象加载单词

vector_words = []
for key, vector in nlp.vocab.vectors.items():
    try:
        vector_words.append(nlp.vocab.strings[key])
    except KeyError:
        pass

(关于 try/except:我不清楚为什么某些键在 中丢失vocab.strings

使用此列表,您将获得:

>>> list(set(glove_words) - set(vector_words))[:10]
[u'Inculcation', u'Dholes', u'6-night', u'AscensionMidkemia', u'.90.99',  
 u'USAMol', u'USAMon', u'Connerty', u'RealLife', u'NaughtyAllie']

更新:词汇之间的差异问题已在此处提出https://github.com/explosion/spaCy/issues/1985

于 2018-02-14T21:11:29.410 回答