我使用 Word2Vec 创建了模型。 但结果并不好。 所以我想补充一句话。 我第一次创建的代码 可以创建,但不能添加。 请告诉我如何添加。
创建模型.py
token = loadCsv("test_data")
embeddingmodel = []
for i in range(len(token)):
temp_embeddingmodel = []
for k in range(len(token[i][0])):
temp_embeddingmodel.append(token[i][0][k])
embeddingmodel.append(temp_embeddingmodel)
embedding = Word2Vec(embeddingmodel, size=300, window=5, min_count=3, iter=100, sg=1,workers=4, max_vocab_size = 360000000)
embedding.save('post.embedding')
loadWord2Vec.py
tokens = W2V.tokenize(sentence)
embedding = Convert2Vec('Data/post.embedding', tokens)
zero_pad = W2V.Zero_padding(embedding, Batch_size, Maxseq_length, Vector_size)
告诉我如何添加或合并Word2Vec的结果
最佳答案
没有简单的方法来合并两个 Word2Vec
模型。
只有一起训练的词向量才“在同一空间”,因此具有可比性。
最好的策略是组合两个文本训练语料库,并在组合数据上训练一个新模型,从而从同一训练 session 中获得所有单词的词向量。
关于python - 如何合并两个Word2Vec文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54338261/