我正在尝试使用此命令量化 fasttext 中的无监督模型。
model.quantize(input=train_data, qnorm=True, retrain=True, cutoff=200000)
它抛出一个错误,表明它仅受监督模型支持。
是否有其他方法来量化无监督模型?
最佳答案
虽然 Facebook 最初的 fastText 包不支持无监督模型的压缩,但我已经编写了包 compress-fasttext将剪枝和量化应用于无监督的 fastText 模型(gensim 格式),以将其大小减小 10 到 100 倍。
This post on Medium提供了我的方法背后的一些示例和解释。
关于python - Fasttext 量化无监督模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63359880/