python - Fasttext 量化无监督模型

标签 python compression fasttext

我正在尝试使用此命令量化 fasttext 中的无监督模型。

model.quantize(input=train_data, qnorm=True, retrain=True, cutoff=200000)

它抛出一个错误,表明它仅受监督模型支持。

enter image description here

是否有其他方法来量化无监督模型?

最佳答案

虽然 Facebook 最初的 fastText 包不支持无监督模型的压缩,但我已经编写了包 compress-fasttext将剪枝和量化应用于无监督的 fastText 模型(gensim 格式),以将其大小减小 10 到 100 倍。

This post on Medium提供了我的方法背后的一些示例和解释。

关于python - Fasttext 量化无监督模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63359880/

相关文章:

Python USB检测

python - [GAE]模板中如何设置 `inline`

java - 使用 Maven 进行 XML/XSL 压缩

fasttext - fasttext 的句子向量

python - 如何从 Python : aka Command-Control-Shift-4 内部截取 Mac OS X 中的屏幕截图

python - ffmpeg 子进程问题

python - 在内存中压缩 Python 对象

c++ - 有没有办法知道放气(或你的 Z_STREAM)是否有数据被缓冲? zlib C++

nlp - FastText 无法打开以从存储桶加载

python - 如何使用 FastText 查找相似词?