python - 如何使用 Python 处理内存不足

标签 python nlp

我有大量的词典可供使用。超过 1000 万个单词被散列。它太慢了,有时它会耗尽内存。

有没有更好的方法来处理这些庞大的数据结构?

最佳答案

是的。它被称为数据库。由于字典适合你(除了内存问题),我认为 sqlite 数据库适合你。您可以使用 sqlite3非常容易,并且有很好的文档记录。

当然,只有当您可以将值表示为类似 json 或愿意信任来自本地文件的 pickled 数据时,这才是一个好的解决方案。也许您应该发布有关字典值中的内容的详细信息。 (我假设键是单词,如果不是请纠正我)

您可能还想看看不生成整个字典,只按 block 处理它。这在您的特定用例中可能不实用(不幸的是,它通常不是字典用于的那种事情)但如果您能想到一种方法,重新设计您的算法以允许它可能是值得的。

关于python - 如何使用 Python 处理内存不足,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4223130/

相关文章:

python - 无法让 XPath 单击 selenium 中的弹出窗口

python - 如何使用 Amazon SNS 和 Python 和 boto3 发送带有自定义发件人 ID 的 SMS

python - Python 中的高性能海量短字符串搜索

nlp - 如何使用变压器模型获得词汇表外单词的词嵌入?

python - 有没有办法使用机器学习从契约(Contract)中提取信息,并将契约(Contract)文件和目标字符串作为输入和输出?

python - 参数化 pytest fixture 的输出

python - 使用 opencv python 找到该形状的边缘点

java - 用于文本挖掘或聊天机器人的 NLP

nlp - 主题模型可以用于小文本吗?

nlp - 如何使用 BERT/GPT-2 进行释义生成