nltk - 零碎训练 NaiveBayesClassifier (NLTK)

标签 nltk bayesian text-classification

我有很多文本数据,我想进行分类。我逐 block 递增地获取这些数据(例如 500 个样本)。 我想用这些 block 在 NLTK 中对 NaiveBayesClassifier 进行训练,但要进行零碎的训练。

我可以用一个 chuck 训练 NaiveBayesClassifier,然后用它训练下一个 block 等吗?

我在文档中找不到这个问题的答案。

最佳答案

您可能应该为 scikit-learn 使用 NLTK 包装器,并使用 scikit-learn 提供的朴素贝叶斯实现。这个支持进行部分拟合,这正是您想要的:一次只训练一部分数据。

引用文献:http://www.nltk.org/_modules/nltk/classify/scikitlearn.htmlhttp://scikit-learn.org/stable/modules/naive_bayes.html

关于nltk - 零碎训练 NaiveBayesClassifier (NLTK),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22429282/

相关文章:

python - 构建包含不同测量值的 PyMC3 模型

machine-learning - 使用预制字典表示 SVM 特征向量进行文本分类

java - 我如何在 Java 中访问布朗语料库(又名 NLTK 之外)

python - 小写与小写+标题版本的特定字数不同

python - 具有 tensorflow 概率的贝叶斯线性回归

url - 如何对URL进行分类? URL 的特点是什么?如何从 URL 中选择和提取特征

python - 如何使用词袋或tf-idf对文本进行分类

python - 遍历 Pandas DF 列表,然后遍历每个 DF 行

language-agnostic - 为什么这些词被视为停用词?

optimization - Tensorflow 的超参数调整