我有一个数据集(tf-idf 加权单词),其中包含我尝试预测的多个类别。我的类(class)不平衡。我想使用来自 sklearn 的 OneVsRestClassifier 与一些分类器(例如多项式朴素贝叶斯)一起使用“一对一”分类方法。
此外,我想使用不平衡学习包(很可能是上采样和下采样的组合之一)来增强我的数据。使用不平衡学习的正常做法是:
from imblearn.combine import SMOTEENN
smote_enn = SMOTEENN(random_state=0)
X_resampled, y_resampled = smote_enn.fit_resample(X, y)
我现在有一个数据集,其中每个标签的案例数量大致相同。然后我会对重新采样的数据使用分类器。
from sklearn.multiclass import OneVsRestClassifier
from sklearn.naive_bayes import MultinomialNB
ovr = OneVsRestClassifier(MultinomialNB())
ovr.fit(X_resampled, y_resampled)
但是:现在每个标签在安装时都存在巨大的不平衡,因为我总共有超过 50 个标签。正确的?我想我需要对每个标签应用上/下采样方法,而不是一开始就执行一次。如何对每个标签使用重采样?
最佳答案
根据评论中的讨论,您想要的可以这样完成:
from sklearn.naive_bayes import MultinomialNB
from imblearn.combine import SMOTEENN
# Observe how I imported Pipeline from IMBLEARN and not SKLEARN
from imblearn.pipeline import Pipeline
from sklearn.multiclass import OneVsRestClassifier
# This pipeline will resample the data and
# pass the output to MultinomialNB
pipe = Pipeline([('sampl', SMOTEENN()),
('clf', MultinomialNB())])
# OVR will transform the `y` as you know and
# then pass single label data to different copies of pipe
# multiple times (as many labels in data)
ovr = OneVsRestClassifier(pipe)
ovr.fit(X, y)
代码说明:
第 1 步:
OneVsRestClassifier
将创建y
的多个列。每个标签一个,其中该标签为阳性,所有其他标签为阴性。第 2 步:对于每个标签,
OneVsRestClassifier
将克隆提供的pipe
估计器并将各个数据传递给它。第 3 步:
a.
pipe
的每个副本都会获得不同版本的y
,该版本会传递给其中的SMOTEENN
,因此会进行不同的采样来平衡在那里上课。b.
pipe
的第二部分 (clf
) 将根据您的需要获取每个标签的平衡数据集。第4步:在预测期间,采样部分将关闭,因此数据将按原样到达
clf
。 sklearn 管道不处理该部分,因此这就是我使用imblearn.pipeline
的原因。
希望这有帮助。
关于python - 使用 One vs. Rest 分类器进行上/下采样,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53544643/