派斯帕克 : how to split data without randomnize

标签 pyspark training-data

有函数可以随机化溢出的数据

trainingRDD, validationRDD, testRDD = RDD.randomSplit([6, 2, 2], seed=0L)

我很好奇是否有一种方法可以在相同的分区(train 60/valid 20/test 20)但没有随机化(假设使用当前数据拆分前 60 = train, next 20 =valid and last 20 are for test data)

有没有一种可能的方法来拆分数据,类似于拆分但不是随机化的方式?

最佳答案

这里的基本问题是,除非你的数据中有一个索引列,否则你的 RDD 中没有“第一行”和“下一行”的概念,它只是一个无序集合。如果你有一个整数索引列,你可以这样做:

train = RDD.filter(lambda r: r['index'] % 5 <= 3)
validation = RDD.filter(lambda r: r['index'] % 5 == 4)
test = RDD.filter(lambda r: r['index'] % 5 == 5)

关于派斯帕克 : how to split data without randomnize,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35593971/

相关文章:

python-3.x - 以 csv 形式获取特征提取结果

java - 使用模拟退火的非常大的数据集来训练神经网络

python - 如何研究每个数据对深度神经网络模型的影响?

machine-learning - 验证和测试准确性差异很大

python - PySpark - 如何输出具有特定字段的 JSON?

apache-spark - 如何解决Spark中最大 View 深度错误?

mongodb - 如何从 databricks python 笔记本更改 mongo-spark 连接配置

python - Pyspark 在查找前一行时按组迭代数据帧

python - 在开发 Spark 应用程序时使用多种语言

python - TensorFlow默认在线或批量训练