我想要像 RDD
那样的 reduce
性能 Action ,但不需要运算符是可交换的。即我希望接下来的 result
始终是 "123456789"
。
scala> val rdd = sc.parallelize(1 to 9 map (_.toString))
rdd: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[24] at parallelize at <console>:24
scala> val result = rdd.someAction{ _+_ }
首先,我找到了
fold
。 RDD#fold
的文档说:def fold(zeroValue: T)(op: (T, T) ⇒ T): T Aggregate the elements of each partition, and then the results for all the partitions, using a given associative function and a neutral "zero value"
请注意,文档中不需要 可交换的 。然而,结果并不如预期:
scala> rdd.fold(""){ _+_ }
res10: String = 312456879
EDIT 我已经尝试过@dk14 提到的,但没有运气:
scala> val rdd = sc.parallelize(1 to 9 map (_.toString))
rdd: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[48] at parallelize at <console>:24
scala> rdd.zipWithIndex.map(x => (x._2, x._1)).sortByKey().map(_._2).fold(""){ _+_ }
res22: String = 341276895
scala> rdd.zipWithIndex.map(x => (x._2, x._1)).sortByKey().map(_._2).fold(""){ _+_ }
res23: String = 914856273
scala> rdd.zipWithIndex.map(x => (x._2, x._1)).sortByKey().map(_._2).fold(""){ _+_ }
res24: String = 742539618
scala> rdd.zipWithIndex.map(x => (x._2, x._1)).sortByKey().map(_._2).fold(""){ _+_ }
res25: String = 271468359
最佳答案
Scala 中没有满足此标准的内置减少操作,但是您可以通过组合 mapPartitions
轻松实现自己的减少操作。 , collect
和局部减少:
import scala.reflect.ClassTag
def orderedFold[T : ClassTag](rdd: RDD[T])(zero: T)(f: (T, T) => T): T = {
rdd.mapPartitions(iter => Iterator(iter.foldLeft(zero)(f))).collect.reduce(f)
}
使用
collect
的组合和 reduce
用于合并而不是 fold
使用的异步和无序方法确保保留全局顺序。这当然会带来一些额外的费用,包括:
关于scala - RDD中是否有任何 Action 保持顺序?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38781320/