你如何确定 Scala 中任意 RDD 的分区数?
我知道 PySpark RDD 在其 API 中定义了 getNumPartitions,但我无法在 Scala 端找到等效项。
最佳答案
至少在 Spark 1.6.1 中这是有效的
rdd.getNumPartitions()
关于Scala Spark RDD 当前分区数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31224282/