PySpark 支持常见的缩减,如 sum
, min
, count
, ... 它是否支持 bool 归约,如 all
和 any
?
我总是可以fold
在 or_
和 and_
但这似乎效率低下。
最佳答案
这已经很晚了,但是 all
上一套 boolean
值 z
与 min(z) == True
相同和 any
与 max(z) == True
相同
关于apache-spark - PySpark RDD 的有效 bool 减少 `any` 、 `all` ?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24108243/