Spark Scala API 有一个 Dataset#transform
可以轻松链接自定义 DataFrame 转换的方法,如下所示:
val weirdDf = df
.transform(myFirstCustomTransformation)
.transform(anotherCustomTransformation)
我没有看到等效的 transform
pyspark in the documentation 的方法.是否有 PySpark 方式来链接自定义转换?
如果没有,怎么能
pyspark.sql.DataFrame
类被猴子修补添加一个 transform
方法?更新
变换方法是added to PySpark截至 PySpark 3.0 .
最佳答案
执行:
from pyspark.sql.dataframe import DataFrame
def transform(self, f):
return f(self)
DataFrame.transform = transform
用法:
spark.range(1).transform(lambda df: df.selectExpr("id * 2"))
关于apache-spark - 相当于 Scala Dataset#transform 方法的 Pyspark 变换方法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46247315/