我喜欢使用 Spark 数据帧映射聚合语法,如下所示:
jaccardDf
.groupBy($"userId")
.agg(
"jaccardDistance"->"avg"
, "jaccardDistance"->"stddev_samp"
, "jaccardDistance"->"skewness"
, "jaccardDistance"->"kurtosis"
)
有没有办法在仍然使用 Map 语法的同时对结果列进行别名?当我需要别名时,我会这样做
jaccardDf
.groupBy($"userId")
.agg(
avg("jaccardDistance").alias("jaccardAvg")
,stddev_samp("jaccardDistance").alias("jaccardStddev")
,skewness("jaccardDistance").alias("jaccardSkewness")
,kurtosis("jaccardDistance").alias("jaccardKurtosis")
)
最佳答案
使用 .toDF()
使用您定义的列表为列名添加别名:
val colNames = Array("userId", "jaccardAvg", "jaccardStddev", "jaccardSkewness", "jaccardKurtosis")
jaccardDf
.groupBy($"userId")
.agg(
"jaccardDistance"->"avg",
"jaccardDistance"->"stddev_samp",
"jaccardDistance"->"skewness",
"jaccardDistance"->"kurtosis")
.toDF(colNames: _*)
关于scala - 带别名的 Spark 数据帧映射聚合?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55596822/