我正在搜索并找出加入 n
Spark 数据帧的最佳方式。
示例 List(df1,df2,df3,dfN)
,其中所有 df
都有一个我可以加入的日期。
递归?
最佳答案
像这样:
List(df1,df2,df3,dfN).reduce((a, b) => a.join(b, joinCondition))
关于scala - 如何加入数据框(来自数据集的集合)?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40603989/