r - SparkR 合并而不创建重复列

标签 r apache-spark dataframe merge sparkr

我决定提出这个问题是因为 the answer provided to a very similar问题不适用于我的场景:

我想合并这两个 SparkR 数据帧 df1

col1    col2    
1       11      
2       22      
3       33      
4       44  

和df2

col1    col2    newcol
1       11      401
2       22      402
3       33      403
4       44      404

dfs 应合并到第 1 列和第 2 列。我尝试了上面链接中建议的所有步骤(例如,省略“by”语句),但结果总是如下所示:

col1_x  col2_x  col1_y  col2_y  newcol
1       11      1       11      401
2       22      2       22      402
3       33      3       33      403
4       44      4       44      404

我不想有重复的列,现在我必须手动删除 col1_y、col2_y 并将 col1_x、col2_x 重命名为只有 col1、col2 和 newcol 作为结果:

df <- merge(df1, df2)  # <- how can I change this?
df$col1_y <- NULL
df$col2_y <- NULL
df <- withColumnRenamed(df, "col1_x", "col1")
df <- withColumnRenamed(df, "col2_x", "col2")

我尝试了使用 by、by.x 和 by.y 语句的各种组合,但都没有奏效。 有没有一种方法可以通过省略其中一个步骤来简化这个繁琐的校正链?谢谢!

最佳答案

这是预期的行为,一种选择是从生成的 DataFrameselect() 相关列:

library(magrittr) 

# We'll use join to avoid suffixes '_x' & '_y'
join(df1,df2,(df1$col1==df2$col1)&(df1$col2==df2$col2)) %>%
  select(df1$col1,df1$col2,df2$newcol) %>%
  showDF()
#+----+----+------+
#|col1|col2|newcol|
#+----+----+------+
#|   1|11.0|   401|
#|   2|22.0|   402|
#|   3|33.0|   403|
#|   4|55.0|   404|
#+----+----+------+

关于r - SparkR 合并而不创建重复列,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38847967/

相关文章:

python - 在pyspark中将数据帧转换为字符串

r - 当 data.frame 获得新列时会发生什么?

r - 如何使用R将数字提取为数字?

r - 数值分类器(?)Weka/R

r - Ggplot2 在 Shiny 的应用程序中显示错误消息

apache-spark - Apache Spark 从时间戳列中减去天数

python - 使用 pandas 解析大量日期 - 可扩展性 - 性能下降速度快于线性

r - 如何在 R 中使用 terra 包编写栅格 bylayer?

apache-spark - Spark Dataframes 已成功创建但无法写入本地磁盘

eclipse - 在 Maven 项目中使用 HiveContext