apache-spark - PySpark:如何在特定列的数据框中填充值?

标签 apache-spark pyspark spark-dataframe

我有以下示例数据帧:

a    | b    | c   | 

1    | 2    | 4   |
0    | null | null| 
null | 3    | 4   |

我只想替换前两列中的空值 - 列“a”和“b”:
a    | b    | c   | 

1    | 2    | 4   |
0    | 0    | null| 
0    | 3    | 4   |

这是创建示例数据框的代码:
rdd = sc.parallelize([(1,2,4), (0,None,None), (None,3,4)])
df2 = sqlContext.createDataFrame(rdd, ["a", "b", "c"])

我知道如何使用以下方法替换所有空值:
df2 = df2.fillna(0)

当我尝试这个时,我丢失了第三列:
df2 = df2.select(df2.columns[0:1]).fillna(0)

最佳答案

df.fillna(0, subset=['a', 'b'])

有一个名为 subset 的参数选择列,除非您的 spark 版本低于 1.3.1

关于apache-spark - PySpark:如何在特定列的数据框中填充值?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45065636/

相关文章:

python - Catch 子句不适用于 hive_context.read.json 函数

scala - 如何在 Scala/Spark 中创建示例数据帧

apache-spark - 从包含嵌套值的 Spark 列中提取值

apache-spark - 如何使用 pyspark 计算 apache spark 数据框的大小?

scala - uber jar 中的 NoSuchMethodError 异常

apache-spark - Parquet 文件大小,消防软管与 Spark

apache-spark - 如何在使用 Spark 数据帧写入时自动计算 numRepartition

amazon-web-services - 从HDFS将数据写入Kinesis流

maven - 如何在 GCP 中向 dataproc 集群添加 jar 依赖?

arrays - 如何使用 pyspark 在 aws glue 中的嵌套 json 中展平数组?