从 CSV 文件创建 Spark DataFrame 后,我想修剪一列。我试过了:
df = df.withColumn("Product", df.Product.strip())
df
是我的数据框,Product
是我表中的一列但我收到错误:
Column object is not callable
有什么建议?
最佳答案
from pyspark.sql.functions import trim
df = df.withColumn("Product", trim(col("Product")))
关于apache-spark - 在 PySpark 数据框中修剪字符串列,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35155821/