scala - Spark SQL 过滤多个字段

标签 scala apache-spark apache-spark-sql

Scala API 中过滤多列的正确语法是什么?如果我想做这样的事情:

dataFrame.filter($"col01" === "something" && $"col02" === "something else")

dataFrame.filter($"col01" === "something" || $"col02" === "something else") 

编辑:

这就是我的原始代码的样子。一切都以字符串形式出现。

df.select($"userID" as "user", $"itemID" as "item", $"quantity" cast("int"), $"price" cast("float"), $"discount" cast ("float"), sqlf.substring($"datetime", 0, 10) as "date", $"group")
  .filter($"item" !== "" && $"group" !== "-1")

最佳答案

我想我明白问题所在了。由于某种原因,spark 不允许在同一个过滤器中使用两个 !=。需要看看Spark源码中filter是如何定义的。

现在,为了让您的代码正常工作,您可以使用它来执行过滤器

df.filter(col("item").notEqual("") && col("group").notEqual("-1"))

或在同一语句中使用两个过滤器

df.filter($"item" !== "").filter($"group" !== "-1").select(....)

此链接here可以帮助使用不同的 Spark 方法。

关于scala - Spark SQL 过滤多个字段,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36893571/

相关文章:

java - Spark 支持 gzip 格式吗?

scala - 获取 "how can getCommonSuperclass() do its job if different class symbols get the same bytecode-level internal name"编译错误

java - 对象工具不是包 scala 的成员

java - Scala/Java Spark

java - 使用 Java API 对数据集中所有列进行数据操作

scala - Spark 是否对多个 withColumn 的数据进行一次传递?

ruby - 有没有比使用自定义 case 语句更实用的方法来用 Ruby 编写这个?

apache-spark - GCP 上的 PySpark PandasUDF - 内存分配

apache-spark - 对象 DataFrame 不是包 org.apache.spark.sql 的成员

apache-spark - 在数据框中将字符串转换为 double