scala - 如何在spark sql中执行多行sql

标签 scala apache-spark

如何在 Spark SQL 中执行冗长的多行 Hive 查询?像下面的查询:

val sqlContext = new HiveContext (sc)
val result = sqlContext.sql ("
 select ...
 from ...
");

最佳答案

使用 """代替,例如

val results = sqlContext.sql ("""
     select ....
     from ....
""");

或者,如果要格式化代码,请使用:
val results = sqlContext.sql ("""
     |select ....
     |from ....
""".stripMargin);

关于scala - 如何在spark sql中执行多行sql,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40787972/

相关文章:

arrays - 使用一系列数字范围创建新列

hadoop - 如何在Spark流中运行并发事件作业以及执行者之间的公平任务调度

scala - 在 Apache Spark 中,如何使 RDD/DataFrame 操作惰性化?

json - 如何使用 json4s 将 JString 转换为 Int

scala - 如何将非托管 jar 添加到 g8 模板生成的 build.sbt?

斯卡拉 Spark : Convert Double Column to Date Time Column in dataframe

hadoop - 如何让 Spark 忽略丢失的输入文件?

scala - Spark SQL 中的 Where 子句与 join 子句

Java,Play2.0 ,')' 预期但 '=' 找到 Play

Scala 方法引用另一个类?