我已经在Spark中导入了一个json文件并将其转换为表
myDF.registerTempTable("myDF")
然后,我想在此结果表上运行SQL查询
val newTable = sqlContext.sql("select column-1 from myDF")
但是,由于列
column-1
的名称中存在连字符,这给了我一个错误。如何解决这是Spark SQL?
最佳答案
反引号(`)似乎有效,因此
val newTable = sqlContext.sql("select `column-1` from myDF")
至少在Spark v1.3.x中应该做到这一点。
关于scala - 如何在Spark SQL中使用连字符对列名进行转义,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30889630/