我已经在Red Hat 64中安装了spark-hadoop env。我还想在intelliJ idea 的 spark源代码项目中读写代码。我已经下载了spark源代码,并准备就绪。但是在IntelliJ idea中编译spark项目时遇到了一些错误。 /home/xuch/IdeaProjects/spark/sql/catalyst/src/main/scala/org/apache/spark/sql/catalyst/CatalystQI.scala Error:(809, 34) not found: value SparkSqlParser
case ast if ast.tokenType == SparlSqlParser.TinyintLiteral => Error:(812, 34) not found: value SparkSqlParser
case ast if ast.tokenType == SparlSqlParser.SmallintLiteral => ... ...
错误如下:
但是实际上我没有在整个项目中找到名为 SparkSqlParser.scala 的文件,也没有找到名为SparkSqlParser的scala类。
但是,我在网上搜索了一些名为SparkSqlParser.scala的文件,但它们没有诸如“TinyintLiteral”,“SmallintLiteral”等属性。
这是文件链接:
最佳答案
我遇到同样的问题。这是我的解决方案:
希望它能对您有所帮助。
关于scala - 在IntelliJ IDEA中编译时,Spark SQL没有SparkSqlParser.scala文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35617277/