from pyspark import SparkConf, SparkContext
from pyspark.sql import SQLContext
conf = SparkConf().setAppName("Test").set("spark.driver.memory", "1g")
sc = SparkContext(conf = conf)
sqlContext = SQLContext(sc)
results = sqlContext.sql("/home/ubuntu/workload/queryXX.sql")
当我使用以下命令执行此命令时:python test.py
它给我一个错误
。
y4j.protocol.Py4JJavaError: An error occurred while calling o20.sql. : java.lang.RuntimeException: [1.1] failure: ``with'' expected but `/' found
/home/ubuntu/workload/queryXX.sql
at scala.sys.package$.error(package.scala:27)
我是 Spark 的新手,我需要这里的帮助才能继续前进。
最佳答案
SqlContext.sql
需要有效的 SQL 查询而不是文件路径。试试这个:
with open("/home/ubuntu/workload/queryXX.sql") as fr:
query = fr.read()
results = sqlContext.sql(query)
关于python - 如何使用python在spark中执行.sql文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32961254/