I cannot import SparkSession from pyspark.sql,but i can import Row
我的spark-1.6.0-bin-hadoop2.6安装在docker容器中,系统是centos
如何解决这个问题?这个问题困扰了我很久
最佳答案
您不能使用它,因为它不存在,您使用的 Spark 版本是 1.6,而 SparkSession 是在 2.0.0 中引入的。
你可以在这里看到:https://databricks.com/blog/2016/08/15/how-to-use-sparksession-in-apache-spark-2-0.html
您可以从这里下载 Spark 2.0.0:http://spark.apache.org/downloads.html
关于python - "cannot import name SparkSession",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40838040/