python - "cannot import name SparkSession"

标签 python hadoop apache-spark pyspark bigdata

I cannot import SparkSession from pyspark.sql,but i can import Row

我的spark-1.6.0-bin-hadoop2.6安装在docker容器中,系统是centos

如何解决这个问题?这个问题困扰了我很久

最佳答案

您不能使用它,因为它不存在,您使用的 Spark 版本是 1.6,而 SparkSession 是在 2.0.0 中引入的。

你可以在这里看到:https://databricks.com/blog/2016/08/15/how-to-use-sparksession-in-apache-spark-2-0.html

您可以从这里下载 Spark 2.0.0:http://spark.apache.org/downloads.html

关于python - "cannot import name SparkSession",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40838040/

相关文章:

Hadoop 'grep' 示例

python - 如何为不同语言设置 matplotlib.dates.DateFormatter

Hadoop 1.0.3 mapred.map.tasks 属性不工作

hadoop - 色相到底是什么?

scala - 如何将 RDD 中的每个元素与 RDD 中的每个其他元素进行比较?

scala - 使用 Spark 分析推特数据

python:模拟类变量的多重继承

python - Sphinx 无法处理类定义内的函数分配

python - 我怎样才能在Python中分割这个字符串

multithreading - spark.task.cpus 和 --executor-cores 有什么区别