python - Pyspark 中 SparkSession 的导入错误

标签 python

我安装了 2.0 版的 Spark。我在 Python 2.7 上使用 Pyspark。我似乎可以轻松创建 SparkContext,但由于某种原因我无法导入 SparkSession。有谁知道我做错了什么?

import pyspark
import pyspark.sql
from pyspark.sql import SparkSession
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
 ImportError: cannot import name SparkSession

最佳答案

奇怪的是,这在不同的目录下工作得很好。从此路径运行文件不会导致错误!

/用户/.../spark-2.1.0-bin-hadoop2.7/python/

关于python - Pyspark 中 SparkSession 的导入错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42739246/

相关文章:

python - 用列的值替换 DataFrame 中的空值

python - 使用部分数据重新采样和逐年计算

python - pip 安装的奇怪行为

python sklearn pipiline 适合 : "AttributeError: lower not found"

python - 如何将 Python 列表添加到 Spark DataFrame?

具有可变上限的 Python 双变量正态 CDF

python - 带有 slider 和固定几何图形的交互式 matplotlib

python - 抑制单元测试中的打印输出

python - Flask-WTForms:如何检查是否需要一个字段?

python - Python 3 中的 "Priority stack"(优先级队列和堆栈的混合)?