我安装了 2.0 版的 Spark。我在 Python 2.7 上使用 Pyspark。我似乎可以轻松创建 SparkContext,但由于某种原因我无法导入 SparkSession。有谁知道我做错了什么?
import pyspark
import pyspark.sql
from pyspark.sql import SparkSession
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
ImportError: cannot import name SparkSession
最佳答案
奇怪的是,这在不同的目录下工作得很好。从此路径运行文件不会导致错误!
/用户/.../spark-2.1.0-bin-hadoop2.7/python/
关于python - Pyspark 中 SparkSession 的导入错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42739246/