我正在尝试在 Windows 10 上安装 spark,但在尝试运行 pyspark 时出现错误。
Failed to find Spark jars directory. You need to build Spark before running this program.
我已按照指示的步骤进行操作 Here直到第 4 步。
我去了 Anaconda 的脚本和站点包。在脚本中有 pyspark spark-shell 等等,但是 site-packages 中的 pyspark 文件夹既没有 jars 文件夹也没有它自己的 bin 文件夹。
jar 在哪里?
最佳答案
导致此错误的原因之一是,在设置路径时,Spark_home 路径可能包含诸如“C:/Users//apache spark/bin”之类的空格
只需删除空格或切换到另一个目录。
关于python - 找不到 Spark jars 目录。在运行这个程序之前你需要构建 Spark,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47315690/