python - 安装 PySpark

标签 python installation apache-spark

我正在尝试安装 PySpark 并遵循 instructions并在我安装了 Spark 的集群节点上从命令行运行它:

$ sbt/sbt assembly

这会产生以下错误:

-bash: sbt/sbt: No such file or directory

我尝试下一个命令:

$ ./bin/pyspark

我收到这个错误:

-bash: ./bin/pyspark: No such file or directory

我觉得我缺少一些基本的东西。 什么不见​​了? 我已经安装了 spark 并且可以使用以下命令访问它:

$ spark-shell

我在节点上安装了 python,并且能够使用以下命令打开 python:

$ python

最佳答案

您当前的工作目录是什么? sbt/sbt./bin/pyspark 命令是相对于包含 Spark 代码的目录 ($SPARK_HOME),所以你应该在运行这些命令时的那个目录。

请注意,Spark 提供 pre-built binary distributions与许多常见的 Hadoop 发行版兼容;如果您使用其中一个发行版,这可能是一个更简单的选择。

此外,您似乎链接到了 Spark 0.9.0 文档;如果您从头开始构建 Spark,我建议您遵循 latest version of the documentation .

关于python - 安装 PySpark,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25369051/

相关文章:

c# - 在包含到安装项目之前重命名项目输出

installation - 如何修改 Inno Setup 安装程序的嵌入式 list ?

java - 连接到远程 Spark master - Java/Scala

scala - 'spark.driver.maxResultSize' 的范围

python - 使用自签名证书将 Metro 应用程序连接到 Python SSL 服务器

python - ImportError :/usr/lib64/libcairo. so.2: undefined symbol :pixman_region32_rectangles

postgresql - 从源代码安装 postgresql 后如何使用 pg_trgm

python - 如何使用 python-twitter 找到关注请求的用户

python - 循环 python 3 中的错误

pandas - Spark 与 Scala 和 Pandas