apache-spark - 在运行这个程序之前你需要构建spark

标签 apache-spark

我下载了适用于 hadoop 2.4 的预构建 Spark 1.2.1。然后我尝试使用 ./bin/spark-shell 启动 Spark shell,并收到以下错误消息:

无法在/Users/XXXX/Software Libraries/Java Libraries/General/spark-1.2.1-bin-hadoop2.4/lib 中找到 Spark 程序集 在运行此程序之前,您需要构建 Spark。

即使我下载了预构建版本,为什么仍无法启动并出现此错误?

最佳答案

虽然看起来很奇怪,但移动到我的主目录可以解决问题。也许与我的目录名称中包含空格有关,但我不能确定。

关于apache-spark - 在运行这个程序之前你需要构建spark,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28999648/

相关文章:

hadoop - Spark 在 yarn-cluster 上提交 - Hive 错误

performance - 处理大输入时 Spark 性能非常慢

java - 使用 Apache Spark SQLContext 写入时出错

node.js - 哪种技术可以与Cassandra以及NodeJS连接?

apache-spark - Spark 中的 sort 和 orderBy 函数有什么区别

java - 我应该在spark应用程序中包含hadoop-common还是hadoop-core

hadoop - Flume流GZ文件

csv - 将 Spark 数据帧写为带有分区的 CSV

scala - Spark数据框似乎被重新计算了两次

apache-spark - 通过 python 脚本关闭 pyspark 日志记录