我下载了适用于 hadoop 2.4 的预构建 Spark 1.2.1。然后我尝试使用 ./bin/spark-shell 启动 Spark shell,并收到以下错误消息:
无法在/Users/XXXX/Software Libraries/Java Libraries/General/spark-1.2.1-bin-hadoop2.4/lib 中找到 Spark 程序集 在运行此程序之前,您需要构建 Spark。
即使我下载了预构建版本,为什么仍无法启动并出现此错误?
最佳答案
虽然看起来很奇怪,但移动到我的主目录可以解决问题。也许与我的目录名称中包含空格有关,但我不能确定。
关于apache-spark - 在运行这个程序之前你需要构建spark,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28999648/