我是 spark 的新手,我下载了预编译的 spark。
当我尝试在命令行上从 bin 文件夹运行 spark-shell 时,它返回
:cd /users/denver/spark-1.6/bin
:spark-shell
command not found
但是如果我像这样运行它
:cd /users/denver/spark-1.6
:./bin/spark-shell
它启动 spark ..
你能告诉我为什么在第一种情况下会抛出错误吗
最佳答案
第一种情况下无法运行spark-shell
命令的原因是environment variable
终端在 $PATH
中搜索可执行文件。这是一个 Unix 环境变量,列出了包含系统二进制文件(例如 ls、echo 或 gcc)的目录。如果调用不在 $PATH
目录中的可执行文件(例如 spark-shell
),则需要指明其在文件系统中的绝对路径。
终端中的.
是当前工作目录的同义词,因此./bin/spark-shell
可以正常工作。您同样可以调用 ./some/path/bin/spark-shell
。
希望对您有所帮助。
关于linux - 无法从 bin 运行 spark-shell,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35620687/