linux - 无法从 bin 运行 spark-shell

标签 linux apache-spark environment-variables

我是 spark 的新手,我下载了预编译的 spark。

当我尝试在命令行上从 bin 文件夹运行 spark-shell 时,它返回

:cd /users/denver/spark-1.6/bin
:spark-shell

command not found

但是如果我像这样运行它

:cd /users/denver/spark-1.6
:./bin/spark-shell

它启动 spark ..

你能告诉我为什么在第一种情况下会抛出错误吗

最佳答案

第一种情况下无法运行spark-shell命令的原因是environment variable

终端在 $PATH 中搜索可执行文件。这是一个 Unix 环境变量,列出了包含系统二进制文件(例如 lsechogcc)的目录。如果调用不在 $PATH 目录中的可执行文件(例如 spark-shell),则需要指明其在文件系统中的绝对路径。

终端中的.是当前工作目录的同义词,因此./bin/spark-shell可以正常工作。您同样可以调用 ./some/path/bin/spark-shell

希望对您有所帮助。

关于linux - 无法从 bin 运行 spark-shell,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35620687/

相关文章:

linux - 没有收到 sed 错误

hadoop - 使用Spark Streaming时HDFS文件被覆盖,但是我不希望这样

bash - 为什么用 "envsubst <file >file"重写一个文件会留空?

python - Pyspark RDD : convert to string

docker - 使用 docker run 将值连接到现有的环境变量

php - 是否可以在 php.ini 中使用环境变量?

linux - 在 Linux (Ubuntu) 上为 OGRE 设置 netbeans

java - 无法使用 Ubuntu Oracle Java 8 运行 IntelliJ IDEA CE 12

linux - 如果一个socket被四元组识别,监听socket的四元组信息是什么?

apache-spark - 如何使用 pyspark 从列表中获取最后一项?