python - 无法在 Linux 上打开 Pyspark Shell

标签 python linux apache-spark terminal pyspark

我正在运行 ./bin/pyspark at 以打开 pyspark 外壳,但出现以下错误:

./bin/pyspark: line 45: python: command not found env: ‘python’: No such file or directory

我已经搜索了很多。找不到解决办法。我应该如何解决这个问题?

谢谢,

最佳答案

程序正在调用 python 命令,但 python 不在路径中。您可以通过添加到/usr/bin 的链接来完成此操作。

在 Ubuntu 中,你可以试试这个: sudo ln -s/usr/bin/python3/usr/bin/python

可在此处找到更多信息:https://markobigdata.com/2018/01/12/installing-apache-spark-2-2-1/

关于python - 无法在 Linux 上打开 Pyspark Shell,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50722920/

相关文章:

linux - Mac OS X 上的 Linux 交叉编译器?

python - 使用 Spark 数据帧计算字符串列中的子字符串

apache-spark - Spark DenseVector 的输出转换为 StringType

python - 合并和比较

python - Matplotlib 和 :RuntimeError: main thread is not in main loop:

python - 如何使用模型定义打印/访问 Django IntegerChoice 人类可读标签

c++ - 如何在 Linux 上将 googleTest 设置为共享库

linux - 使用 usbfs 在 usb 设备上调用 ioctl() 不起作用

java.lang.RuntimeException : Error while encoding: java. lang.ArrayIndexOutOfBoundsException:1

python - 覆盖 Django RF 中的序列化程序删除方法