我已经在我的windows 10系统中安装了spark 1.6(pre built for hadoop 2.6)版本并且我已经正确设置了环境变量。当我运行 pyspark 时,我得到这个 error message .
但是我可以从 spark 目录运行“python”命令并返回正确的版本。
谁能帮我解决这个问题?
最佳答案
当您运行 python 时,它会直接进入 python 命令行,但对于 pyspark,您必须执行此位置不存在的 pyspark 可执行文件。您正在尝试进入 C:\spark
但 pyspark 文件存在于此位置 C:\spark\bin\pyspark
因此您需要继续此位置并尝试运行 pyspark .
关于python - 无法从 cmd 表单 spark 目录运行 pyspark,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47458595/