python - 无法从 cmd 表单 spark 目录运行 pyspark

标签 python hadoop apache-spark pyspark

我已经在我的windows 10系统中安装了spark 1.6(pre built for hadoop 2.6)版本并且我已经正确设置了环境变量。当我运行 pyspark 时,我得到这个 error message .

但是我可以从 spark 目录运行“python”命令并返回正确的版本。

谁能帮我解决这个问题?

最佳答案

当您运行 python 时,它会直接进入 python 命令行,但对于 pyspark,您必须执行此位置不存在的 pyspark 可执行文件。您正在尝试进入 C:\spark 但 pyspark 文件存在于此位置 C:\spark\bin\pyspark 因此您需要继续此位置并尝试运行 pyspark .

关于python - 无法从 cmd 表单 spark 目录运行 pyspark,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47458595/

相关文章:

python - 了解 Python netaddr 库命令

Python:将对象分组在一起

apache-spark - Dataproc 分区列中的特殊字符

scala - 使用 Apache Zeppelin 重新运行带有 -deprecation 的 Scala 代码

java - 无法在 Spark 中配置 ORC 属性

python - 试图制作数学游戏,但数学不起作用

python - OpenCV:适合检测到的边缘

hadoop单节点安装——格式化hadoop文件系统

hadoop - 根据 pig 的字段比较元组

hadoop - 如何抑制 hadoop fs 命令的信息消息