hadoop - 无法在 Windows 10 中启动 Spark Master

标签 hadoop apache-spark

我是 Spark 新手,我正在尝试手动启动 master(在 Windows 10 中使用 MINGW64)。

当我这样做时, ~/Downloads/spark-1.5.1-bin-hadoop2.4/spark-1.5.1-bin-hadoop2.4/sbin $ ./start-master.sh

我得到了这些日志,

ps: unknown option -- o
Try `ps --help' for more information.
starting org.apache.spark.deploy.master.Master, logging to /c/Users/Raunak/Downloads/spark-1.5.1-bin-hadoop2.4/spark-1.5.1-bin-hadoop2.4/sbin/../logs/spark--org.apache.spark.deploy.master.Master-1-RINKU-CISPL.out
ps: unknown option -- o
Try `ps --help' for more information.
**failed to launch org.apache.spark.deploy.master.Master:**
  Spark Command: C:\Program Files\Java\jre1.8.0_77\bin\java -cp C:/Users/Raunak/Downloads/spark-1.5.1-bin-hadoop2.4/spark-1.5.1-bin-hadoop2.4/sbin/../conf\;C:/Users/Raunak/Downloads/spark-1.5.1-bin-hadoop2.4/spark-1.5.1-bin-hadoop2.4/lib/spark-assembly-1.5.1-hadoop2.4.0.jar;C:\Users\Raunak\Downloads\spark-1.5.1-bin-hadoop2.4\spark-1.5.1-bin-hadoop2.4\lib\datanucleus-api-jdo-3.2.6.jar;C:\Users\Raunak\Downloads\spark-1.5.1-bin-hadoop2.4\spark-1.5.1-bin-hadoop2.4\lib\datanucleus-core-3.2.10.jar;C:\Users\Raunak\Downloads\spark-1.5.1-bin-hadoop2.4\spark-1.5.1-bin-hadoop2.4\lib\datanucleus-rdbms-3.2.9.jar -Xms1g -Xmx1g org.apache.spark.deploy.master.Master --ip RINKU-CISPL --port 7077 --webui-port 8080

我做错了什么,我是否还必须为 Spark 配置 Hadoop 包?

最佳答案

刚刚在这里找到答案:https://spark.apache.org/docs/1.2.0/spark-standalone.html

“注意:启动脚本目前不支持Windows。要在Windows上运行Spark集群,请手动启动master和worker。”

我认为Windows对于Spark来说不是一个好的选择,无论如何祝你好运!

关于hadoop - 无法在 Windows 10 中启动 Spark Master,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36526186/

相关文章:

apache-spark - 如何在spark sql中嵌套collect_list?

hadoop - Apache Spark - Hive 内部连接、LIMIT 和自定义 UDF

java - 映射/减少 :How to output Hashmap after completion?

HADOOP Map 任务失败 : No protocol specified

java - 如何静态分析jar包(map-reduce应用程序)并提取一些影响执行时间的功能?

scala - 如何使 Scala 类 Hadoop 可写?

java - 一次性生成多个过滤器的架构

hadoop - 我可以自定义InputSplit以根据异常结束进行拆分

hadoop - 如何使用需要处理的 5TB 编辑文件成功完成名称节点重启

r - sparkr 数据 block 错误 : too many open devices