我正在尝试设置 spark,但我不知道用户提供的 Hadoop 的含义。
为什么“选择包类型”菜单说“ 和 用户提供的Hadoop”,而“下载Spark”菜单说“spark-1.6.0-bin- 没有 -hadoop.tgz” ”。
我很困惑是否需要或不需要hadoop。
最佳答案
这个选项意味着你必须提供你的 hadoop jars,假设它安装在你的集群上
关于apache-spark - 什么是 "Pre-build with user-provided Hadoop"包,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35502046/