我已经通过Ambari配置了VM集群。
现在尝试安装Spark。
在所有教程中(即here),它都非常简单; Spark安装类似于其他服务:
但是似乎在我的Ambari实例中根本没有这样的条目。
如何将Spark条目添加到Ambari服务?
最佳答案
/var/lib/ambari-server/resources/stacks/HDP/2.2/services
目录下应该有一个SPARK文件夹。此外,应在/var/lib/ambari-server/resources/common-services/SPARK
下通过版本号标识 Spark 文件夹。有人修改了您的环境,或者这是Ambari的错误和非标准安装。
我建议重新安装,因为很难确切说明您需要添加什么,因为不清楚环境中可能还缺少哪些其他东西。
关于hadoop - 通过Ambari安装Spark,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40432351/