我想使用tarball安装Hadoop和Spark的Cloudera发行版。
我已经在本地计算机上以伪分布式模式设置了Hadoop,并成功运行了一个Yarn示例。
我已经从here下载了最新的tarball CDH 5.3.x
但是从Cloudera下载的Spark的文件夹结构与Apache网站不同。这可能是因为Cloudera提供了自己维护的版本。
因此,由于没有找到任何文档,我没有单独从Cloudera的tarball安装Spark。
有人可以帮助我了解如何做吗?
最佳答案
Spark可以提取到任何目录。您只需要运行带有必需参数的./bin/spark-submit
命令(在解压缩的spark目录中可用)即可提交作业。要启动Spark交互式 shell ,请使用命令./bin/spark-shell
。
关于hadoop - 如何分别从tarball安装Spark和Hadoop [Cloudera],我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28858598/