通过ambari安装spark

l2osamch  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(550)

我已经通过ambari配置了虚拟机集群。正在尝试安装spark。
在所有教程(即这里)中,它都非常简单;spark安装与其他服务类似:

但在我的ambari示例中,似乎根本没有这样的条目。
如何将spark条目添加到ambari服务?

3zwtqj6y

3zwtqj6y1#

下面应该有一个spark文件夹 /var/lib/ambari-server/resources/stacks/HDP/2.2/services 目录。此外,还应该有spark文件夹,由其版本号标识 /var/lib/ambari-server/resources/common-services/SPARK . 要么是有人修改了您的环境,要么是一个坏的和/或非标准的ambari安装。
我建议重新安装,因为很难说您需要添加什么,因为不清楚环境中还缺少什么。

相关问题