如何将spark cluster与docker上的其他hadoop2.x集群集成

n7taea2i  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(253)

我已经在我的服务器上安装了hadoop2.5集群,运行在docker上,并且我们有一个spark独立集群运行在同一台服务器上(也部署在docker上),我如何将spark集群从独立模式切换到spark on yarn,因为hadoop和spark在单独的docker上运行。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题