我已经在我的服务器上安装了hadoop2.5集群,运行在docker上,并且我们有一个spark独立集群运行在同一台服务器上(也部署在docker上),我如何将spark集群从独立模式切换到spark on yarn,因为hadoop和spark在单独的docker上运行。
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!