**结束。**此问题不符合堆栈溢出准则。它目前不接受答案。**想改进这个问题吗?**更新问题,使其成为堆栈溢出的主题。
六天前关门了。改进这个问题我在windows10中安装了vmware,我正在vmware中的linux机器上运行spark,但要在分布式系统上体验spark,我想在三台机器上运行spark job。为了做到这一点,我需要创建三台机器与2 vCore和4 gb内存和运行Spark。如何在vmware上实现这一点并运行spark作业?
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!