在vmware中设置多台机器以分布式方式运行spark?

r6vfmomb  于 2021-05-26  发布在  Spark
关注(0)|答案(0)|浏览(235)

**结束。**此问题不符合堆栈溢出准则。它目前不接受答案。
**想改进这个问题吗?**更新问题,使其成为堆栈溢出的主题。

六天前关门了。
改进这个问题
我在windows10中安装了vmware,我正在vmware中的linux机器上运行spark,但要在分布式系统上体验spark,我想在三台机器上运行spark job。为了做到这一点,我需要创建三台机器与2 vCore和4 gb内存和运行Spark。如何在vmware上实现这一点并运行spark作业?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题