java—是否可以通过maven项目运行一个节点和一个嵌入在一起的应用程序的apache spark cluster?

vs3odd8k  于 2021-05-27  发布在  Spark
关注(0)|答案(0)|浏览(172)

我不想单独运行spark cluster。我希望我的业务逻辑和spark cluster是同一个项目的一部分。使用此项:

SparkSession spark = SparkSession.builder().master("local[*]").appName("Java Spark embedded").getOrCreate();

然后使用此sparksession进行数据处理。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题