如何减少spark作业中“未使用的vcore秒数”?

mftmpeh8  于 2021-07-12  发布在  Spark
关注(0)|答案(0)|浏览(182)

我正在运行sparkjob,其中运行的sparksql查询既复杂又冗长。
有些转换需要很长时间,因为作业要运行几个小时。
我试着用小文件来减少spark任务的数量,以避免vcore的浪费,但这并没有帮助我提高5%以上。
如果有人遇到同样的问题,请告知。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题