如何在为spark编写的scala程序中检查资源/内存泄漏

vxbzzdmp  于 2021-06-02  发布在  Hadoop
关注(0)|答案(0)|浏览(139)

我有一个用scala编写的spark程序。我注意到,随着容器执行越来越多的任务,它的内存消耗会不断增加,直到yarn杀死容器为止。因此,存在一些代码中不明显的资源/内存泄漏。有没有办法检查这种泄漏?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题