清理s3上spark失败的作业暂存目录

yuvru6vn  于 2021-05-27  发布在  Spark
关注(0)|答案(0)|浏览(169)

我有一个spark作业,它将数据写入awss3,有时应用程序会失败,这会将spark暂存目录留在s3上,如下所示。

我的问题是,自动清理这些目录的最佳实践是什么,以及如何实现这一点?是否有一个spark配置来执行此操作,或者应该有一个独立的步骤来执行清理?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题