当应用程序失败时,spark submit的退出代码在unix脚本中仍然是0

z5btuh9x  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(214)

我在yark上使用unix脚本和spark submit命令提交spark作业。我正在检查unix的if else块中spark job的状态并抛出错误,但是我观察到,如果spark job失败或不完整,它仍然显示为成功,unix脚本无法获得正确的作业状态并退出脚本。
我检查了堆栈溢出的其他答案,但没有得到想要的答案。
如果实施成功,谁能帮忙。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题