我们可以重新运行spark job吗?它在databricks中失败了[已关闭]

6qfn3psc  于 2023-03-19  发布在  Apache
关注(0)|答案(1)|浏览(85)

已关闭。此问题需要details or clarity。当前不接受答案。
**想要改进此问题?**添加详细信息并通过editing this post阐明问题。

十小时前关门了。
Improve this question
我运行了一个Spark工作,但它失败了一段时间后,才执行竞争
我不想重新运行整个作业。我想从失败的位置运行

pexxcrt2

pexxcrt21#

  • 您可以根据工作流作业运行UI中的Microsoft documentation使用Repair job run功能,从失败的任务重新运行作业。
  • 以下是一个作业运行,其中一个任务在第一次运行时失败。

  • 单击修复作业运行时,将显示以下对话框,从中可以看到失败作业运行中的哪些任务将重新运行:

  • 我做了更改,当我从失败的任务重新运行时,它是成功的。下面是成功运行失败作业的最终输出图像。

相关问题