spark属性“丢失”(执行器内核、内存、数字等)

0ve6wy6x  于 2021-05-27  发布在  Spark
关注(0)|答案(0)|浏览(245)

我正在尝试从sparkshell直接或以编程方式访问spark属性。
我不想依赖spark web ui。
更重要的是,通过命令行设置启动时的执行者数量似乎不会对web ui产生任何影响(该变量不会出现在“环境”选项卡上)
我也不能在spark上下文的sparkconf中显示它(参见下面的屏幕截图)
我不得不承认,在设置/配置属性方面,我仍然不得不“猜测”和盲目飞行,我对此感到不满。我不是在寻找快速修复,我的目标是真正了解如何设置spark属性以及如何在运行时访问它们。
spark获取它们的方式对我来说仍然是模糊的(许多可能的入口点、导出变量、命令行、.conf文件、spark-env.sh、默认值…),并且没有显式设置的属性没有显示的事实(根据我的经验)令人费解(正如您在下面的“todebugstring”命令之后所看到的,缺少大量默认属性)
欢迎澄清


设置一些属性然后访问它会删除一个异常(尝试了许多属性)

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题