运行spark时遇到“warn procfsmetricsgetter:exception when trying to compute pagesize”错误

p1iqtdky  于 2021-05-19  发布在  Spark
关注(0)|答案(2)|浏览(3543)

我安装了spark,当尝试运行它时,我得到了错误:warn procfsmetricsgetter:exception当尝试计算pagesize时,processtree度量的结果报告被停止
有人能帮我吗?

wd2eg0qa

wd2eg0qa1#

我也遇到了同样的问题,因为python路径没有添加到系统环境中。我在环境中添加了这个,现在它可以完美地工作了。
添加 PYTHONPATH 值为的环境变量:

%SPARK_HOME%\python;%SPARK_HOME%\python\lib\py4j-<version>-src.zip;%PYTHONPATH%

帮助解决了这个问题。只要检查一下你的电脑里有什么py4j版本就行了 spark/python/lib folder .

vfh0ocws

vfh0ocws2#

我收到了同样的消息,在windows10上运行spark3.0.1,使用scala2.12.10。这实际上不是一个错误,因为它结束了程序的执行。这是一个与linux机器上的/proc文件系统相关的警告。
如果您也在windows机器上,答案可能是,引用wing yew poon@apache:“出现警告的原因是命令”getconf pagesize“在windows上运行时不是有效的命令,因此捕获了一个异常。”(来自spark jira问题)。
如果您的程序在抛出此异常消息后立即失败,则是由于其他原因。在我的例子中,spark在发出警告后立即崩溃了:

20/11/13 12:41:51 ERROR MicroBatchExecution: Query [id = 32320bc7-d7ba-49b4-8a56-1166a4f2d6db, runId = d7cc93c2-41ef-4765-aecd-9cd453c25905] terminated with error
org.apache.spark.SparkException: Job 1 cancelled because SparkContext was shut down

通过将spark.executor.processtreemetrics.enabled设置为false,可以隐藏此警告。再次引用潘先生的话,“你看到这个警告是个小错误。但可以放心地忽略它。”

相关问题