将jolokia附加到spark并从中获取度量

smdnsysy  于 2021-05-29  发布在  Spark
关注(0)|答案(0)|浏览(193)

我已经运行了pyspark和spark(scala)——至少,我认为我已经运行了cli。这是一个单独的过程吗?无论如何,我实际上可以成功地连接jolokia代理运行: java -jar <path/to/jolokia.jar> start <spark PID> (<--也许这不是spark的pid,只是cli?)
当我这样做的时候,比如说Kafka,我可以旋转jconsole,我看到所有的Kafka指标。在spark的例子中,我没有看到spark数据,只有jvm/jolokia数据……所以有些东西不起作用。
我还应该注意到 curl 惯性导航与制导 localhost:8778/jolokia/list 还提供了jvm/jolokia数据,但同样没有spark数据。
后来我试着在 spark-defaults.conf (我的安装实际上是 spark-defaults.conf.template 如果有关系的话。我没有完全安装吗?):

spark.executor.extraJavaOptions="-javaagent:jolokia.jar=host=0.0.0.0=port=8778"
spark.driver.extraJavaOptions="-javaagent:jolokia.jar=host=0.0.0.0=port=8778"

这也没有在jolokia生成spark数据。
任何指导都将不胜感激!

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题