Spark执行器日志(stderr)滚动

2cmtqfgy  于 2021-05-27  发布在  Spark
关注(0)|答案(3)|浏览(759)

我尝试将配置属性设置为rollover stderr log(它正在增长)

mySparkConf.set("spark.executor.logs.rolling.maxRetainedFiles","5")
mySparkConf.set("spark.executor.logs.rolling.time.interval","minutely")
mySparkConf.set("spark.executor.logs.rolling.strategy","time")

mySparkConf.set("spark.executor.logs.rolling.maxRetainedFiles","5")
mySparkConf.set("spark.executor.logs.rolling.maxSize","100000")
mySparkConf.set("spark.executor.logs.rolling.strategy","size")

它不起作用,或者它的工作原理与我预期的不同(没有太多关于它的文档)。
例如,我希望基于时间的滚动将在每分钟后创建新文件(如上所述)。然而,在这一时期之后,它仍然在增长。 mySparkConf = SparkConf() ... mySparkConf.set("spark.executor.logs.rolling.maxRetainedFiles","5") mySparkConf.set("spark.executor.logs.rolling.maxSize","100000") mySparkConf.set("spark.executor.logs.rolling.strategy","size") ... mySparkContext = SparkContext(conf=mySparkConf) mySparkStreamingContext = StreamingContext(mySparkContext,10) mySparkSession = SparkSession.builder.appName("my app").config(conf=mySparkConf).getOrCreate()

cqoc49vn

cqoc49vn1#

您需要在两个位置进行更改(添加一些内容)。1英寸 $SPARK_HOME/conf/spark-default.conf 你需要加上这三行 in each executor :

spark.executor.logs.rolling.time.interval  daily
spark.executor.logs.rolling.strategy  time
spark.executor.logs.rolling.maxRetainedFiles  7

另一个需要更改的文件 for each executor$SPARK_HOME/conf/spark-env.sh 添加以下行:

SPARK_WORKER_OPTS="$SPARK_WORKER_OPTS -Dspark.worker.cleanup.enabled=true -Dspark.worker.cleanup.interval=1800 
 -Dspark.worker.cleanup.appDataTtl=864000 
-Dspark.executor.logs.rolling.strategy=time 
-Dspark.executor.logs.rolling.time.interval=daily 
-Dspark.executor.logs.rolling.maxRetainedFiles=7 "

export SPARK_WORKER_OPTS

这些对我有用。

kpbwa7wx

kpbwa7wx2#

很老的问题,但仍然缺乏解释-这些属性不是应用程序设置-它们是spark worker设置,因此您必须将它们传递给worker,而不是在sparkconf中设置它们。

b09cbbtk

b09cbbtk3#

您可以在中配置属性 spark-defaults.conf 位于下面 install_location/resources/spark/conf/ 具有以下属性:

spark.executor.logs.rolling.maxRetainedFiles 5
spark.executor.logs.rolling.strategy size
spark.executor.logs.rolling.maxSize 100000

请注意,rollingpolicy代码中有最小大小字节检查,因此请确保生成足够的日志(超过81920字节)来滚动文件。
裁判。https://github.com/dgshep/spark/commit/258e6c3786ed79ab0245bc7b37a5f55eefbf4358

相关问题