spark:spark用户界面没有反映正确的执行器计数

zlhcx6iw  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(412)

我们正在运行一个spark流应用程序,希望增加spark使用的executors的数量……因此更新了spark-default.conf,将spark.executor.instances从28个增加到40个,但是这个变化并没有反映在ui中

1 Master/Driver Node : 
  Memory :24GB Cores :8 

4 Worker Nodes : 
  Memory :24GB Cores :8

spark.streaming.backpressure.enabled     true
spark.streaming.stopGracefullyOnShutdown true
spark.executor.instances                 28
spark.executor.memory                    2560MB
spark.executor.cores                     4
spark.driver.memory                      3G
spark.driver.cores                       1


注意:重新启动了spark start-master.sh和start-slaves.sh,但没有任何更改。在此方面的任何帮助将不胜感激。这是yarn-site.xml

<configuration>

    <!-- Site specific YARN configuration properties -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>

    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hdfs-name-node</value>
    </property>

    <property>
        <name>yarn.nodemanager.resource.memory-mb</name>
        <value>22528</value>
    </property>

    <property>
        <name>yarn.nodemanager.resource.cpu-vcores</name>
        <value>7</value>
    </property>

    <property>
        <name>yarn.scheduler.maximum-allocation-mb</name>
        <value>22528</value>
    </property>

    <property>
        <name>yarn.nodemanager.local-dirs</name>
        <value>file:///tmp/hadoop/data/nm-local-dir,file:///tmp/hadoop/data/nm-local-dir/filecache,file:///tmp/hadoop/data/nm-local-dir/usercache</value>
    </property>

    <property>
        <name>yarn.nodemanager.localizer.cache.cleanup.interval-ms</name>
        <value>500</value>
    </property>

    <property>
         <name>yarn.nodemanager.localizer.cache.target-size-mb</name>
         <value>512</value>
    </property>

    </configuration>
pepwfjgg

pepwfjgg1#

yarn site配置为每个节点分配7个核心,因此总的来说,您有35个核心,这意味着最多可以用1个核心运行34个执行器(1个核心用于驱动程序)。

相关问题