pyspark:所需的执行器内存

piah890a  于 2021-07-14  发布在  Spark
关注(0)|答案(0)|浏览(233)

当我尝试的时候 conf.set("spark.executor.memory", "42g") 在Pypark上,我收到了这个消息“ IllegalArgumentException: u"Required executor memory (43008+384 MB) is above the max threshold (16384 MB) of this cluster! Please check the values of 'yarn.scheduler.maximum-allocation-mb' and/or 'yarn.nodemanager.resource.memory-mb'." .
这是集群hadoop的配置
3个名称节点(每个256 g)//2个边注解(每个128 g)//6个从属节点(每个256 g)//ambari ranger hdf(每个16 g)
我知道问题是ambari ranger hdf怎么只有16g,但确实存在一个不考虑ambari ranger在集群中的解决方案。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题