添加新磁盘后hadoop节点不健康问题

lndjwyie  于 2021-07-13  发布在  Hadoop
关注(0)|答案(0)|浏览(159)

我将Hadoop2.x(lts)用于小型hadoop集群。此群集中当前有10个节点。在一个节点上,我遇到了不健康的状态,经过检查,发现磁盘使用率超过90%。为了解决这个问题,我在这个节点上添加了一个新磁盘(大小几乎是旧磁盘的两倍),并更新了相应的配置,如hdfs-site.xml等。
即使添加了新磁盘,该节点也会被标记为不正常。为什么会这样。我希望hadoop应该根据每个磁盘的容量使用它们,并且应该将数据移动到新磁盘(默认配置)。
是否有任何配置参数,我必须为此启用?确保节点上的每个磁盘按其容量开始使用的最佳方法是什么?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题