我正在尝试在Windows10(64位)上安装hadoop版本3-1.0和Java1.8.0\u261。以下是我在hdfs-site.xml中的配置
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///C:/hadoop-3.1.0/hadoop-3.1.0/data/namenode</value>
</property>
<property>
<name>dfs.datanode.failed.volumes.tolerated</name>
<value>0</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///C:/hadoop-3.1.0/hadoop-3.1.0/data/datanode</value>
</property>
</configuration>
一切都安装正确,但当我运行 start-dfs.cmd
,我的namenode开始运行,但datanode没有。它给出以下错误:
error datanode.datanode:securemain org.apache.hadoop.util.diskchecker$diskerrorexception中的异常:失败的卷太多-当前有效卷:0,配置的卷:1,失败的卷:1,允许的卷失败:0
我什么都试过了 dfs.datanode.failed.volumes.tolerated
到1,完全删除它,但没有帮助。
我找了很多,但都没修好。任何帮助都将不胜感激。谢谢。
暂无答案!
目前还没有任何答案,快来回答吧!