关于堆栈溢出有很多类似的问题,但没有一个能解决我的问题。
我正在尝试启动我的 namenode 和 datanode,其中 namenode 开始工作,但datanode 与资源管理器和节点管理器一起失败。这是显示的错误:
2021-06-17 15:44:09,513 错误 datanode.DataNode:secureMain org.apache.hadoop.util.DiskChecker$DiskErrorException 中的异常:失败的卷太多 - 当前有效卷:0,配置的卷:1,卷失败:1 ,允许的卷故障:在 org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode. java:2799) 在 org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:2714) 在 org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:2756)在 org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:2900) 在 org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:2924) 2021-06- 17 15:44:09,518 INFO util.ExitUtil:以状态 1 退出:org.apache。hadoop.util.DiskChecker$DiskErrorException:失败的卷太多 - 当前有效卷:0,配置的卷:1,卷失败:1,容错的卷:0 2021-06-17 15:44:09,522 INFO datanode.DataNode:SHUTDOWN_MSG :
这是我的hdfs-site.xml:
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>C:\Users\username\Documents\hadoop-3.2.1\data\dfs\namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>C:\Users\username\Documents\hadoop-3.2.1\data\dfs\datanode</value>
</property>
<property>
<name>dfs.datanode.failed.volumes.tolerated</name>
<value>0</value>
</property>
</configuration>
有什么解决办法?