1

我在我的 Windows 系统中安装了 Hadoop。只有名称节点和资源管理器服务正在运行。使用 jps cmd 时,不可见 DataNode、SecondaryNameNode 和 NodeManager 守护程序等剩余服务。DataNode 日志中抛出以下错误;

错误:

2019-09-27 11:38:04,881 ERROR datanode.DataNode: Exception in secureMain
org.apache.hadoop.util.DiskChecker$DiskErrorException: Too many failed volumes - current valid volumes: 0, volumes configured: 1, volumes failed: 1, volume failures tolerated: 0
        at org.apache.hadoop.hdfs.server.datanode.checker.StorageLocationChecker.check(StorageLocationChecker.java:231)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:2776)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:2691)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:2733)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:2877)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:2901)
2019-09-27 11:38:04,881 INFO util.ExitUtil: Exiting with status 1: org.apache.hadoop.util.DiskChecker$DiskErrorException: Too many failed volumes - current valid volumes: 0, volumes configured: 1, volumes failed: 1, volume failures tolerated: 0
2019-09-27 11:38:04,881 INFO datanode.DataNode: SHUTDOWN_MSG:

谁能给我一个解决方案?

4

1 回答 1

0

这是由于在 DN 中挂载的磁盘发生故障。

首先,您可以在数据节点中查看已挂载磁盘的状态。(任何不健康、RO 或损坏的磁盘)

CMD: cat /etc/fstab 或 mount

如果多个磁盘出现问题(取决于dfs.datanode.failed.volumes.tolerated 值),则数据节点将关闭。

在这里,根据上面的日志:

卷配置:1,卷失败:1

因此,DN 中没有活动磁盘。它的关闭。

注意

我们可以通过hdfs-default.xml中的dfs.datanode.failed.volumes.tolerated来控制 DN 中的挂载盘

它定义了在数据节点停止提供服务之前允许失败的卷数。任何卷故障都会导致数据节点关闭。默认情况下,它的零

于 2019-09-28T08:39:33.320 回答