0

我正在使用 java 使用 hadoop 2.7,但我有这个错误。我可以创建一个文件,但我不能在文件中写入:

错误:

错误文件 /test/1.txt 只能复制到 0 个节点而不是 minReplication (=1)。有 1 个数据节点正在运行,并且在此操作中排除了 1 个节点。

我已阅读有关此错误的信息,但我的数据节点未满。

我正在使用在 linux (ubuntu 18.10) 中运行的 1 个单节点集群。从我的 Windows 计算机(在同一网络上)我从 java 访问我的集群

4

1 回答 1

1

我已经解决了这个问题。

有两种可能性:

1) 数据节点已满。请检查您的数据节点是否已满--->

我使用这个命令 $ dfs -du -h /

知道hadoop中数据节点的磁盘空间吗?

2)或者第二个选项是数据节点工作不正常。(您的名称节点可能工作正常或不正常)。(如果 namenode 已启动且 datnode 已关闭,hdfs 可以让您创建文件但不能写入文件。)(如果 datanode 和 namenode 已关闭,则无法创建或写入文件)。您可以在 core-site.xml 中检查您与 datanode 的连接。

过时的----------------:

    <?xml version="1.0"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

    <configuration>
        <property>
            <name>fs.default.name</name>
            <value>hdfs://0.0.0.0:8020</value>
            <description>Nombre del filesystem por defecto.</description>
        </property>
    </configuration>

更新 - - - - - - - -:

    <?xml version="1.0"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

    <configuration>
        <property>
            <name>fs.default.name</name>
            <value>hdfs://ip_where_you_are_dating:8020</value>
            <description>Nombre del filesystem por defecto.</description>
        </property>
    </configuration>

第二个选项:

我正在尝试在文件中写入数组字节,但我不能。(我可以在 FileSystem 中创建这个文件,并且连接正常)。任何帮助表示感谢

于 2019-08-27T08:27:29.010 回答