我已经解决了这个问题。
有两种可能性:
1) 数据节点已满。请检查您的数据节点是否已满--->
我使用这个命令 $ dfs -du -h /
知道hadoop中数据节点的磁盘空间吗?
2)或者第二个选项是数据节点工作不正常。(您的名称节点可能工作正常或不正常)。(如果 namenode 已启动且 datnode 已关闭,hdfs 可以让您创建文件但不能写入文件。)(如果 datanode 和 namenode 已关闭,则无法创建或写入文件)。您可以在 core-site.xml 中检查您与 datanode 的连接。
过时的----------------:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://0.0.0.0:8020</value>
<description>Nombre del filesystem por defecto.</description>
</property>
</configuration>
更新 - - - - - - - -:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://ip_where_you_are_dating:8020</value>
<description>Nombre del filesystem por defecto.</description>
</property>
</configuration>
第二个选项:
我正在尝试在文件中写入数组字节,但我不能。(我可以在 FileSystem 中创建这个文件,并且连接正常)。任何帮助表示感谢