我在本地的windows机器上安装了一个独立模式的Hadoop,一个datanode,复制因子设置为1。我已经上传了一些数据到datanode上。让我们将此现有数据节点称为 datanode1。
我想向 Hadoop 添加额外的一/两个数据节点,并将复制因子更改为二/三并将现有数据复制两次或三次。
例如,我想只添加一个额外的 datanode2,并复制 datanode1 中的所有现有数据。对于任何新上传的数据,它将分别保存在 datanode1 和 datanode2 中,因为复制因子更改为 2。
我试图更改 hdfs-site.xml 文件以反映更改(添加 datanode2 并将复制因子更改为 2)并启动 star-all.cmd,但似乎 datanode1 中的现有数据没有复制和 hadoop仍然只有一个数据节点。
关于如何设置的任何想法?