1

我在我的测试平台中使用 Apache Druid 和 HDFS 的容器化部署。稳定运行 5 天后,我在 HDFS UI 上看到一名 HDFS 工作人员报告为已死亡。在这个“死”工人的容器内,我看到该进程仍然存在,但有数千个 TCP 连接处于 CLOSE_WAIT 状态。我看到在 HDFS JIRA 页面上针对不同版本的 HDFS 提交了很多问题。

HDFS 版本:2.7.5。

容器 ulimit:最多 1048576 个文件。

Druid 是唯一与 HDFS 交互的组件。没有编写无法调用 close() 的自定义代码。

有没有人看到类似的问题并解决了它?

4

0 回答 0