所以我试图弄清楚如何使用 ES 和 Kibana 安装和设置 Storm/Stormcrawler,如此处所述。
我从来没有在我的本地机器上安装过 Storm,因为我以前使用过 Nutch,而且我从来不需要在本地安装 Hadoop……我认为 Storm 可能是一样的(也许不是?)。
我现在想开始用 Stormcrawler 而不是 Nutch 爬行。
似乎如果我只是下载一个版本并将 /bin 添加到我的 PATH 中,我只能与远程集群通信。
似乎我需要根据这个设置一个开发环境,让我能够随着时间的推移开发不同的拓扑,然后在准备部署新拓扑时从我的本地机器上与远程集群通信。那正确吗?
因此,当我使用 Maven 构建 Stormcrawler 项目时,似乎我需要做的就是将 Storm 作为依赖项添加到我的 Stormcrawler 项目中?