我们有 Hadoop 集群(HDP 2.6.5
带有 ambari 的集群,有 25 个数据节点机器)
我们正在使用火花流应用程序(spark 2.1
运行Hortonworks 2.6.x
)
目前的情况是 Spark 流应用程序运行在所有 datanodes 机器上
但是现在我们希望 spark 流应用程序只在第一10 datanodes
台机器上运行
因此其他最后一15 datanodes
台机器将受到限制,并且 spark 应用程序将仅在第一10 datanodes
台机器上运行
这种情况可以通过 ambary 功能或其他方法来完成吗?
和
http://crazyadmins.com/configure-node-labels-on-yarn/
但不确定 Node Labes 是否可以帮助我们