3

我正在按照此示例http://matthewrocklin.com/blog/work/2017/02/11/dask-tensorflow使用磁盘分布式长时间运行的任务,其中长时间运行的工作任务从队列中获取输入就像在 tensorflow 示例中一样,并将其结果传递到输出队列。(我在最新版本的 dask 中没有看到示例中使用的通道)。

我可以看到如何分散列表并应用映射来生成将输入数据推送到工作人员输入队列的期货列表。

def transfer_dask_to_worker(batch):
    worker = get_worker()
    worker.tensorflow_queue.put(batch)

data = [1,2,3,4] 

future_data = e.scatter(data)

tasks = e.map(transfer_dask_to_worker, future_data ,
     workers=dask_spec['worker'], pure=False)

现在,如果我们等待工作人员使用任务,所有结果都将在工作人员的输出队列中。我们可以使用

def transfer_worker_to_dask(arg):
    worker = get_worker()
    return worker.output_queue.get()

results = e.map(transfer_worker_to_dask,range(len(tasks)))

只要我们通过等待所有工作任务完成然后再调用它们来手动处理排序,这就可以正常工作。

我们如何将输出期货链接到输入的下游?有没有办法让长期运行的任务在可以收集回调度程序任务的工作人员上创建未来?

我尝试让 transfer_dask_to_worker(batch) 也查询输出队列并返回结果:

def transfer_dask_to_worker_and_return(batch):
    worker = get_worker()
    worker.tensorflow_queue.put(batch)
    return worker.output_queue.get()

这适用于短名单,但由于取消了大约 1000 个项目的期货而开始失败。

提前致谢。

4

1 回答 1

2

注意:该博文是实验性的。这里有几种方法,我不会将自己局限于那种模式

让我们从这个具体的问题开始:

我们如何将输出期货链接到输入的下游?有没有办法让长期运行的任务在可以收集回调度程序任务的工作人员上创建未来?

这里最简单的解决方案可能是把本地数据分散,然后放到一个Dask 分布式队列中。因此,如果您的 TensorFlow 代码在产生某些结果时调用了一个函数,那么该函数可能会将本地数据分散到未来(这实际上并没有移动数据,它只是让 Dask 工作人员开始跟踪它)然后将其放入未来进入分布式队列。将未来放入队列允许 Dask 中的其他客户端和工作人员知道数据的存在,并在必要时将其拉下

from dask.distributed import Queue
results_q = Queue()

def tf_result_ready(result):
    future = get_worker().scatter(result)
    results_q.put(future)

然后,您可以坐在您的客户端代码中,并在结果可用时从该队列中提取结果:

for _ in range(n_blocks):
    future = results_q.get()
    # do stuff with future like submit or gather
于 2017-12-16T00:43:17.423 回答