1

我有四张 GPU 卡,而 CPU 无法为所有这些卡进行足够快的图像预处理。队列很快就用完了,大部分时间卡都是空闲的。有没有办法将 QueueRunner 放在这四张 GPU 卡中的一张上,以便一张卡进行预处理并形成队列,而另外三张实际训练模型?

4

1 回答 1

-1

是的,这应该是可能的。您可以将预处理 python 函数包装在tf.py_func中,创建一个 TF 操作并将其放入请求的 gpu 中with tf.device("gpu:0"):,在那里创建一个队列并在另一个 gpus 上使用 dequeue 操作。

于 2016-11-20T12:06:14.753 回答