0

在 Colab 中使用 pytorch 1.0 Preview 和 fastai v1.0。

我经常RuntimeError: DataLoader worker (pid 13) is killed by signal: Bus error.做更多的内存密集型任务(没什么大不了的)。

看起来像一个共享内存问题: https ://github.com/pytorch/pytorch/issues/5040#issue-294274594

修复看起来像是更改 docker 容器中的共享内存:

https://github.com/pytorch/pytorch/issues/2244#issuecomment-318864552

看起来 docker 容器的共享内存设置得不够高。通过将 --shm-size 8G 添加到 docker run 命令来设置更高的数量似乎是这里提到的技巧。

如何增加在 Colab 中运行的 docker 容器的共享内存或避免此错误?

4

1 回答 1

1

无法在 colab 中修改此设置,但已提出默认设置以解决此问题,因此您无需进一步更改设置:https ://github.com/googlecolab/colabtools/issues/329

于 2018-12-18T22:44:20.893 回答