当我执行简单循环时,不幸的是,当我如下制作数据加载器时,一切看起来都很好
training_loader = torch.utils.data.DataLoader(training_dataset, batch_size=100, shuffle=True)
并运行
for i in training_loader:
print(i)
我收到错误:
RuntimeError:堆栈期望每个张量大小相等,但在条目 0 处得到 [224, 224],在条目 4 处得到 [224, 224, 3]
什么可能导致它以及如何解决它?先感谢您