5

我是 Keras 的新用户。我对使用 Keras 的培训程序有疑问。

由于我的服务器的时间限制(每个作业只能在不到 24 小时内运行),我必须使用多个 10 纪元来训练我的模型。

在第一个训练阶段,经过 10 个 epoch,使用 Keras 的 ModelCheckpoint 存储最佳模型的权重。

conf = dict()
conf['nb_epoch'] = 10
callbacks = [
             ModelCheckpoint(filepath='/1st_{epoch:d}_{val_loss:.5f}.hdf5',
             monitor='val_loss', save_best_only=True,
             save_weights_only=False, verbose=0)
            ]   

假设我得到最好的模型:'1st_10_1.00000.hdf5'。接下来,我继续使用 10 个 epoch 训练我的模型并存储最佳模型的权重,如下所示。

model.load_weights('1st_10_1.00000.hdf5')
model.compile(...)
callbacks = [
             ModelCheckpoint(filepath='/2nd_{epoch:d}_{val_loss:.5f}.hdf5',
             monitor='val_loss', save_best_only=True,
             save_weights_only=False, verbose=0)
            ]

但我有一个问题。第二次训练的第一个时期给出 1.20000 的 val_loss,脚本生成模型“2nd_1_1.20000.hdf5”。显然,新的 val_loss 大于第一次训练的最佳 val_loss(1.00000)。第二次训练的以下时期似乎是基于模型“2nd_1_1.20000.hdf5”而不是“1st_10_1.00000.hdf5”进行训练的。

'2nd_1_1.20000.hdf5'
'2nd_1_2.15000.hdf5'
'2nd_1_3.10000.hdf5'
'2nd_1_4.05000.hdf5'
...

我认为不使用第一个培训期的更好结果是一种浪费。任何人都可以指出修复它的方法,或者告诉程序它应该使用上一个训练期的最佳模型的方法?提前谢谢了!

4

3 回答 3

1

有趣的案例,可能是一个很大的改进......我认为 API 目前不支持这样的解决方案,除了制作自己的回调函数。

我不认为这会那么难。您可以将其基于原始modelcheckpoint回调类并进行更改。

这一行: https ://github.com/fchollet/keras/blob/master/keras/callbacks.py#L390

它存储正在 logget 的项目的当前最佳值,根据情况在 if 语句中将其初始化为 -inf/inf。

在您的情况下,您必须找到一种方法来读取文件的文件名,进行一些字符串操作,然后添加它。

我建议将其添加为单独的声明.. 或作为else if.

避免过多地弄乱核心代码。

希望它有帮助..

于 2017-05-27T10:08:07.143 回答
1

我遇到了同样的问题,直到我也问了这个问题才看到你的问题。根据我得到的反馈,我编写了一个简单的回调来保存和恢复最佳训练值(例如 val_loss)。你可以在这里找到它:如何在 Keras 的培训课程中保留指标值?

于 2017-09-05T00:23:06.203 回答
0

我最近遇到了类似的问题,尽管上面提供的解决方案效果很好。我尝试了一种更简单的方法,在训练过程完成后,我将 ModelCheckpoint 对象保存到 pickle 文件中。

然后在随后的运行中,我将恢复 pickle 对象,而不是创建 ModelCheckpoint 的新实例,类似于我们恢复模型的方式。

于 2019-03-18T17:23:50.360 回答