1

这可能是一个简单的问题,但我就是找不到。但我对这一切也很陌生,所以也许我只是瞎了眼。

将 TensorFlowDNNRegressor 与 SGD 或 Adagrad 一起使用时的默认学习率是多少?使用 Adam 或 Adadelta 时的默认值似乎是 0.001,但我找不到 Adagrad 的默认值,它是 TensorFlowDNNRegressor 和经典 SGD 的默认优化器。

谢谢!

4

2 回答 2

2

AdaGrad 不需要学习率,因为它会适应组件(因此得名)。一个非常简洁的评论: https ://xcorr.net/2014/01/23/adagrad-eliminating-learning-rates-in-stochastic-gradient-descent/

于 2016-06-09T22:39:45.997 回答