Various Optimization Algorithms For Training Neural Network[转]

时间:2021-04-12 12:26:22   收藏:0   阅读:0

from

https://towardsdatascience.com/optimizers-for-training-neural-network-59450d71caf6

 

技术图片
技术图片

Optimizers help to get results faster

Gradient Descent

Stochastic Gradient Descent

Mini-Batch Gradient Descent

Momentum

Nesterov Accelerated Gradient

技术图片
技术图片

NAG vs momentum at local minima

Adagrad

技术图片
技术图片

A derivative of loss function for given parameters at a given time t.

技术图片
技术图片

Update parameters for given input i and at time/iteration t

AdaDelta

技术图片
技术图片

Update the parameters

Adam

技术图片
技术图片

First and second order of momentum

技术图片
技术图片

Update the parameters

Comparison between various optimizers

技术图片
技术图片

Comparison 1

技术图片
技术图片

comparison 2

Conclusions

 

评论(0
© 2014 mamicode.com 版权所有 京ICP备13008772号-2  联系我们:gaon5@hotmail.com
迷上了代码!