среда, 29 ноября 2017 г.

О Stohastic Gradient Descent

Хорошая статья на хабре о том как можно улучшить SGD:

  • Nesterov Accelerated Gradient,
  • Adagrad, 
  • RMSProp и Adadelta, 
  • Adam, 
  • Adamax.

https://habrahabr.ru/post/318970/

Комментариев нет:

Отправить комментарий