Заметки разработчика
Просто ссылочный блог.
среда, 29 ноября 2017 г.
О Stohastic Gradient Descent
Хорошая статья на хабре о том как можно улучшить SGD:
Nesterov Accelerated Gradient,
Adagrad,
RMSProp и Adadelta,
Adam,
Adamax.
https://habrahabr.ru/post/318970/
Комментариев нет:
Отправить комментарий
Следующее
Предыдущее
Главная страница
Подписаться на:
Комментарии к сообщению (Atom)
Комментариев нет:
Отправить комментарий