Заметки разработчика
Просто ссылочный блог.
Показаны сообщения с ярлыком
Gradient Descent
.
Показать все сообщения
Показаны сообщения с ярлыком
Gradient Descent
.
Показать все сообщения
среда, 29 ноября 2017 г.
О Stohastic Gradient Descent
Хорошая статья на хабре о том как можно улучшить SGD:
Nesterov Accelerated Gradient,
Adagrad,
RMSProp и Adadelta,
Adam,
Adamax.
https://habrahabr.ru/post/318970/
Предыдущие
Главная страница
Подписаться на:
Сообщения (Atom)