優(yōu)化器(optimizer)
目標: 最小化損失函數(shù)
過程: 在反向傳播中, 根據(jù)學習率(lr)來對參數(shù)進行更新,最終逐步降低損失函數(shù)的大小, 使得神經(jīng)網(wǎng)絡輸出更好(函數(shù)擬合的更好)
優(yōu)點:
1. 前后梯度一致時能夠加速學習
2. 前后梯度不一致時能夠抑制震蕩, 越過局部最小值
缺點:
1. 引入一個額外的參數(shù) y
思想: 結合Momentum和RMSprop兩種優(yōu)化器的算法, 并引入一階矩估計和二階矩估計。
優(yōu)點:
1. Adam能夠自動調(diào)整每個參數(shù)的學習率, 能夠很好地處理噪聲和非平穩(wěn)的訓練數(shù)據(jù)
2. 相較于其他可變學習率(AdaGrad)的優(yōu)化器, 提高了訓練速度
總結:
如果在未知模型上進行訓練, 可以先考慮使用Adam確保損失函數(shù)能夠找到最小值, 即模型擬合的函數(shù)能夠收斂,然后切換回SGD進行訓練, 快速達到對應的值。