雲山霧罩的雲霧提示您:看後求收藏(貓撲小說www.mpzw.tw),接着再看更方便。
我們通過“梯度”來知道哪些參數需要調整,從而讓網絡的表現變得更好。
那“梯度消失”和“梯度爆炸”又是什麼呢?
假設你在玩一個滑滑梯,當你站在滑梯的最高處,往下滑時,你能很快感受到速度在增加,因爲坡度很大。
但是,如果滑到快要到底部的地方,坡度變得很小,你幾乎就感覺不到滑動的速度了。
這裏的“坡度”就像是“梯度”——當坡度變小,滑動的速度也變小。
在神經網絡中,類似的事情也會發生。
如果我們給網絡很多層,它們之間的梯度會越來越小,傳到前面幾層時,梯度幾乎“消失”了。這就是“梯度消失”問題。
梯度太小,無法有效調整那些神經元的連接強度,網絡的訓練就會變得非常困難。
想象你在爬一個大山,山的坡度越來越平,最終你幾乎感受不到自己在上升了,這時你很難再判斷該怎麼繼續往上爬。