134****4518
2024-05-12 09:17需要中文解答! 考得這么細,上課的時候講得那么粗!
所屬:FRM Part I > Foundations of Risk Management 視頻位置 相關試題
來源: 視頻位置 相關試題
1個回答
黃石助教
2024-05-14 14:59
該回答已被題主采納
同學你好。我這邊去反饋一下,造成的不便還請諒解。這個內(nèi)容確實比較細,原版書上也基本沒怎么講??偠灾贏NN中,我們會計算模型輸出值與實際值之間的誤差,并將該誤差從輸出層向隱藏層反向傳播,直至傳播到輸入層。在反向傳播的過程中,模型會結(jié)合優(yōu)化方法、根據(jù)誤差調(diào)整各參數(shù)的值。該過程將會不斷迭代、直至收斂。常用的方法是gradient descent algorithm,在該算法下,通常會先設置一個目標函數(shù),比如mean squared error(見圖1),然后將其對biases和weights求一階導,然后利用圖2中的公式去獲得新的參數(shù)。圖2中的gamma就是learning rate,它影響的是gradient descent algorithm調(diào)整的大?。ǖ谷荓就是前面求的導數(shù))。
-
追問
所以為什么要減少呢?(減少就可以達到目的的原理是什么呢)
-
追答
同學你好。這里的目標函數(shù)是mean squared error,根據(jù)定義式可以看到,該指標越小,意味著預測值與實際值之間的差距越小,也就是模型預測得越準確。
