枻同學
2023-02-18 16:41請問這里的反向傳播是機器自動調(diào)整還是人工調(diào)整呢
所屬:FRM Part I > Quantitative Analysis 視頻位置 相關(guān)試題
來源: 視頻位置 相關(guān)試題
1個回答
ES助教
2023-02-20 14:33
該回答已被題主采納
1. The network中有三個特征:
1.1 輸入變量x
1.2 隱藏層
用于計算隱藏節(jié)點處的值的公式舉例如下
??_1=??(??_111 ??_1+??_112 ??_2+??_113 ??_3+??_1)
??_2=??(??_121 ??_1+??_122 ??_2+??_123 ??_3+??_2)
??_3=??(??_131 ??_1+??_132 ??_2+??_133 ??_3+??_3)
其中,The ??_1, ??_2, ??_3 (函數(shù)中的常數(shù)項)被稱為偏差,其他w稱為權(quán)重。
1.3 輸出變量y
2. 計算過程
2.1前向傳播
(1)隨機輸入層的初始化值
(2)根據(jù)輸入層的初始化值及函數(shù)計算隱藏層
(3)根據(jù)隱藏層的值及函數(shù)計算輸出層
2.2 Backpropagation (the weights and biases如何從一個迭代更新到另一個迭代)
(1) 計算總誤差
因為初始的輸入值都是隨機取得,所以一開始的總誤差會很大,就需要更新權(quán)重
(2) 權(quán)值更新
在實踐中,使用The gradient descent algorithm(梯度下降算法)以得到最小誤差值,在梯度下降算法中會涉及一個The learning rate的選擇,這個根據(jù)自己的需求和偏好進行設(shè)置,但是:
? 如果The learning rate太小,梯度下降算法將會花費很長時間
? 如果The learning rate太大,梯度下降的路徑會發(fā)生“oscillate”
其他都是根據(jù)數(shù)學求偏導公式在代碼中設(shè)置一個循環(huán)即可
(3) 重復“權(quán)值更新”這個步驟,不斷更新network參數(shù)我們就能得到更準確的模型
