蔡同學(xué)
2025-04-06 22:31為什么D選項(xiàng)說同時(shí)進(jìn)行驗(yàn)證集與測(cè)試集的運(yùn)算,能降低過擬合的影響?解析的說法好像不對(duì) 而且B選項(xiàng)的解釋也不對(duì),問題問的是去掉中間層之后還是不是線性回歸,跟有沒有有什么關(guān)系?所以去掉中間層是啥?
所屬:FRM Part I > Quantitative Analysis 視頻位置 相關(guān)試題
來源: 視頻位置 相關(guān)試題
1個(gè)回答
黃石助教
2025-04-07 14:42
該回答已被題主采納
同學(xué)你好。
對(duì)于D:過擬合指的是模型對(duì)訓(xùn)練集的數(shù)據(jù)進(jìn)行了“過度”的學(xué)習(xí),除了數(shù)據(jù)之間的規(guī)律之外還捕捉到了很多無用的噪聲。這使得過擬合的模型在訓(xùn)練集中的表現(xiàn)非常好,但換到其它數(shù)據(jù)集時(shí)表現(xiàn)就會(huì)出現(xiàn)一個(gè)驟降(這也就是所謂的泛化能力generalization不行,一個(gè)泛化能力好的模型應(yīng)該要做到不論怎么更換數(shù)據(jù)集,表現(xiàn)都不會(huì)受到太大的影響)。對(duì)于這個(gè)問題,我們可以在訓(xùn)練集的基礎(chǔ)上引入驗(yàn)證集,通過驗(yàn)證集來看看模型是否可能出現(xiàn)了過擬合。如果模型的表現(xiàn)在驗(yàn)證集中陡然下滑,那就意味著模型可能過于復(fù)雜了,需要進(jìn)行調(diào)整。
對(duì)于B:hidden layer指的是神經(jīng)網(wǎng)絡(luò)在輸入(X)和輸出(Y)之間額外構(gòu)建的層級(jí)。輸入(X)的信息不會(huì)直接給到輸出(Y),而是會(huì)一層一層地在隱藏層之間傳遞,最后得到輸出(Y),見下圖示意。這就好比模擬了人腦神經(jīng)元的工作方法。Hidden layer存在與否并不會(huì)直接影響到模型是線性還是非線性,重點(diǎn)還是在于activation function。如果沒有activation function或activation function都是線性函數(shù),那么神經(jīng)網(wǎng)絡(luò)就是一個(gè)線性模型;反之,如果activation function是非線性函數(shù),那么神經(jīng)網(wǎng)絡(luò)就是一個(gè)非線性模型,不論模型中有沒有hidden layer。
