-
2023-04-22 00:35老師,請講解一下官網(wǎng)“Jain Vignette”這一題,謝謝。
所屬:CFA Level II > Quantitative Methods 視頻位置 相關試題
來源: 視頻位置 相關試題
2個回答
愛吃草莓的葡萄助教
2023-04-23 13:01
該回答已被題主采納
同學你好。模型預測輸出被證明是非線性的,它非常適合訓練集,并且不太可能很好地推廣到新數(shù)據(jù),這被稱為過擬合,刻意的將兩類數(shù)據(jù)分為兩隊。
B不正確。一個投入不足的模型將顯示出更線性的輸出,預期結果和實際結果之間存在多個錯誤分類。
C不正確。具有“良好擬合”的模型將顯示出更線性的輸出,在沒有定義模式的預期結果和實際結果之間存在一些錯誤分類。
同學如果回答解決了您的疑惑,請給回答給予采納。祝早日持證!
-
追問
Alvis老師,謝謝您的解答。只是,能否用您自己的話,深入淺出的講解這一題,而非翻譯官網(wǎng)講解呢,我就是沒明白官網(wǎng)的解釋,才在這里提問的喲。因此,我有一下兩個追問,有勞逐一解答哈:
(1)請老師深入淺出地重新講解一下這題。(包括對應知識點和各選項)
(2)為什么非線性就更適合training data呢?對應本章的只是出處在哪里呢?
有勞了,謝謝。 -
追答
同學你好。面對該散點圖劃分,你想到使用什么方法劃分。首先肯定是直線對吧,利用直線,將兩種點劃分到兩邊,中間可能存在綠點中有少許紅點,紅中有少許綠點,這是正常的,只要我們能將大多數(shù)劃在一邊就很好,達到好的擬合目標。這一點可以借鑒回歸的思想,即散點在回歸線周圍緊密圍繞。
如果我不使用直線,例如像圖中使用折現(xiàn),我可以將綠的完全劃在一邊,將紅的完全劃在一邊,這樣達到了劃分的目的,但是這種劃分能夠運用到樣本外的預測嗎,顯然不能,因為這種劃分太刻意了??桃鈱山M數(shù)據(jù)完全分開,這種規(guī)則不一定適用于除此之外的數(shù)據(jù),表明過擬合了。
如果我們使用隨便什么線,例如直線,換個方向,從西北到東南走向劃分數(shù)據(jù),這就可能欠擬合了,因為綠點兩邊都有,而且數(shù)量差不多,相當于這種劃分沒有什么用,在樣本外預測也不會有什么好的結果。 -
追問
謝謝Alvis老師詳細、耐心的講解。對于這部分(直線線性切割分類)我大致理解,有待進一步消化。我現(xiàn)在理解是一條直線切割分類是最好的(如SVM)。如果刻意折線分類,容易造成過擬合;反之,如果任意線隨意劃分,則容易造成欠擬合。
根據(jù)目前的理解也連同理解了為什么監(jiān)督式學習中的支持向量(SVM)屬于linearity。只是,KNN的劃分非直線切割(如下截圖),我還是有點不懂為什么KNN屬于linearity,希望能弄明白消化這一部分哈,謝謝。 -
追答
同學你好。KNN被用來將一個新的觀察值根據(jù)相似性劃分到已分好的類別中,原有訓練集數(shù)據(jù)是已分好類的,如下圖。
-
追問
Alvis老師,您好。理解KNN屬于supervised ML,因為是貼標簽分類的。只是,我不明白為什么屬于linearity?
Vincent助教
2023-04-27 10:31
該回答已被題主采納
你好
線性分類器就是看其能形成一條近似線性的決策邊界,比如SVM就是線性分類器,因為算法的目的就是找到一條清晰的線性邊界。
KNN也是,把所有樣本數(shù)據(jù)點分類后,能得到一條近似線性的分類邊界。從實證看,隨著K的增大,其線性分類邊界會越加光滑。
-
追問
謝謝Vincent老師。請問可以就”KNN是把所有樣本數(shù)據(jù)點分類后,能得到一條近似線性的分類邊界“畫一個圖例嗎?我還是沒理解。我理解的是這些貼標簽的分類點是被圈起來的,進圈的點數(shù)(data)是看k等于多少,至于linearity,我沒理解,有勞再講解一下,謝謝。
-
追答
你好
你看這個圖,隨著K增大,會更加趨向線性
