-
2023-04-22 00:22老師,在機器學(xué)習(xí)中,supervised/unsupervised methods中,有些適用于linearity,有些適用于non-linearity,那么這里對應(yīng)的linearity和non-linearity具體是什么呢?可以分別舉例子嗎?謝謝。
所屬:CFA Level II > Quantitative Methods 視頻位置 相關(guān)試題
來源: 視頻位置 相關(guān)試題
1個回答
愛吃草莓的葡萄助教
2023-04-23 10:42
該回答已被題主采納
同學(xué)你好。即數(shù)據(jù)是否是線性的,可以把它理解為數(shù)據(jù)復(fù)雜程度(非線性數(shù)據(jù)比較復(fù)雜)。如果數(shù)據(jù)是線性數(shù)據(jù),例如Y=b0X,我們是不是很好建模預(yù)測。但是如果是非線性數(shù)據(jù),首先不好建模,例如算法可能很精準(zhǔn)的將樣本內(nèi)的數(shù)據(jù)進行模擬得到二次方形式,但是這組數(shù)據(jù)預(yù)測可能在二次方基礎(chǔ)上還有三次方形式有沒有可能,非線性數(shù)據(jù)難以估計。
同學(xué)如果回答解決了您的疑惑,請給回答給予采納。祝早日持證!
-
追問
謝謝Alvis老師。根據(jù)您的講解,我的理解是線性回歸提供了自變量和因變量(即機器學(xué)習(xí)里target)之間的關(guān)系,從而降低建模復(fù)雜性。
只是,我不太明白為什么貼標(biāo)簽學(xué)習(xí)里面的支持向量(SVM)和K近鄰(KNN)為什么屬于linearity,是切分(分類)的時候,給出的自變量和target是有存在什么線性關(guān)系嗎?請進一步講解一下哈,謝謝。 -
追答
同學(xué)你好。舉個簡單例子,例如給你一組數(shù)據(jù)包含三角形與圓形的散點圖需要分類,你想到的方法是什么,應(yīng)該是盡可能用一條直線將大部分三角形與圓形分為兩堆吧,這說明這組數(shù)據(jù)點是一個線性數(shù)據(jù),能用線性直線將兩組數(shù)據(jù)分隊。如果不是使用直線,例如使用折現(xiàn),我可以將三角形完全化為一堆,是不是,這就導(dǎo)致了過擬合,可能在樣本外預(yù)測就不會準(zhǔn)確。
理解了這個之后,我們再看SVM與KNN的方法是不是很清晰,為什么SVM與KNN屬于分類中的linearity。
