夏同學(xué)
2019-10-23 00:25老師,在 big data基礎(chǔ)班講義里有講logisitic regression處理的是small and linear datasets,tree處理的是large and nonlinear datasets,這個(gè)和這里講的有什么區(qū)別呢,為什么結(jié)論是反的呢?
所屬:FRM Part II 視頻位置 相關(guān)試題
來源: 視頻位置 相關(guān)試題
1個(gè)回答
Robin Ma助教
2019-10-23 17:13
該回答已被題主采納
同學(xué)你好,這個(gè)題目問你的是什么是錯(cuò)誤的,對于缺失的數(shù)據(jù),我們并沒有規(guī)定一定要使用tree去做處理,如果確實(shí)的數(shù)據(jù)和現(xiàn)有的數(shù)據(jù)之間呈現(xiàn)的是一個(gè)線性的關(guān)系的話,regression也是一個(gè)很好的辦法,B說了太絕對了。 在基礎(chǔ)班中,我們從泰坦尼克的案列里面學(xué)到的是 對于小樣本數(shù)據(jù),反而是邏輯回歸做了更好,對于大樣本的已有數(shù)據(jù)的分析,是tress做了更好, 這個(gè)并不是一定成立的結(jié)果,因?yàn)樵黾訕颖疽部梢允沟没貧w做了更好,同樣地,如果數(shù)據(jù)本身就是線性的,tress反而會(huì)分析了不好,因此在這個(gè)題目中,B的說法太過于絕對了,如果是有大量的數(shù)據(jù)而且關(guān)系不是明顯線性的話,tre
可能更加好,但是對于缺失數(shù)據(jù)的處理并沒有必要使用tree對所有的數(shù)據(jù)做決策分析,因?yàn)闀?huì)被舉出很多反例,而泰坦尼克的案列是基于板上釘釘?shù)臄?shù)據(jù),不容易被舉出反例或者反例很少。
