152****8090
2023-07-07 16:54為什么earning drop可以下降0.48還不好,large cap只下降0.255就是好的呢?
所屬:FRM Part I > Quantitative Analysis 視頻位置 相關(guān)試題
來源: 視頻位置 相關(guān)試題
1個回答
Tom助教
2023-07-09 11:26
該回答已被題主采納
同學(xué)您好~
熵和基尼系數(shù)都是量化數(shù)據(jù)混亂程度的指標(biāo)。就基尼系數(shù)而言,在決策樹中,每個屬性(數(shù)據(jù)表中的列)會有一個對應(yīng)的基尼系數(shù)的值,數(shù)值越小,代表用該屬性分類的不確定性越低,換句話說就是分出來的類越純粹,分類效果越好。
決策樹本質(zhì)上是按照數(shù)據(jù)屬性一層一層搭建的分類模型。你有了一個新數(shù)據(jù)后,把新數(shù)據(jù)的屬性放到?jīng)Q策樹中一層一層做判斷,就能得到數(shù)據(jù)的分類。
那么在建模的時候,各個屬性應(yīng)該誰在上誰在下呢,或者說按什么樣的屬性順序進(jìn)行劃分,才能找到最純凈的分類呢?在此我們引入熵和基尼系數(shù)的概念,他倆表示樣本集的不純度,或者說是不確定性。對于每個節(jié)點,我們可以計算它所代表的數(shù)據(jù)的,每個屬性的基尼系數(shù),選基尼系數(shù)最小的那個屬性作為其下層節(jié)點。基尼系數(shù)的最大值是0.5(可以求導(dǎo)得到),最小值是0,越接近0代表用該節(jié)點分類的效果越好,應(yīng)該首先采用。
在這里不好描述,還有什么不了解的就再來找我~
如果對答案滿意,請給我點個贊~ 祝您學(xué)習(xí)愉快~
