為什么一個(gè)token出現(xiàn)在了all class就MI=0?
為什么同樣是分類和切割,SVM KNN只能用于Y離散,但是PCA, K clustering, H clustering可以用于Y連續(xù)?
為什么是線性的分類?
請(qǐng)問weight是hyperparams嗎
請(qǐng)問20個(gè)隱藏層的話,是指中間有很多的activation function嗎?
感覺classification tree比較好理解,但是regression tree不知道怎么做的
為什么SVM和KNN屬于線性呢? 感覺也很離散..?
單位根不是Yt和Yt-1之間的嗎,為什么Xt也要檢查?
為什么這里老師說直接P-value就能判斷出來哪幾個(gè)是有效的,哪幾個(gè)是無效的?基礎(chǔ)不夠扎實(shí),麻煩老師幫忙詳細(xì)解答一下
正則化是什么?
我真的太暈了 樣本內(nèi)標(biāo)準(zhǔn)差不是SSE嗎
樣本-樣本估計(jì)的值的平方和不是SSE嗎,怎么是SEE?
SEE不是standard error of coefficient嗎,怎么又是樣本的標(biāo)準(zhǔn)差了。。
感覺AR下的CH和Autocorrelation好像啊,都是error之間有corr
為什么方法要和多元回歸不同
程寶問答