石同學(xué)
2021-03-04 19:321:59:55的時候,avoiding discremination 翻譯是避免歧視,這是一個缺點嗎?避免歧視不是好事嘛?再說怎么會避免歧視呢?機器學(xué)習(xí)難道不是擴大歧視嗎?因為機器沒有感情,通過算法,應(yīng)該更歧視窮人,黑人,怎么能讓機器避免歧視呢
所屬:FRM Part II > Current Issues in Financial Markets 視頻位置 相關(guān)試題
來源: 視頻位置 相關(guān)試題
1個回答
Michael助教
2021-03-11 20:54
該回答已被題主采納
學(xué)員你好,
這是一個需要關(guān)注的問題,
首先相比于人的有色眼鏡,機器可以不分析關(guān)于性別,種族等信息來避免種族歧視的問題,從這個角度來說,是一個優(yōu)勢。但是,機器的分析的結(jié)果會讓人讓這個方面去想,比如黑人的貸款額度比白人的低,倘若貸款額度是機器通過分析而得,雖然機器沒有使用種族這個數(shù)據(jù),但是可能因為其他的原因(比如黑人的收入比白人低,但是這個的確應(yīng)該是分析貸款額度的重要指標(biāo))得到了白人的貸款額度應(yīng)該更高。這樣,依然會讓了解結(jié)果的我們覺得機器有種族歧視。
所以說,避免種族歧視的本意是說機器學(xué)習(xí)的好處,但是這個所謂的好處應(yīng)該值得我們反思和關(guān)注。
希望對你有幫助。
