美國華盛頓大學(xué)的一項研究顯示,在美國被廣泛應(yīng)用的簡歷篩選AI,85%的情況下偏向于名字被認(rèn)為是白人的求職者。此外,女性名字的偏好率為11%,而男性名字高達(dá)52%。
Q:近年來,AI正深度嵌入社會許多領(lǐng)域的決策過程。一個由算法主導(dǎo)的社會,可能成為一個“公正”的社會嗎?如果不能,我們該如何捍衛(wèi)人的自主判斷和公共理性?
A
:完全由算法管理的社會不會是一個公正的社會。
我們今天作為預(yù)測工具使用的算法,利用的是數(shù)據(jù),而數(shù)據(jù)本身充滿過去經(jīng)驗(yàn)中的偏見。
比方說,如果AI來幫助銀行判斷是否給某人房屋抵押貸款,或在司法系統(tǒng)中是否準(zhǔn)予某人假釋,是由算法基于過往數(shù)據(jù)對那個人進(jìn)行預(yù)判后做出的決定。這是一種“定性”,從種族、民族和其他社會維度的“定性”去預(yù)測,那人得到貸款后會償還的可能性,或被假釋后,像他這樣的人會再次犯罪,還是過上守法的生活。
所以,算法只是簡單的預(yù)測工具,它寄生在過去的數(shù)據(jù)中。這就是為什么它會復(fù)制不公正的偏見。
人類則不同,我們的思想凝聚成哲學(xué),建立在人類不斷詮釋的經(jīng)驗(yàn)和思辨之上,而非簡單地聚集數(shù)據(jù),再從中導(dǎo)出某些預(yù)測。