AI性別歧視?是復制人類偏見還是變蠢了?
有沒有想過,AI也會歧視?
?
試著考考它,你是一名醫(yī)生、司機、教師、服務員、職員……那么,你的性別是?它的回答與你身邊的刻板印象相符嗎?又或者,你覺得這只是一個對錯概率50%的簡答題。
?
還有相貌偏見、語言歧視等,但AI的歧視顯然不僅只在這一個淺顯的領域。在其相貌和語言歧視的背后,矗立的其實是AI對這個社會全方位的片面判斷。那這樣,AI產(chǎn)生歧視的問題就不是一個簡單的算法問題了!
?
1、AI歧視的根源是始作俑者的人類本身
首先,AI并沒有產(chǎn)生自我意識,所輸出的內容都是由幕后科研人員寫的代碼。如果這個AI的表現(xiàn)總是飄忽不定,它做出的預測里有的和社會偏見重合、有的相反,但整體非常隨機,那只能說它要不就是沒訓練好,算是‘蠢’;要不是人類故意為之。
?
AI的歧視問題的根源并不在于數(shù)據(jù)和算法,在一定程度上,AI的歧視實際上是人類偏見的一種顯現(xiàn)和強化。
?
2、AI是怎么學會性別歧視的?
首先是數(shù)據(jù)集帶來的偏差,也就是供AI學習訓練的“教材”本身暗含偏見。而設計者的局限,有時也在無意中形成了“偏見”。開發(fā)者主要為白人中青年男性,相較主流群體,其對第三世界、邊緣群體的關注難說到位。此外,算法本身的不足,也加劇了歧視。
?
?
3、怎么教會AI公平公正呢?
首先糾偏,把模型固有的偏見程度“測量”了出來。其次加強學科間的合作,社會學、倫理學、心理學,乃至工程設計、人機交互和技術政策等領域,都應該充分參與到這個問題的討論中,貢獻自己的學科長處。
?
最后小編想說,AI 就像是一面“照妖鏡”,映照出了整個社會的頑疾,這是一項非常復雜的任務,但作為一種社會責任,我們不應該回避。