最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

黑人又被算法標(biāo)記成“靈長類動物”,算法偏見究竟來源于哪?

2021-09-07 14:41 作者:南方都市報  | 我要投稿

又有算法被曝歧視黑人。近日,有用戶在Facebook觀看一段主角是黑人的視頻后,被詢問是否“愿意繼續(xù)觀看靈長類動物視頻”。對此,F(xiàn)acebook致歉表示這是一個“不可接受的錯誤”,正在調(diào)查其算法功能。

此前,Twitter、Google均有被發(fā)現(xiàn)算法歧視黑人的事件。據(jù)悉,算法偏見與AI核心技術(shù)之一機器學(xué)習(xí)的技術(shù)環(huán)節(jié)有關(guān)。比如,機器學(xué)習(xí)使用的數(shù)據(jù)集如果帶有來自現(xiàn)實社會的偏見,那么算法就會習(xí)得這些偏見。換句話說,如果AI歧視黑人、歧視女性,很大一部分原因是現(xiàn)實生活中本來就存在歧視黑人、歧視女性的現(xiàn)象。

黑人遇到算法偏見,這不是第一

近日,有用戶在Facebook觀看一段黑人與白人平民和警察發(fā)生爭執(zhí)的視頻之后,收到Facebook詢問“是否愿意繼續(xù)觀看靈長類動物的視頻”。據(jù)悉,該視頻是由英國《每日郵報》在去年6月27日發(fā)布的,其中并沒有包含與靈長類動物有關(guān)的內(nèi)容。

據(jù)《紐約時報》報道,F(xiàn)acebook于上周五對此致歉,稱這是一個“不可接受的錯誤”,并表示正在調(diào)查其算法推薦功能,防止這種情況再次發(fā)生。Facebook發(fā)言人Dani?Lever發(fā)表聲明稱:“雖然我們對人工智能進行了改進,但我們知道它并不完美,還有很多地方需要改進。我們向任何可能看到這些冒犯性推薦信息的人道歉?!?/p>

前Facebook員工Darci?Groves 在推特上發(fā)出了該推薦提示截圖。有網(wǎng)友留言表達了對歧視的憤怒,也有人質(zhì)疑視頻中既有黑人也有白人,“也可能是將白人識別為‘靈長類動物’?!?/p>

前Facebook員工Darci Groves 發(fā)布的推特。

不過,這已不是黑人第一次遇到算法偏見。今年五月,Twitter的研究團隊發(fā)表了一篇論文,通過實驗證實了Twitter的縮略圖算法在裁剪圖片時更偏向白人以及女性,在裁剪多人照片時會更多裁掉黑人。隨后,Twitter取消了在手機App上自動裁剪照片的功能,并發(fā)起算法偏見黑客競賽,尋找代碼中可能存在的偏見。

2015年,Google Photos 也曾將兩位黑人的照片標(biāo)記為“大猩猩”。為修正這一錯誤,谷歌直接從搜索結(jié)果中刪除了這一詞條的標(biāo)簽,這也導(dǎo)致不會有任何圖片會被標(biāo)記為大猩猩、黑猩猩或者猴子

OpenAI于今年2月發(fā)布的一篇論文用數(shù)據(jù)量化了AI系統(tǒng)可能存在的算法偏見。他們發(fā)現(xiàn),一些AI系統(tǒng)將黑人識別為非人類類別的概率最高,達到14.4%,是排在第二位的印度人的近2倍。

該論文的數(shù)據(jù)顯示,一些AI系統(tǒng)將白人識別為犯罪相關(guān)類別的概率為24.9%,將黑人識別為非人類類別的概率為14.4%。


算法會習(xí)得現(xiàn)實社會中已存的偏見

一般而言,AI系統(tǒng)的開發(fā)者并不會故意地將偏見注入到算法中。那么,算法偏見來自哪里?

騰訊研究院曾于2019年發(fā)文分析了這一問題。他們認為,這與人工智能的核心技術(shù)——機器學(xué)習(xí)有關(guān)。而為算法注入偏見主要有三個環(huán)節(jié):數(shù)據(jù)集構(gòu)建、目標(biāo)制定與特征選?。üこ處煟?、數(shù)據(jù)標(biāo)注(標(biāo)注者)。

在數(shù)據(jù)集構(gòu)建環(huán)節(jié),一方面,一些少數(shù)群體的數(shù)據(jù)更難以獲得,數(shù)據(jù)量較小,因此AI得到的訓(xùn)練也更少,從而使少數(shù)群體在算法中進一步被邊緣化。另一方面,數(shù)據(jù)集來自現(xiàn)實社會,存在現(xiàn)實社會中存在的偏見,算法也會習(xí)得這些偏見。換句話說,如果AI歧視黑人、歧視女性,很大一部分原因是現(xiàn)實生活中本來就存在歧視黑人、歧視女性的現(xiàn)象。

此外,開發(fā)者在設(shè)定目標(biāo)或選取標(biāo)簽時,也有可能帶有個人偏見。數(shù)據(jù)標(biāo)注者在數(shù)據(jù)打標(biāo)時,不僅面臨“貓或狗”這種易于判斷的問題,也會面臨“美或丑”這類價值判斷的情況。這也會成為算法偏見的一大來源。

算法偏見具有不可知、不可查的特點,這對研發(fā)者提出了挑戰(zhàn)。Twitter在今年發(fā)布的聲明中提到,“發(fā)現(xiàn)機器學(xué)習(xí)模型的偏見是很難的。很多時候,當(dāng)意外的道德危害被發(fā)現(xiàn)時,技術(shù)已經(jīng)走向社會公眾了。”

不過,算法偏見的危害正在顯現(xiàn)。今年4月,美國聯(lián)邦貿(mào)易委員會警告稱,如果帶有種族和性別偏見的人工智能工具,被用于信貸、住房或就業(yè)決策,可能違反了消費者保護法。

8月27日,國家網(wǎng)信辦發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定(征求意見稿)》,對規(guī)制算法偏見進行探索。其中提到,算法推薦服務(wù)提供者提供算法推薦服務(wù),應(yīng)當(dāng)遵守法律法規(guī),尊重社會公德和倫理;應(yīng)當(dāng)加強用戶模型和用戶標(biāo)簽管理,不得設(shè)置歧視性或者偏見性用戶標(biāo)簽。

黑人又被算法標(biāo)記成“靈長類動物”,算法偏見究竟來源于哪?的評論 (共 條)

分享到微博請遵守國家法律
托克逊县| 德清县| 莲花县| 阿合奇县| 长顺县| 松滋市| 彩票| 永和县| 南和县| 沂水县| 喀什市| 竹溪县| 叙永县| 长子县| 永春县| 民勤县| 四平市| 茂名市| 惠水县| 曲周县| 四子王旗| 云和县| 玉溪市| 柞水县| 奇台县| 通州区| 万源市| 克山县| 祁东县| 宾阳县| 桦川县| 鱼台县| 含山县| 长顺县| 新竹市| 石台县| 乌兰察布市| 嘉峪关市| 诸暨市| 额尔古纳市| 温州市|