最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

人工智能學(xué)習(xí)打開了潘多拉魔盒,必須是在可控的范圍內(nèi)

2020-12-26 10:21 作者:勒馬嶺  | 我要投稿

隨著愈來愈多產(chǎn)品和流程會(huì)使用以機(jī)器學(xué)習(xí)為礎(chǔ)的人工智能,相關(guān)的風(fēng)險(xiǎn)也隨之而來,產(chǎn)生許多決策正確性的問題或道德?lián)p害。企業(yè)主管和董事會(huì)該如何因應(yīng)與規(guī)避,才能善用機(jī)器學(xué)習(xí)創(chuàng)造的機(jī)會(huì),同時(shí)確保適當(dāng)管理有關(guān)的風(fēng)險(xiǎn)?

機(jī)器學(xué)習(xí)這種電腦軟件,會(huì)吸收新信息,并據(jù)以改變做決定的方式;而如果機(jī)器學(xué)習(xí)導(dǎo)致投資虧損、產(chǎn)生有認(rèn)知偏誤的雇用或貸款作業(yè),或者引發(fā)車禍,那該怎么辦?企業(yè)應(yīng)該讓它們的智慧型產(chǎn)品和服務(wù)自動(dòng)演變發(fā)展,還是應(yīng)該「鎖定」它們的算法,并定期更新?如果選擇后者,應(yīng)該在何時(shí)更新、更新的頻率該是如何?企業(yè)又該如何評(píng)價(jià)和減少這些選擇和其他選擇帶來的風(fēng)險(xiǎn)?



在整個(gè)企業(yè)界,隨著以機(jī)器學(xué)習(xí)為基礎(chǔ)的人工智能(AI),滲透進(jìn)入愈來愈多產(chǎn)品和流程,高階主管和董事會(huì)必須準(zhǔn)備答復(fù)這些問題。本文根據(jù)作者在健康照護(hù)法律、道德、法規(guī),以及機(jī)器學(xué)習(xí)方面的工作心得,提出一些重要概念,以便了解和管理這種先進(jìn)科技的潛在缺點(diǎn)。


問題

仰賴機(jī)器學(xué)習(xí)的產(chǎn)品大量增加,對(duì)開發(fā)和使用它們的公司,或是提供數(shù)據(jù)來訓(xùn)練它們的公司,造成各種新風(fēng)險(xiǎn)。這是因?yàn)檫@類系統(tǒng)不見得一定會(huì)做出合乎道德或正確的選擇。

原因

首先,這些系統(tǒng)常是根據(jù)機(jī)率來做決定。第二,它們所處的環(huán)境,可能以預(yù)料不到的方式演變。第三,這些系統(tǒng)的復(fù)雜性,讓人很難決定它們是否出錯(cuò)或?yàn)楹纬鲥e(cuò)。

解決辦法

高階主管必須決定是要任由系統(tǒng)持續(xù)演變,或每間隔一段時(shí)間就推出鎖定的版本。此外,他們?cè)谕瞥霎a(chǎn)品前后應(yīng)進(jìn)行適當(dāng)?shù)臏y試,產(chǎn)品上市后也應(yīng)持續(xù)監(jiān)測它的表現(xiàn)。



為何機(jī)器學(xué)習(xí)有風(fēng)險(xiǎn)

機(jī)器學(xué)習(xí)與之前的數(shù)位科技有一大不同,就是前者能獨(dú)立做出愈來愈復(fù)雜的決定,像是要買賣哪些金融產(chǎn)品、車輛要如何因應(yīng)路上的各種障礙、病人是否得了某種疾病等,而且,機(jī)器學(xué)習(xí)能持續(xù)因應(yīng)新的數(shù)據(jù)資料來作調(diào)整。但是,這些算法不見得一直都能順利運(yùn)作,未必一定會(huì)做出合乎道德或正確的選擇。這有三個(gè)根本原因。

可能性不等于正確性

第一,這些算法通常是仰賴各種情況的「發(fā)生機(jī)率」來做決定,像是某個(gè)人對(duì)貸款賴賬,或是罹患某種疾病的機(jī)率。那些算法必須做出很大量的預(yù)測,因此其中有些預(yù)測可能不正確,只因?yàn)槌鲥e(cuò)的可能性永遠(yuǎn)存在。這種出錯(cuò)的可能性取決于很多因素,包括用以訓(xùn)練算法的數(shù)據(jù)數(shù)量和質(zhì)量、選用哪種機(jī)器學(xué)習(xí)法(例如,使用復(fù)雜數(shù)學(xué)模型的深度學(xué)習(xí)法,還是仰賴決策法則的分類樹),以及這個(gè)系統(tǒng)是否只使用「可解釋的算法」(也就是人們能夠說明自己如何做成某個(gè)決定),這可能會(huì)使系統(tǒng)無法獲得最高的正確性。

外在變因的影響

第二,機(jī)器學(xué)習(xí)運(yùn)作的環(huán)境本身可能會(huì)演變,或是已經(jīng)不同于當(dāng)初開發(fā)算法時(shí)面對(duì)的環(huán)境。許多情況可能造成這種問題,其中最常見的兩種情況,就是概念漂移(concept drift)和共變數(shù)偏移(covariate shift)。

在概念漂移方面,系統(tǒng)使用的輸入數(shù)據(jù)及產(chǎn)出的數(shù)據(jù)之間的關(guān)系,長期下來并不穩(wěn)定,或者可能會(huì)出現(xiàn)誤判。以股票交易的機(jī)器學(xué)習(xí)算法為例。如果這套算法之前只使用一段市場波動(dòng)小、經(jīng)濟(jì)高度成長時(shí)期的數(shù)據(jù)來訓(xùn)練,那么在碰到經(jīng)濟(jì)陷入衰退或激烈動(dòng)蕩時(shí)(像是新冠疫情大流行之類的危機(jī)),這套算法可能會(huì)表現(xiàn)不佳。隨著市場出現(xiàn)變化,輸入和輸出數(shù)據(jù)之間的關(guān)系也可能改變,例如,企業(yè)的舉債程



度和它的股票報(bào)酬之間的關(guān)系。類似的偏差情況,可能會(huì)在景氣循環(huán)的不同時(shí)點(diǎn)發(fā)生在信用評(píng)等模型上。


在醫(yī)學(xué)方面,概念漂移的一個(gè)例子,就是以機(jī)器學(xué)習(xí)為基礎(chǔ)的診斷系統(tǒng),使用皮膚圖像作為輸入數(shù)據(jù)來偵測皮膚癌,卻沒有做出正確診斷,因?yàn)檫@套系統(tǒng)未能適當(dāng)掌握病人的膚色(可能因種族或日曬等因素而有不同膚色),與診斷決定之間的關(guān)系。這類信息,甚至常常沒有記錄在用以訓(xùn)練機(jī)器學(xué)習(xí)模型的電子病歷里。
發(fā)生共變數(shù)偏移,是當(dāng)使用算法時(shí)輸入的數(shù)據(jù),與訓(xùn)練演算時(shí)所用的數(shù)據(jù)不同。即使算法學(xué)習(xí)到的形態(tài)很穩(wěn)定,而且沒有出現(xiàn)概念漂移,仍可能發(fā)生共變數(shù)偏移。例如,醫(yī)療裝置公司可能使用來自大型城市醫(yī)院的數(shù)據(jù),來開發(fā)以機(jī)器學(xué)習(xí)為基礎(chǔ)的系統(tǒng)。只是一旦這種裝置上市,鄉(xiāng)村地區(qū)醫(yī)療人員輸入這個(gè)系統(tǒng)的醫(yī)療數(shù)據(jù),可能與深算法開發(fā)階段輸入的數(shù)據(jù)不太一樣。城市醫(yī)院可能有更多來自某些社會(huì)人口群體的病人,而這些人口群體可能罹患的疾病,在鄉(xiāng)村醫(yī)院里并不常見。可能只有等到些醫(yī)療裝置上市,犯下比測試階段更多的錯(cuò)誤之后,才會(huì)發(fā)現(xiàn)這種差異。由于市場的多元性質(zhì),以及市場改變的速率,因此愈來愈難預(yù)測系統(tǒng)實(shí)際操作的環(huán)境將會(huì)發(fā)生什么情況,而且數(shù)據(jù)再多都無法掌握現(xiàn)實(shí)世界存在的種種細(xì)微差異。

系統(tǒng)的復(fù)雜性

機(jī)器學(xué)習(xí)可能做出不正確決定的第三個(gè)原因,與內(nèi)置它的整體系統(tǒng)的復(fù)雜性有關(guān)。就以根據(jù)醫(yī)生輸入的圖像來診斷疾病的裝置為例,像是IDx-DR系統(tǒng)。這套系統(tǒng)可診斷糖尿病視網(wǎng)膜病變和視網(wǎng)膜黃斑部水腫等眼疾,而且是第一種獲得美國聯(lián)邦食品藥物管理局(FDA)核準(zhǔn)使用的具自主性、以機(jī)器學(xué)習(xí)為基礎(chǔ)的醫(yī)療裝置。任何診斷的質(zhì)量,都取決于供檢視的圖像有多清晰、這個(gè)裝置使用的算法、用以訓(xùn)練這種算法的數(shù)據(jù)、輸入圖像的醫(yī)生是否受過適當(dāng)訓(xùn)練等。要考察的因素這么多,因此難以評(píng)價(jià)這種裝置是否可能出錯(cuò)、為什么會(huì)出錯(cuò),更遑論要確定它會(huì)如何運(yùn)作。




但做出不正確決定,并非機(jī)器學(xué)習(xí)唯一的風(fēng)險(xiǎn)。以下來看另外兩種類別:經(jīng)手人風(fēng)險(xiǎn)和道德風(fēng)險(xiǎn)。

經(jīng)手人風(fēng)險(xiǎn)

機(jī)器學(xué)習(xí)不夠完善,帶來另一種重要挑戰(zhàn):不受特定企業(yè)或使用者控制的事物所導(dǎo)致的風(fēng)險(xiǎn)。


發(fā)生意外事故時(shí),通常能根據(jù)可靠的證據(jù),重建導(dǎo)致事故發(fā)生的情況。因此,發(fā)生事故時(shí),高階主管至少能對(duì)公司可能必須承擔(dān)的責(zé)任,獲得一些有用的估計(jì)。但機(jī)器學(xué)習(xí)通常內(nèi)置于復(fù)雜的系統(tǒng)里,因此往往不清楚導(dǎo)致出錯(cuò)的原因,也就是不清楚哪一方或哪個(gè)「經(jīng)手人」(例如,算法開發(fā)者、系統(tǒng)建構(gòu)者,或某個(gè)合作伙伴),必須為某個(gè)錯(cuò)誤負(fù)責(zé),也不清楚那套算法本身、使用者輸入的某些數(shù)據(jù),或是用以訓(xùn)練算法的數(shù)據(jù)(這可能來自好幾個(gè)第三方供應(yīng)商)是否有問題。環(huán)境改變及機(jī)器學(xué)習(xí)的機(jī)率性質(zhì),造成更難把責(zé)任歸給個(gè)某個(gè)經(jīng)手人。其實(shí),即使沒有任何人為疏忽,都可能出現(xiàn)意外事故或不合法的決定;畢竟,出現(xiàn)不正確決定的可能性永遠(yuǎn)存在。

高階主管必須知道,根據(jù)現(xiàn)行法律,自家公司何時(shí)可能面對(duì)法律責(zé)任,而法律本身也可能演變。就以醫(yī)療情況來說。法庭向來認(rèn)為醫(yī)生是做最后決定的人,因此,不太愿意把醫(yī)療產(chǎn)品出事的責(zé)任,歸給制作醫(yī)療軟件的人。但隨著更多黑盒子式或自主性的系統(tǒng)做出診斷和建議,而沒有診所里的醫(yī)生參與(或是參與極少),這種情況可能會(huì)改變。例如,若是機(jī)器學(xué)習(xí)系統(tǒng)建議病人接受非標(biāo)準(zhǔn)治療(像是比通常標(biāo)準(zhǔn)高許多的藥物劑量),而管制法規(guī)演變成只有在醫(yī)生不遵守系統(tǒng)建議時(shí),才最有可能面對(duì)損害責(zé)任,情況會(huì)如何?法規(guī)的這種改變,可能把責(zé)任風(fēng)險(xiǎn)從醫(yī)生身上,轉(zhuǎn)移到其他各方身上,包括機(jī)器學(xué)習(xí)為基礎(chǔ)的醫(yī)療裝置的開發(fā)者、參與開發(fā)算法的數(shù)據(jù)供應(yīng)商,或是參與裝設(shè)和建置算法的公司。





道德風(fēng)險(xiǎn)

自主做出決定的產(chǎn)品和服務(wù),也必須解決各種道德難題,而這種要求帶來額外的風(fēng)險(xiǎn),以及法規(guī)和產(chǎn)品開發(fā)方面的更多挑戰(zhàn)。學(xué)者現(xiàn)在已開始把這些挑戰(zhàn)建構(gòu)為「負(fù)責(zé)任的算法設(shè)計(jì)」問題。其中包括如何自動(dòng)化進(jìn)行道德推論的難題。例如,特斯拉(Tesla)為自家汽車開發(fā)的軟件,應(yīng)設(shè)定為純粹功利主義的成本效益考察,還是應(yīng)遵循康德學(xué)派路線,也就是不論有多大的利益,某些價(jià)值觀絕對(duì)不可退讓?即使答案是功利主義,要量化還是極為困難:例如,如何為車輛設(shè)定程序,讓它面對(duì)三個(gè)老年人與一個(gè)中年人的生命時(shí),能判斷孰輕孰重?企業(yè)如何平衡隱私、公平、正確性和安全性之間的權(quán)衡取舍?所有這些種類的風(fēng)險(xiǎn),能否完全避免?
道德風(fēng)險(xiǎn)也包括有關(guān)人口群體的偏誤。例如,臉部辨識(shí)算法,對(duì)辨認(rèn)有色人種就有困難;皮膚病變分類系統(tǒng)應(yīng)用于不同種族的人,似乎正確性不一;再度犯罪預(yù)測工具,錯(cuò)誤地給予黑人和西班牙語裔的人再犯高比率,信用評(píng)等系統(tǒng)則不公平地給予他們低分。機(jī)器學(xué)習(xí)系統(tǒng)已廣泛用于許多商業(yè)用途,可能被認(rèn)為在某些面向上對(duì)特定群體不公平。



若要定義何謂公平,并把這定義納入算法,做法有很多,而且彼此可能互不兼容,因而使得問題變得更加復(fù)雜。貸款算法可接受校準(zhǔn)(也就是說,在控制風(fēng)險(xiǎn)水準(zhǔn)之后,算法所做的決定不受群體身份影響),卻仍有太高比率拒絕貸款給信用良好的少數(shù)群體。因此,企業(yè)可能發(fā)現(xiàn)自己陷入進(jìn)退兩難的處境。如果它使用算法來決定貸款對(duì)象,可能很難避免根據(jù)「公平」的某個(gè)定義,有歧視某些群體之嫌的指控。不同的文化,也可能接受不同的定義和道德退讓;這對(duì)供應(yīng)全球市場的產(chǎn)品造成問題。2020年2月,歐盟委員會(huì)對(duì)人工智能發(fā)表的白皮書就指出這些挑戰(zhàn),并要求開發(fā)蘊(yùn)含「歐洲價(jià)值觀」的人工智能。但是,這種人工智能是否能輕易出口到擁有不同價(jià)值觀的地區(qū)?




最后,所有這些問題都可能因模型不穩(wěn)定而出現(xiàn),也就是彼此近似的輸入數(shù)據(jù),卻導(dǎo)致非常不同的決定。不穩(wěn)定的算法,可能以非常不同、且可能不公平的方式,對(duì)待非常類似的人。

當(dāng)然,所有這些考察,并不表示我們應(yīng)該完全避免使用機(jī)器學(xué)習(xí)。相反地,高階主管必須積極接受機(jī)器學(xué)習(xí)創(chuàng)造的機(jī)會(huì),同時(shí)確保以恰當(dāng)方式處理相關(guān)風(fēng)險(xiǎn)。

鎖定還是不鎖定?

領(lǐng)導(dǎo)人一旦決定采用機(jī)器學(xué)習(xí),就面對(duì)下一個(gè)關(guān)鍵問題:公司應(yīng)該讓機(jī)器學(xué)習(xí)持續(xù)演變發(fā)展,還是應(yīng)該每間隔一段時(shí)間就推出經(jīng)過測試和鎖定的版本?后者是否能緩和前述的那些風(fēng)險(xiǎn)?

這個(gè)問題與醫(yī)學(xué)界碰到的問題類似。美國FDA迄今只核準(zhǔn)有鎖定算法的「軟件即醫(yī)療裝置」(software as a medicaldevice,也就是不需要硬件即可執(zhí)行醫(yī)療功能的軟件)。原因是:如果醫(yī)療裝置的診斷程序或治療途徑,會(huì)以FDA不了解的方式持續(xù)改變,F(xiàn)DA就不愿意核準(zhǔn)這些裝置的使用。但FDA和其他管制機(jī)構(gòu)目前的了解,鎖定算法可能同樣有風(fēng)險(xiǎn),因?yàn)檫@未必能消除以下這些危險(xiǎn):

不正確的決定。機(jī)器學(xué)習(xí)算法通常是根據(jù)「估算的機(jī)率」來做決定,而鎖定算法并不能改變這個(gè)事實(shí)。此外,輸入更多資料,雖然通常能導(dǎo)致性能提高,卻未必一定會(huì)如此,而且改善的數(shù)量也可能不同;未鎖定算法的改善數(shù)量,可能因使用的系統(tǒng)或數(shù)據(jù)數(shù)量不同而提高或降低。我們很難了解算法在未鎖定的情況下,可能會(huì)如何改變決策的正確性(或不正確性),但嘗試了解這一點(diǎn)是很重要的。

環(huán)境挑戰(zhàn)。同樣也很重要的是,系統(tǒng)做決定的環(huán)境會(huì)不會(huì)演變、如何演變。例如,汽車自動(dòng)駕駛系統(tǒng)運(yùn)作的環(huán)境,會(huì)因?yàn)槠渌{駛?cè)说男袨槎掷m(xù)改變。只要景氣循環(huán)進(jìn)入新階段,定價(jià)、信用評(píng)等和交易系統(tǒng),就可能面對(duì)市場機(jī)制變動(dòng)。這些挑戰(zhàn)造成機(jī)器學(xué)習(xí)系統(tǒng)必須與環(huán)境共同演變,以便系統(tǒng)能做適當(dāng)?shù)臎Q定。

經(jīng)手人風(fēng)險(xiǎn)。鎖定算法,并不能消除內(nèi)置了算法的系統(tǒng)本身的復(fù)雜性質(zhì)。例如,使用第三方提供的劣質(zhì)數(shù)據(jù)來訓(xùn)練算法,或是使用者的技能不同,還是可能造成錯(cuò)誤。而要決定數(shù)據(jù)供應(yīng)商、算法開發(fā)者、部署者和使用者的責(zé)任,仍然很具挑戰(zhàn)性。

道德風(fēng)險(xiǎn)。鎖定的系統(tǒng),可能保留原創(chuàng)者都不知道的缺陷或偏誤。例如,在分析乳房X光圖像尋找乳癌跡象時(shí),鎖定的算法就無法從它面對(duì)的人口次群體中學(xué)習(xí)。不同種族的平均乳房密度可能不同,因此這套系統(tǒng)如果用來篩檢在訓(xùn)練數(shù)據(jù)當(dāng)中代表性不足的人口群體,就可能會(huì)導(dǎo)致診斷錯(cuò)誤。同樣地,如果用某個(gè)社經(jīng)地位隔離的人口次群體來訓(xùn)練信用評(píng)等算法,那么這套算法就可能會(huì)像非法的金融歧視拒貸政策(redliningpolicy)一樣,歧視某些貸款人。我們希望算法盡快改正這類錯(cuò)誤,改正方法是在「觀察」到更多來自先前代表性不足,甚至從未被辨識(shí)出來的人口次群體的數(shù)據(jù)時(shí),能夠自我更新。相反的,未被鎖定的機(jī)器學(xué)習(xí)系統(tǒng)裝置,如果大多是使用來自某個(gè)群體的數(shù)據(jù)來演變發(fā)展,長期下來就可能損害另一個(gè)或更多不同的群體。此外,可能很難看出這種裝置在面對(duì)一個(gè)群體時(shí),性能會(huì)在何時(shí)變得相對(duì)較差。
高階主管可用的工具



因此,高階主管要如何管理機(jī)器學(xué)習(xí)現(xiàn)有和新出現(xiàn)的風(fēng)險(xiǎn)?這方面的重要步驟,包括開發(fā)出適當(dāng)?shù)牧鞒獭⒓訌?qiáng)管理階層和董事會(huì)的熟練程度、提出恰當(dāng)?shù)膯栴},以及采用正確的心態(tài)。



多重測試與分析

把機(jī)器學(xué)習(xí)當(dāng)人看待。高階主管必須把機(jī)器學(xué)習(xí)視為活生生的實(shí)體,而不是沒有生命的科技。正如對(duì)員工進(jìn)行認(rèn)知測試,無法顯示他們被納入企業(yè)現(xiàn)有團(tuán)隊(duì)之后會(huì)有什么表現(xiàn),同樣的,實(shí)驗(yàn)室測試也無法預(yù)測機(jī)器學(xué)習(xí)系統(tǒng),在現(xiàn)實(shí)世界的性能。高階主管應(yīng)要求完整地分析員工、顧客或其他使用者會(huì)如何應(yīng)用這些系統(tǒng),以及他們對(duì)系統(tǒng)的決定有何反應(yīng)。即使法規(guī)管制機(jī)構(gòu)沒有規(guī)定要這樣做,企業(yè)可能也應(yīng)該讓新的機(jī)器學(xué)習(xí)產(chǎn)品,接受隨機(jī)對(duì)照測試,以便在正式推出前,確保這些產(chǎn)品的安全、效用和公平。但他們可能也應(yīng)該要分析,在各種類型使用者都存在的實(shí)際市場中,這些產(chǎn)品會(huì)做出什么決定,以了解產(chǎn)品對(duì)各種類型使用者所做的決定,在質(zhì)量方面是否有差異。此外,企業(yè)應(yīng)把算法所做決定的質(zhì)量,與在相同情況下不使用算法所做的決定做比較。在大規(guī)模部署產(chǎn)品,尤其是全面推出那些未經(jīng)過隨機(jī)對(duì)照測試的產(chǎn)品之前,企業(yè)應(yīng)考慮在有限的市場里測試它們,以便更了解產(chǎn)品在不同因素作用時(shí)的正確性如何,以及會(huì)有什么表現(xiàn);這些因素包括使用者的專業(yè)知識(shí)不同、數(shù)據(jù)的來源不同,或是環(huán)境有變化等等。若算法在現(xiàn)實(shí)世界的環(huán)境下表現(xiàn)差勁,就顯示必須改善或放棄這套算法。

參考標(biāo)準(zhǔn)認(rèn)證機(jī)制

采用法規(guī)管制機(jī)構(gòu)的想法,并先獲得認(rèn)證。企業(yè)在推出機(jī)器學(xué)習(xí)產(chǎn)品上市之前,應(yīng)先擬定獲得認(rèn)證的計(jì)劃。法規(guī)管制機(jī)構(gòu)的做法,對(duì)如何進(jìn)行這件事提供良好的方針。例如,2019年FDA發(fā)表一份討論報(bào)告,建議一套新的法規(guī)構(gòu)架,用以修改以機(jī)器學(xué)習(xí)為基礎(chǔ)的「軟件即醫(yī)療裝置」。這份文件說明一套方法,可讓這類軟件持續(xù)改善,同時(shí)維護(hù)病人的安全,其中包括完整評(píng)價(jià)開發(fā)那套軟件的公司或團(tuán)隊(duì),以確保它擁有追求組織卓越和高品質(zhì)的文化,這種文化能促使它定期測試自家的機(jī)器學(xué)習(xí)裝置。企業(yè)如果不采用這種認(rèn)證流程,可能會(huì)惹上法律責(zé)任問題,例如,對(duì)產(chǎn)品沒有做到足夠的實(shí)質(zhì)審查。

許多新創(chuàng)公司提供服務(wù),為客戶認(rèn)證產(chǎn)品和流程沒有存在偏誤、歧視、刻板印象、不公平和其他問題。一些專業(yè)組織,也為這類認(rèn)證設(shè)計(jì)了標(biāo)準(zhǔn),像是電機(jī)和電子工程師學(xué)會(huì)(Institute of Electrical and Electronics Engineers)、國際標(biāo)準(zhǔn)組織(International Organization forStandardization)等;Google之類的公司則提供人工智能道德服務(wù),檢視這類產(chǎn)品的多個(gè)面向,從用以訓(xùn)練系統(tǒng)的數(shù)據(jù)、這些系統(tǒng)的行為表現(xiàn),到它們對(duì)福祉的影響,都包括在內(nèi)。企業(yè)可能必須開發(fā)自己的類似構(gòu)架。


運(yùn)作后仍需實(shí)時(shí)檢測

持續(xù)監(jiān)測。隨著機(jī)器學(xué)習(xí)產(chǎn)品和服務(wù),以及它們運(yùn)作的環(huán)境演變發(fā)展,企業(yè)可能會(huì)發(fā)現(xiàn),自家的科技不像最初預(yù)期的那樣運(yùn)作。因此很重要的是,企業(yè)應(yīng)制定一些方法,以查核這些科技是否在適當(dāng)限制內(nèi)運(yùn)作。其他產(chǎn)業(yè)的情況可作為參考示例。FDA的「警戒計(jì)劃」(SentinelInitiative)利用電子病歷等不同的數(shù)據(jù)源,來監(jiān)測醫(yī)療產(chǎn)品的安全性,并能強(qiáng)迫不合格的產(chǎn)品撤回。企業(yè)的監(jiān)測計(jì)劃,可能在許多方面都很類似一些領(lǐng)域目前使用的預(yù)防性維護(hù)工具和流程,像是制造業(yè)、能源公司或網(wǎng)絡(luò)安全領(lǐng)域所用的。例如,企業(yè)也許可以仿照對(duì)信息系統(tǒng)防御能力進(jìn)行例行測試時(shí)所用的方法,對(duì)人工智能進(jìn)行所謂的對(duì)抗攻擊。



探究四大面向

問恰當(dāng)?shù)膯栴}。高階主管和法規(guī)管制機(jī)構(gòu)必須深入探究以下這些問題:



→正確性和競爭力。如果不鎖定算法,從使用機(jī)器學(xué)習(xí)系統(tǒng)獲得的新數(shù)據(jù)數(shù)量,可能使系統(tǒng)性能改善多少?這種改善對(duì)企業(yè)有何意義?消費(fèi)者對(duì)鎖定和未鎖定系統(tǒng)的利弊,了解到何種程度?


→偏誤。算法先前是用哪一種數(shù)據(jù)來訓(xùn)練?這些數(shù)據(jù)對(duì)算法最終要應(yīng)用到的人口群體有多大的代表性?如果任由未鎖定的算法長期學(xué)習(xí),我們能否預(yù)測這種系統(tǒng)產(chǎn)出的結(jié)果,會(huì)比鎖定的系統(tǒng)有較少的偏誤?算法犯的錯(cuò)誤,是否特別會(huì)對(duì)少數(shù)群體或其他群體造成影響?采取持續(xù)監(jiān)測的做法,能否建「護(hù)欄」以防止算法出現(xiàn)歧視?
→環(huán)境。產(chǎn)品的使用環(huán)境,長期下來會(huì)如何改變?是否存在不應(yīng)讓機(jī)器學(xué)習(xí)做決定的情況,如果有,是哪些情況?在環(huán)境本身改變的情況下,如何確保產(chǎn)品表現(xiàn)也適當(dāng)?shù)匮葑??在環(huán)境和產(chǎn)品的表現(xiàn)差距已變得太大時(shí),應(yīng)在何時(shí)下架產(chǎn)品?在環(huán)境的哪些界限之內(nèi),我們的產(chǎn)品可以順應(yīng)調(diào)整并順利運(yùn)作?我們的機(jī)器學(xué)習(xí)系統(tǒng),在整個(gè)生命周期當(dāng)中有多么有效運(yùn)作和安全?



→經(jīng)手人。我們機(jī)器學(xué)習(xí)算法的運(yùn)作,須仰賴哪些第三方的因素(包括數(shù)據(jù)源)?不同類型的使用者,例如,技能較差的人,會(huì)造成系統(tǒng)的表現(xiàn)有多大差異?其他組織有哪些產(chǎn)品或服務(wù),使用我們的數(shù)據(jù)或機(jī)器學(xué)習(xí)算法,有可能導(dǎo)致我們面對(duì)法律責(zé)任風(fēng)險(xiǎn)?是否應(yīng)讓其他組織使用我們開發(fā)的機(jī)器學(xué)習(xí)算法?


明確、簡潔的準(zhǔn)則

針對(duì)商業(yè)風(fēng)險(xiǎn)擬定處理原則。企業(yè)必須為管理這些新風(fēng)險(xiǎn)建立本身的準(zhǔn)則,包括道德準(zhǔn)則;Google和微軟等企業(yè)已經(jīng)這樣做。這類準(zhǔn)則往往必須相當(dāng)明確(例如,公司對(duì)「公平」采取什么定義),才能發(fā)揮效用,而且必須針對(duì)要處理的風(fēng)險(xiǎn)量身制定。如果你使用機(jī)器學(xué)習(xí)來做雇用決定,最好擁有簡單、公平和透明的模型。如果使用機(jī)器學(xué)習(xí)來預(yù)測商品期貨合約的價(jià)格,或許不必這么在乎這些數(shù)值,而更該注重機(jī)器學(xué)習(xí)系統(tǒng)做的任何決定,所允許的最大潛在財(cái)務(wù)損失。




幸好,制定和實(shí)施這些原則的歷程并不孤單。高階主管可以好好參考一些機(jī)構(gòu)為此努力多年的成果,像是經(jīng)濟(jì)合作暨發(fā)展組織(OECD)開發(fā)出的第一套跨政府人工智能原則(2019年獲得許多國家采用)。OECD的原則,是要促進(jìn)開發(fā)出創(chuàng)新、可靠、負(fù)責(zé)任而又透明的人工智能,這種人工智能能尊重人權(quán)、法治、多元和民主價(jià)值,并推動(dòng)包容性的成長、永續(xù)發(fā)展,以及人類福祉。它們也強(qiáng)調(diào)人工智能系統(tǒng)在整個(gè)生命周期當(dāng)中,應(yīng)維持有效運(yùn)作、安全可靠,以及持續(xù)進(jìn)行風(fēng)險(xiǎn)管理。

OECD最近啟動(dòng)的「人工智能政策觀察站」,提供更多有用的資源,像是全面收集世界各地的人工智能政策。


控制風(fēng)險(xiǎn)尤為重要

機(jī)器學(xué)習(xí)的潛力巨大。但隨著這種科技及其他形式的人工智能,納入我們的經(jīng)濟(jì)和社會(huì)組成之中,它構(gòu)成的風(fēng)險(xiǎn)也跟著增加。對(duì)企業(yè)界,減少這些風(fēng)險(xiǎn),可能與妥善管理對(duì)機(jī)器學(xué)習(xí)的采用同樣重要,甚至更加重要。如果企業(yè)不建立適當(dāng)?shù)膶?shí)務(wù)做法來應(yīng)付這些新的風(fēng)險(xiǎn),可能很難在市場上推進(jìn)發(fā)展。


人工智能學(xué)習(xí)打開了潘多拉魔盒,必須是在可控的范圍內(nèi)的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國家法律
武宁县| 中江县| 合江县| 定襄县| 临洮县| 绥化市| 维西| 页游| 得荣县| 潢川县| 增城市| 扶绥县| 延寿县| 静安区| 横峰县| 靖江市| 城步| 株洲县| 郧西县| 高唐县| 津南区| 同德县| 金昌市| 温州市| 五原县| 天柱县| 迁西县| 汝阳县| 丰城市| 广安市| 崇州市| 屯门区| 贵德县| 南投市| 会东县| 东安县| 水城县| 德安县| 平潭县| 讷河市| 武鸣县|