對(duì)于自己無(wú)法理解的AI,人們?yōu)楹胃湃危?/h1>
喬治敦大學(xué)的蒂莫西·德斯特法諾(Timothy DeStefano)與同事——哈佛大學(xué)的邁克爾·梅涅蒂(Michael Menietti)、盧卡·文德拉米內(nèi)利(Luca Vendraminelli)和麻省理工學(xué)院的凱瑟琳·凱洛格(Katherine Kellogg)——一起分析了美國(guó)某高端時(shí)尚零售商186家門店里425種產(chǎn)品的進(jìn)貨決策。決策中有一半是在員工收到一個(gè)易于理解的算法給出的推薦后做出的,另一半則是在收到一個(gè)無(wú)法解讀的算法推薦后做出的。研究者對(duì)比這些決策,發(fā)現(xiàn)員工更多地遵循無(wú)法解讀的算法給出的指導(dǎo)。結(jié)論就是:
人們或許更信任自己無(wú)法理解的AI。
德斯特法諾:
此前有研究表明,決策者通常不愿接受AI給出的指導(dǎo),這種抵觸可能有自覺(jué)也可能是下意識(shí)的,而且他們經(jīng)常會(huì)反駁AI的指導(dǎo)。對(duì)于在AI系統(tǒng)上花費(fèi)大量時(shí)間和金錢的企業(yè)而言,這是一個(gè)問(wèn)題。 我們與蔻馳(Coach)、Kate Spade和思緹韋曼(Stuart Weitzman)的母公司泰佩思琦(Tapestry)合作,探討了這種抵觸情緒以及應(yīng)對(duì)之法。泰佩思琦公司有近1500家門店,年銷售額達(dá)67億美元,優(yōu)化產(chǎn)品分配、運(yùn)營(yíng)有效的供應(yīng)鏈對(duì)其成功至關(guān)重要。員工可以查看短期預(yù)測(cè),以此確定每家門店每周的庫(kù)存分配,短期預(yù)測(cè)要盡量精準(zhǔn)。 泰佩思琦以往用的是基于規(guī)則的算法,幫助分配產(chǎn)品的員工估計(jì)需求。員工可以從日常經(jīng)驗(yàn)中理解這套模型,而且能看到輸入模型的信息。為了提高準(zhǔn)確度,公司又開(kāi)發(fā)了一套更加復(fù)雜的預(yù)測(cè)模型,對(duì)于用戶而言是“黑盒子”。在為期三周的研究中,我們?yōu)槊總€(gè)產(chǎn)品決策隨機(jī)分配了這兩個(gè)系統(tǒng)中的一個(gè)提供指導(dǎo)。負(fù)責(zé)分配的員工看到預(yù)測(cè)模型給出的建議,可以依照建議如數(shù)發(fā)貨,也可以不聽(tīng)從指導(dǎo),發(fā)出不同數(shù)量的產(chǎn)品。結(jié)果表明,比起較為簡(jiǎn)單的、基于規(guī)則的算法,實(shí)際出貨量更接近黑盒子系統(tǒng)生成建議的50%,說(shuō)明員工對(duì)黑盒子模型的信任度高得多。
HBR:這個(gè)結(jié)果真是令人吃驚!你覺(jué)得為什么會(huì)這樣?
其實(shí)我們的發(fā)現(xiàn)與常規(guī)思維相反,常規(guī)的思維認(rèn)為人們更傾向于接受自己可以理解的系統(tǒng)的指導(dǎo)。 負(fù)責(zé)分配的員工之所以否決沒(méi)那么復(fù)雜的系統(tǒng),一個(gè)原因在于我們所說(shuō)的“過(guò)于自信的故障排除”。決策者以為自己很了解模型的推理過(guò)程,實(shí)際卻沒(méi)那么了解,就會(huì)出現(xiàn)這種現(xiàn)象。他們會(huì)運(yùn)用自己的經(jīng)驗(yàn),調(diào)整模型中他們認(rèn)為不足的地方。 我們研究的員工經(jīng)常講起可解讀算法的內(nèi)部運(yùn)行,以及為什么要否決算法給出的指導(dǎo)。例如,在實(shí)驗(yàn)后的一次訪談中,一名員工告訴我們,他認(rèn)為某次銷售額飆升一定與美國(guó)國(guó)家橄欖球聯(lián)盟選秀有關(guān),應(yīng)該打個(gè)折扣,于是調(diào)整了模型建議的產(chǎn)品數(shù)量。我們不知道選秀是否真的與這次銷售額飆升有關(guān),但這位員工對(duì)這個(gè)解釋很有自信。
我明白人們?yōu)楹螘?huì)高估自己對(duì)一個(gè)相對(duì)簡(jiǎn)單的模型的理解。但人們?yōu)槭裁磿?huì)接受無(wú)法解讀的模型呢?
盡管員工不知道這個(gè)無(wú)法解讀的模型用到了多少數(shù)據(jù),也不知道模型如何處理這些數(shù)據(jù),但他們知道模型是由一些同事開(kāi)發(fā)和測(cè)試過(guò)的,這讓他們對(duì)這個(gè)模型有信心。這是“社會(huì)認(rèn)同”的一個(gè)例子。一名負(fù)責(zé)分配的員工告訴我們,“無(wú)法解讀的算法給出的一些推薦我們經(jīng)常不認(rèn)同。我們并不會(huì)信任這個(gè)模型給出的每一條建議,而是在更宏觀的層面信任這個(gè)模型,因?yàn)槲覀兊耐聟⑴c了開(kāi)發(fā)。”
用戶根據(jù)自己的經(jīng)驗(yàn)調(diào)整得出的決策是否會(huì)得到更好的結(jié)果?
恰恰相反,因?yàn)楦鼜?fù)雜的模型效果太好了!我們研究了超過(guò)1.7萬(wàn)個(gè)分配決策,觀察每件產(chǎn)品在做出庫(kù)存決策后兩周內(nèi)的狀況。與黑盒子模型相關(guān)的決策比與較為透明的模型相關(guān)的決策更加成功,這正是因?yàn)槿藗兏鼉A向于接受黑盒子模型的建議。采納了黑盒子模型建議的產(chǎn)品銷售額更高,缺貨更少,產(chǎn)生的收入高出20%。
還有沒(méi)有其他因素會(huì)影響人們接受或拒絕模型的建議?
員工在做出特定決策時(shí)感受到的不確定程度很重要,這種不確定程度會(huì)隨著相應(yīng)門店的銷量而變化。在銷量很高的門店,庫(kù)存決策引發(fā)的不確定感最高,因?yàn)樵谶@樣的門店分配失誤造成的后果更嚴(yán)重:可能造成的銷售額損失或庫(kù)存過(guò)剩都更嚴(yán)重。為這樣的門店分配產(chǎn)品時(shí),人們就更愿意接受無(wú)法解讀的模型給出的建議,而不是可以解讀的模型建議。不確定性提升,會(huì)促使人們探究可解讀的模型給出的建議,并否決之。
如何能讓員工始終聽(tīng)從算法的指導(dǎo)?
你必須不斷衡量員工對(duì)系統(tǒng)的信任程度。如果發(fā)現(xiàn)他們?cè)谀承┣闆r下更加信任系統(tǒng),你就要深入了解原因。他們可能對(duì)AI抱有懷疑,因?yàn)锳I會(huì)有漏洞,或者給出的建議與他們的經(jīng)驗(yàn)或直覺(jué)相悖。你要確定他們的不信任是否合理。理解了背后的原因,你就可以開(kāi)展有針對(duì)性的培訓(xùn),協(xié)助員工接受和認(rèn)可AI工具高超的決策能力。 這種現(xiàn)象并不新鮮。每次出現(xiàn)新的技術(shù),人們最初都是不太愿意接受的。
如果你要為員工引入基于AI的推薦工具,你會(huì)讓這套算法模型無(wú)法解讀嗎?
在我推廣新的工具之前,我會(huì)讓數(shù)據(jù)科學(xué)團(tuán)隊(duì)或構(gòu)建該工具的人員與將要使用該工具的員工會(huì)面,讓一些員工參與開(kāi)發(fā)過(guò)程。這樣的透明度和員工參與可以建立信任。但如果這一切都完成了,系統(tǒng)也經(jīng)過(guò)了測(cè)試,每個(gè)人都認(rèn)同它有效,我就會(huì)限制員工否決這套算法的能力。 胡安·馬蒂內(nèi)(Juan Martinez)| 訪?? 蔣薈蓉 | 譯??孫燕 | 校??時(shí)青靖 | 編輯