圖靈獎(jiǎng)得主Pearl:期待一場(chǎng)迷你革命,讓機(jī)器理解“為什么”
撰文|Judea Pearl、Dana Mackenzie
翻譯|吳小安(清華大學(xué)-阿姆斯特丹大學(xué)邏輯學(xué)聯(lián)合研究中心)
在通向人工智能那漫長(zhǎng)又坎坷的路途中,計(jì)算機(jī)程序已經(jīng)到達(dá)了一個(gè)紛亂點(diǎn)。它在那些我們?cè)?jīng)認(rèn)為只有人類(lèi)專(zhuān)屬的任務(wù)中表現(xiàn)卓越,比如玩撲克或者在稠人廣眾中識(shí)別出一張臉。但使用相同技術(shù),自動(dòng)駕駛汽車(chē)卻撞向路人和欄桿,于是對(duì)于它們是否總是值得信任,我們心存疑慮。
在這急速發(fā)展又總有意想不到的困難出現(xiàn)的過(guò)程中,在經(jīng)歷了數(shù)十年的發(fā)展之后,機(jī)器依然無(wú)法企及人工智能的一個(gè)重要的構(gòu)建基石:理解原因和結(jié)果。
簡(jiǎn)單來(lái)說(shuō),今天的機(jī)器學(xué)習(xí)程序并不能告訴我們是否公雞打鳴是太陽(yáng)升起的原因,或者后者是前者的原因。不管機(jī)器分析多大體量的數(shù)據(jù),它并不能理解人們直覺(jué)所獲取的東西。從嬰兒時(shí)候開(kāi)始,我們就把我們的經(jīng)驗(yàn)以原因和結(jié)果的形式組織?!盀槭裁催@件事會(huì)發(fā)生?”和“如果我以另一種方式來(lái)行動(dòng)會(huì)怎么樣?”的問(wèn)題是認(rèn)知發(fā)展的核心,使得我們?nèi)酥疄槿耍壳皺C(jī)器還不具備這種能力。
例如,假定一個(gè)藥店決定把藥品的定價(jià)權(quán)交給一個(gè)我們稱(chēng)為 Charlie 的機(jī)器學(xué)習(xí)程序。Charlie回顧藥店過(guò)去的價(jià)格變動(dòng)和銷(xiāo)售記錄后,發(fā)現(xiàn)牙膏價(jià)格的變化和銷(xiāo)售量的改變不相關(guān),因此決定提高牙膏銷(xiāo)售價(jià)格以產(chǎn)生更多的利潤(rùn)。結(jié)果是,一個(gè)月之后牙膏的銷(xiāo)售量降了下來(lái)?——?與之相伴的還有牙線、餅干和其他商品的銷(xiāo)售量。Charlie 在哪個(gè)地方犯了錯(cuò)誤呢?
Charlie 并不明白之前的經(jīng)理之所以會(huì)調(diào)整價(jià)格是競(jìng)爭(zhēng)所致。當(dāng) Charlie 單方面的提高價(jià)格,那么對(duì)價(jià)格異常敏銳的顧客就會(huì)選擇去其他地方消費(fèi)。這個(gè)例子說(shuō)明單單是歷史的數(shù)據(jù)并沒(méi)有告訴我們關(guān)于原因的任何東西?——?且因果的指引是重要的。
在分析數(shù)據(jù)模式方面,機(jī)器學(xué)習(xí)系統(tǒng)取得了令人為之側(cè)目的進(jìn)步,但那只是人工智能的低端成果。要達(dá)到更高端的成果,AI需要一個(gè)階梯,我稱(chēng)之為因果的階梯,它包含因果推理的三個(gè)層級(jí)。
第一層級(jí)是相關(guān),當(dāng)前的學(xué)習(xí)機(jī)器和大多數(shù)動(dòng)物都位于這一個(gè)層次,在這個(gè)層級(jí),巴甫洛夫的狗習(xí)得了鈴聲響起和有食物可吃之間的聯(lián)系;下一個(gè)層級(jí)是干預(yù),目的是看看如果刻意制造鈴聲,或者提高牙膏的價(jià)格將會(huì)發(fā)生什么?干預(yù)不同于觀察,無(wú)理由提高價(jià)格和以過(guò)去的數(shù)據(jù)表現(xiàn)為依據(jù)提高價(jià)格有不同的后果;最高的層級(jí)是反事實(shí),這是一種想象結(jié)果會(huì)如何的能力,反思一個(gè)人的行動(dòng)并在在其他情境中做判斷。正是在這一層次,機(jī)器能夠達(dá)到對(duì)責(zé)任、歸譽(yù)、咎責(zé)以及自我更新的判定和傳達(dá)。想象給予一輛自動(dòng)駕駛汽車(chē)這種能力,在一個(gè)事故之后,它的 CPU 會(huì)問(wèn)自己這樣的問(wèn)題:如果我沒(méi)有向醉酒的行人按喇叭將會(huì)發(fā)生什么呢?
為了達(dá)到更高的層級(jí),除了更多的數(shù)據(jù)之外,機(jī)器需要一個(gè)暗含著因果元素的模型?——?實(shí)質(zhì)上是原因和結(jié)果的數(shù)學(xué)。也許是這樣一個(gè)簡(jiǎn)單的因素:“酒精會(huì)損傷一個(gè)人的判斷,醉酒之人會(huì)以異于尋常的方式運(yùn)動(dòng)”,我們可以以科學(xué)家所稱(chēng)之為的因果圖來(lái)編碼這個(gè)信息,在這個(gè)圖中箭頭表示的是一系列可能的因果關(guān)系:酒精?損傷判斷?非正常舉動(dòng)。這類(lèi)圖不只是為了簡(jiǎn)潔優(yōu)美,而且構(gòu)成了一個(gè)初步算法,以此就使得汽車(chē)能夠預(yù)測(cè)某類(lèi)行人對(duì)于汽車(chē)?yán)人l(fā)出的鳴叫會(huì)做出異乎尋常的反應(yīng)。這也為我們“拷問(wèn)”汽車(chē)解釋它的所為提供了可能:為什么你要按喇叭呢?
當(dāng)前的機(jī)器學(xué)習(xí)系統(tǒng)只在一個(gè)受規(guī)則嚴(yán)格限制的小范圍內(nèi)才能通達(dá)更高的層級(jí),比如下象棋。超出這個(gè)范圍,它就會(huì)手足無(wú)措、錯(cuò)誤百出。但是如果有了因果模型,機(jī)器就能預(yù)測(cè)之前所從未經(jīng)歷的行動(dòng)的結(jié)果,并反思這個(gè)結(jié)果,然后把所學(xué)到的技能應(yīng)用于新的情形中。
因果模型源自二十世紀(jì)八十年代人工智能的一些工作,由于它可以做更高層級(jí)的計(jì)算且常常還能消解統(tǒng)計(jì)悖論,目前已經(jīng)在健康科學(xué)和社會(huì)科學(xué)中廣泛應(yīng)用。隨著機(jī)器學(xué)習(xí)研究者尋求更具解釋性和回應(yīng)性的系統(tǒng),因果模型又開(kāi)始被關(guān)注。比如谷歌和臉書(shū)的科學(xué)家們?cè)V諸于因果模型來(lái)分析網(wǎng)上的廣告,以判定廣告是否會(huì)影響人們購(gòu)買(mǎi)產(chǎn)品的決策——?一個(gè)反事實(shí)問(wèn)題。
這只是一個(gè)開(kāi)始。當(dāng)研究者把數(shù)據(jù)和因果推理結(jié)合起來(lái),我們期望在人工智能領(lǐng)域能看到一場(chǎng)迷你革命,這個(gè)新的系統(tǒng)能夠規(guī)劃行動(dòng),哪怕不存在關(guān)于這個(gè)行動(dòng)及其結(jié)果的任何數(shù)據(jù);這個(gè)新的系統(tǒng)還能夠把它們之所學(xué)應(yīng)用于新的情形,并用人類(lèi)語(yǔ)言天生就含有的“因果”概念來(lái)解釋它們的行為。
作者簡(jiǎn)介
Judea Pearl 是加州大學(xué)洛杉磯分校計(jì)算機(jī)系的教授,因?yàn)樗诟怕释评砗鸵蚬评淼墓ぷ鞫@得了2011年的圖靈獎(jiǎng)。?
Dana Mackenzie 是數(shù)學(xué)科普類(lèi)作家,他們兩人合寫(xiě)了一本書(shū)《為什么:關(guān)于因果關(guān)系的新科學(xué)》,該書(shū)不久前由 Basic Books 出版。
原文鏈接:https://www.wsj.com/articles/ai-cant-reason-why-1526657442?,原題為“AI Can’t Reason Why”