機(jī)器可以擁有權(quán)利嗎?邁克斯·泰格馬克《生命3.0》節(jié)選
? ? ? ? ? ? ? ? ? ? ? ??法律之爭
? ? ? ? 人類是社會(huì)性動(dòng)物,多虧了我們的合作能力,才戰(zhàn)勝了其他動(dòng)物,占領(lǐng)了地球。為了激勵(lì)和促進(jìn)合作,我們制定了法律。因此,如果人工智能可以改善我們的法律和政府系統(tǒng),它就能讓人類達(dá)到前所未有的合作水平,帶來巨大的好處。在這方面,存在著大量的進(jìn)步機(jī)會(huì),不僅涉及法律的執(zhí)行,還涉及法律的撰寫?,F(xiàn)在,我們就來探討一下這兩個(gè)方面。
? ? ? ? 當(dāng)想到法院體系時(shí),你的第一印象是什么?如果是冗長的延期、高昂的費(fèi)用和偶爾出現(xiàn)的不公平,那么,你并不是唯一一個(gè)這樣想的。如果能把這種第一印象扭轉(zhuǎn)為“高效”和“公平”,是不是一件絕妙的事?由于法律程序能被抽象地看作一個(gè)計(jì)算過程,輸入證據(jù)和法律信息后就能輸出判決結(jié)論,因此,許多學(xué)者夢(mèng)想著能用“機(jī)器人法官”(robojudges)來將這個(gè)過程自動(dòng)化。機(jī)器人法官就是一種人工智能,它能不知疲倦地將同樣高的法律標(biāo)準(zhǔn)運(yùn)用到每次判決中,而不會(huì)受到人類錯(cuò)誤的影響,這些錯(cuò)誤包括偏見、疲勞或知識(shí)陳舊等。

機(jī)器人法官
? ? ? ? 1994年,美國白人拜倫·德·拉·小貝克威思(Byron De LaBeckwith Jr.)因在1963年刺殺民權(quán)領(lǐng)袖梅加·埃弗斯(Medgar Evers)而被判有罪,但在謀殺發(fā)生的第二年,盡管證據(jù)充足且完全相同,兩個(gè)全由白人組成的密西西比陪審團(tuán)卻沒有判決他有罪[28]。嗚呼哀哉,法律歷史中充斥著因膚色、性別、性別取向、宗教、國籍等因素而導(dǎo)致的判決偏見。從原則上來說,機(jī)器人法官能保證法律面前人人平等,這是有史以來的第一次。通過編程,機(jī)器人法官可以對(duì)所有人一視同仁,并可以完全透明、不偏不倚地運(yùn)用法律。
? ? ? ? 機(jī)器人法官還可以消除意外出現(xiàn)而非有意為之的人類偏見。比如,2012年,有人對(duì)以色列的法官進(jìn)行了一項(xiàng)富有爭議的研究[29],研究聲稱,當(dāng)法官饑餓時(shí),就會(huì)做出更加嚴(yán)厲的判決。但是,這些法官否認(rèn)大約35%的假釋決定發(fā)生在剛吃完早餐以后,也否認(rèn)超過85%的假釋拒絕發(fā)生于正要吃午餐前。人類判斷的另一個(gè)缺點(diǎn)是,人類沒有足夠的時(shí)間來了解每個(gè)案件的所有細(xì)節(jié)。相比之下,機(jī)器人法官可以很容易地進(jìn)行復(fù)制,因?yàn)樗鼈冎挥绍浖M成,可以同時(shí)處理所有的未決案件,而不用一個(gè)接一個(gè)地解決。這樣一來,機(jī)器人法官就可以在每個(gè)案件上花費(fèi)足夠長的時(shí)間。最終,盡管人類法官不可能掌握困擾司法科學(xué)領(lǐng)域的每個(gè)案子(從棘手的專利糾紛到神秘謀殺案)所需要的技術(shù)知識(shí),但從本質(zhì)上來說,未來的機(jī)器人法官卻擁有無窮無盡的記憶空間和學(xué)習(xí)能力。
? ? ? ? 總有一天,這樣的機(jī)器人法官將變得更加有效和公平,因?yàn)樗鼈儾黄灰校话?,聰明能干,并且辦案透明。它們的高效會(huì)進(jìn)一步提升公平性。通過加快司法程序建設(shè),使其更難被狡猾的律師影響,機(jī)器人法官就能以相當(dāng)?shù)偷某杀緦?shí)現(xiàn)法庭的公正性。當(dāng)窮人與億萬富翁或者坐擁豪華律師陣營的跨國企業(yè)對(duì)抗時(shí),這可以極大地提高前者獲勝的機(jī)會(huì)。
? ? ? ? 但是,如果機(jī)器人法官出現(xiàn)了漏洞,或者被黑客攻擊,怎么辦呢?這兩個(gè)問題已經(jīng)在自動(dòng)投票機(jī)上發(fā)生了。這些問題會(huì)導(dǎo)致某些人陷入多年的牢獄之災(zāi)或者多年積蓄毀于一旦,這也使黑客進(jìn)行網(wǎng)絡(luò)攻擊的動(dòng)機(jī)變得更強(qiáng)。即便我們能把人工智能建造得足夠穩(wěn)定,足以讓人們相信機(jī)器人法官使用的算法是合理合法的,但是,是不是所有人都會(huì)感到他們能理解機(jī)器人法官的邏輯推理過程并尊重它的判斷呢?近期,神經(jīng)網(wǎng)絡(luò)算法的成功研究進(jìn)一步增加了應(yīng)對(duì)這一挑戰(zhàn)的勝算。神經(jīng)網(wǎng)絡(luò)算法的表現(xiàn)經(jīng)常優(yōu)于傳統(tǒng)的人工智能算法,但傳統(tǒng)的算法都很容易理解,而神經(jīng)網(wǎng)絡(luò)算法卻高深莫測(cè)。如果被告想知道他們?yōu)楹伪欢ㄗ铮覀冸y道不應(yīng)該給出比“我們用大量數(shù)據(jù)訓(xùn)練了算法,這就是它的結(jié)論”更好的回答嗎?此外,近期的研究發(fā)現(xiàn),如果你用大量囚犯的相關(guān)數(shù)據(jù)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)系統(tǒng),它就能比人類法官更好地預(yù)測(cè)哪些囚犯會(huì)再次犯罪,并據(jù)此拒絕他們的假釋。但是,如果深度神經(jīng)網(wǎng)絡(luò)系統(tǒng)發(fā)現(xiàn),從統(tǒng)計(jì)學(xué)上來說,累犯率與囚犯的性別或種族有聯(lián)系,那么,這個(gè)性別歧視和種族歧視的機(jī)器人法官是不是應(yīng)該回爐重“編”呢?實(shí)際上,2016年的一項(xiàng)研究認(rèn)為,美國使用的累犯率預(yù)測(cè)軟件對(duì)黑人有偏見,并曾導(dǎo)致了不公平的判決。這些問題十分重要,急需思考和討論,這樣才能保證人工智能對(duì)人類是有益的。面對(duì)機(jī)器人法官這件事,我們要決定的問題不是“要不要使用”,而是司法體系對(duì)人工智能的應(yīng)用應(yīng)該達(dá)到什么程度,以及以什么樣的速度推進(jìn)。要不要讓法官像未來的醫(yī)生那樣使用基于人工智能的決策支持系統(tǒng)?要不要更進(jìn)一步,讓機(jī)器人法官的判決可以上訴到人類法官?或者一路走到底,讓機(jī)器人法官來做死刑判決?

讓法律適應(yīng)人工智能的進(jìn)步
? ? ? ? 到目前為止,我們只探索了法律方面的應(yīng)用,現(xiàn)在讓我們來看看法律的內(nèi)容。大多數(shù)人都認(rèn)同,我們的法律需要不斷地更新,以跟上技術(shù)的腳步。比如,那兩個(gè)創(chuàng)造了“ILOVEYOU”蠕蟲、造成了幾十億美元損失的程序員,之所以被宣判無罪,大搖大擺地走出了法庭,只是因?yàn)槟莻€(gè)年代的菲律賓還沒有制定針對(duì)惡意軟件的法律。由于技術(shù)進(jìn)步一直在不斷地加速,因此,法律總易表現(xiàn)出落后于技術(shù)的傾向。我們必須以更快的速度更新法律,才能讓法律跟上技術(shù)的發(fā)展。讓更多熱愛技術(shù)的人進(jìn)入法學(xué)院和政府,或許是一個(gè)有益社會(huì)的妙招。但接下來,應(yīng)不應(yīng)該在選舉和立法方面使用基于人工智能的決策支持系統(tǒng)?或者徹底一點(diǎn),干脆用機(jī)器來立法?
? ? ? ? 如何改變我們的法律以適應(yīng)人工智能的進(jìn)步,這是一個(gè)令人著迷的爭議話題。其中一個(gè)爭論反映了隱私與信息自由之間劍拔弩張的緊張關(guān)系。自由派認(rèn)為,我們擁有的隱私越少,法庭擁有的證據(jù)就越多,判決就會(huì)越公平。比如,如果政府有權(quán)接入每個(gè)人的電子設(shè)備,記錄他們的位置、他們輸入的內(nèi)容、點(diǎn)擊的東西以及所說的話和做的事,許多犯罪行為就能被抓個(gè)現(xiàn)形,還可能被杜絕。而隱私派的支持者反駁說,他們不想看到奧威爾式的監(jiān)控;即便自由派認(rèn)同的這種情況真的出現(xiàn)了,社會(huì)很可能會(huì)陷入大規(guī)模的集權(quán)主義的獨(dú)裁局面。此外,機(jī)器學(xué)習(xí)技術(shù)通過分析功能磁共振成像掃描儀等腦部傳感器收集的大腦數(shù)據(jù),以判斷人類想法(尤其是測(cè)謊)的能力逐漸變得越來越強(qiáng)。在目前的法庭上,案例事實(shí)的還原是一個(gè)單調(diào)而又冗長的過程;如果讓基于人工智能技術(shù)的腦部掃描技術(shù)走進(jìn)法庭,這個(gè)過程將被極大地簡化和加快,能使判決更快,也更公平。但是,隱私派的支持者可能會(huì)擔(dān)心這種系統(tǒng)會(huì)不會(huì)犯錯(cuò)誤。還有一個(gè)更根本的問題是,我們的思想到底應(yīng)不應(yīng)該接受政府的檢查。如果一個(gè)政府反對(duì)自由主義,那它可以用這種技術(shù)對(duì)擁有這些信仰和觀點(diǎn)的人定罪。在公正和隱私之間、在保護(hù)社會(huì)和保護(hù)個(gè)人自由之間,你的界限在哪里?這條界限(無論它在哪里)會(huì)不會(huì)不可阻擋地逐漸移向減少隱私的方向,以此來抵消證據(jù)越來越容易被偽造的事實(shí)?比如,如果人工智能有能力生成一段你實(shí)施犯罪的虛假視頻,而且它看起來非常真實(shí),簡直能以假亂真,那么,你會(huì)不會(huì)投票支持政府追蹤每個(gè)人的實(shí)時(shí)位置,以此來洗刷你被栽贓的罪名?
? ? ??? 還有一個(gè)迷人的爭議是:人工智能研究是否應(yīng)該受到監(jiān)管?或者,政策制定者應(yīng)該給人工智能研究者以什么樣的激勵(lì),才能讓他們的研究結(jié)果盡可能的有益。一些研究者反對(duì)對(duì)人工智能研究進(jìn)行任何形式的監(jiān)管。他們聲稱,監(jiān)管會(huì)延遲一些迫在眉睫的創(chuàng)新,比如能減少交通事故的無人駕駛汽車,而這些延遲本來是不必要的,會(huì)導(dǎo)致對(duì)人工智能的前沿研究轉(zhuǎn)向地下,或者轉(zhuǎn)移到對(duì)人工智能更寬容的國家。在第1章提到的波多黎各的“人工智能有益運(yùn)動(dòng)”會(huì)議上,埃隆·馬斯克說,當(dāng)下我們需要政府做的不是監(jiān)督,而是洞察。具體來說,就是讓具備技術(shù)能力的人在政府內(nèi)擔(dān)任職位,監(jiān)控人工智能的進(jìn)展,并在未來需要的時(shí)候插手控制。馬斯克還說,政府監(jiān)管有時(shí)候能夠促進(jìn)技術(shù)進(jìn)步,而不是扼殺進(jìn)步。比如,如果政府頒布的《無人駕駛汽車安全標(biāo)準(zhǔn)》能夠降低無人駕駛汽車的事故發(fā)生率,公眾的反對(duì)聲音就會(huì)變小,這樣,就能加速新技術(shù)的使用。因此,最在意安全的人工智能公司或許會(huì)希望政府進(jìn)行監(jiān)管,因?yàn)檫@樣,那些疏忽大意的競(jìng)爭者就只能埋頭苦干,以追趕前者極高的安全標(biāo)準(zhǔn)。
? ? ? ? 不過,還有一個(gè)有趣的法律爭議是,要不要賦予機(jī)器權(quán)利。美國每年因交通事故喪生的人數(shù)達(dá)32 000人;假如無人駕駛汽車將死亡人數(shù)減半,汽車廠商很可能并不會(huì)收到16 000封感謝信,而是16 000起官司。那么,如果無人駕駛汽車發(fā)生了交通事故,應(yīng)該由誰來負(fù)責(zé)呢?是它的乘客、擁有者還是生產(chǎn)廠家?法律學(xué)家戴維·弗拉德克(David Vladeck)給出了不同的答案:由汽車自己負(fù)責(zé)!具體而言,他提出,應(yīng)該允許甚至要求無人駕駛汽車持有保險(xiǎn)。這樣,安全記錄良好的汽車型號(hào)所需支付的保險(xiǎn)費(fèi)就會(huì)很低,甚至可能比人類司機(jī)買的保險(xiǎn)費(fèi)還低;而那些馬虎大意的廠商生產(chǎn)的設(shè)計(jì)糟糕的汽車型號(hào)只適用于高昂的保險(xiǎn)單,進(jìn)而催高了它們的價(jià)格,使其變得過于昂貴,無人想買。
? ? ? ? 但是,如果我們?cè)试S機(jī)器(例如汽車)持有保險(xiǎn),那么,我們是否也應(yīng)該允許它們擁有貨幣和財(cái)產(chǎn)?如果允許的話,從法律上來說,我們就無法阻止聰明的計(jì)算機(jī)在股市上大撈一筆,并用賺到的錢來購買在線服務(wù)。一旦計(jì)算機(jī)開始付錢給人類,讓人類為它工作,那它就能實(shí)現(xiàn)人類能做到的一切事情。如果人工智能系統(tǒng)在投資上的表現(xiàn)好于人類,實(shí)際上它們?cè)谀承╊I(lǐng)域已經(jīng)超過人類了,這就有可能出現(xiàn)一種情形:由機(jī)器占有和控制了社會(huì)大部分的經(jīng)濟(jì)命脈。這是我們想要的情形嗎?如果這聽起來還很遙遠(yuǎn),那么請(qǐng)想一想,我們經(jīng)濟(jì)的大部分事實(shí)上已經(jīng)屬于另一種非人類實(shí)體:公司。公司通常比任意單個(gè)員工都要強(qiáng)大,就像擁有自己的生命一樣。
? ? ? ? 如果你覺得賦予機(jī)器財(cái)產(chǎn)權(quán)是可以接受的,那么,可不可以賦予它們投票權(quán)呢?如果可以,應(yīng)不應(yīng)該給每個(gè)計(jì)算機(jī)程序一張選票?但程序可以在云端自我復(fù)制;假如它足夠富有,甚至可以復(fù)制出幾千億份,并以此來影響選舉結(jié)果。如果你認(rèn)為不能賦予機(jī)器投票權(quán),那么,我們要用什么倫理基礎(chǔ)來大言不慚地“歧視”機(jī)器意識(shí),認(rèn)為機(jī)器意識(shí)不如人類意識(shí)?如果機(jī)器意識(shí)擁有自我意識(shí),能像我們一樣擁有主觀體驗(yàn),那答案會(huì)有所不同嗎?我們將在第4章更深入地探討與計(jì)算機(jī)控制世界有關(guān)的爭議問題,然后在第8章討論與機(jī)器意識(shí)有關(guān)的話題。
