最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

《管理世界》|| 肖紅軍:算法責任:理論證成、全景畫像與治理范式

2023-06-22 14:43 作者:余光皓月  | 我要投稿


原創(chuàng)?肖紅軍?管理世界雜志?2022-04-18 09:55?發(fā)表于北京

算法責任:理論證成、全景畫像與治理范式

作者:

肖紅軍(中國社會科學院工業(yè)經(jīng)濟研究所)

文章刊發(fā):《管理世界》2022年第4期

摘要:隨著算法時代的來臨,算法責任缺失與異化現(xiàn)象頻繁出現(xiàn),引發(fā)普遍的算法焦慮甚至算法危機,但目前對算法責任和算法責任治理的研究尚處于起步階段,研究系統(tǒng)性和深度都存在不足。本文從理論證成算法責任命題的正當性與合理性出發(fā),認為算法承載“代理者”角色是算法責任產(chǎn)生的認知基礎,算法存在的社會嵌入、算法主體的價值遷移和算法結(jié)果的社會影響等算法的多元價值載荷是算法責任生成的根本緣起,算法權力崛起孿生出匹配性的算法責任、算法濫用催生出約束性的算法責任是算法責任出場的現(xiàn)實邏輯,而算法責任的綜合性、代理性和隱蔽性特點則是其作為一個新命題出現(xiàn)的合理性所在?;诓煌瑫r期對算法本質(zhì)與算法責任本質(zhì)認知的演變,算法責任觀經(jīng)歷了技術中立視域下的責任否定觀、技術倫理視域下的道德算法觀、人技信任視域下的“可信賴的算法”觀、社會責任視域下的“負責任的算法”觀的流變與迭代。作為構(gòu)建“負責任的算法”的基礎,算法責任的完整畫像由責任緣起、責任性質(zhì)、責任基礎、責任主體、責任對象、責任內(nèi)容、責任程度和責任機制等8個構(gòu)面構(gòu)成,并在算法作為純粹執(zhí)行者、輔助決策者和獨立決策者情形下呈現(xiàn)出差異化的畫像“拼圖”。本文結(jié)合治理要素即對“人”的治理、對算法的治理、對社會的治理和責任機制即社會責任融入、負責任研究與創(chuàng)新、敏捷治理,構(gòu)建了算法責任綜合治理范式的九宮格模型,構(gòu)造出算法責任治理的9種方式。在此基礎上,構(gòu)建了算法責任治理方式與不同算法場景的適配性矩陣,提出在算法責任治理中政府應當加快算法責任制度供給與創(chuàng)新算法監(jiān)管方式,企業(yè)需要全面落實算法責任議題與構(gòu)建可持續(xù)性算法商業(yè)模式。

關鍵詞:算法??算法責任??社會責任??數(shù)智經(jīng)濟

一、引言

算法、數(shù)據(jù)和算力是數(shù)智經(jīng)濟的3個基本要素,而算法更是數(shù)智化決策的基礎,是數(shù)智經(jīng)濟的生命力所在,成為數(shù)智經(jīng)濟時代的“基礎語言”(張欣,2019a),由此數(shù)智經(jīng)濟在某種程度上被稱作“算法經(jīng)濟”,與之相伴隨的則是所謂“算法時代”的來臨(Danaher et al.,2017)、“算法社會”的出現(xiàn)(Balkin,2018)和“算法生活”的涌現(xiàn)(Del Casino et al.,2020)。無論是數(shù)智化技術對經(jīng)濟社會發(fā)展的積極增進功能,還是數(shù)智經(jīng)濟演化過程中引致的眾多社會問題,其在底層邏輯上基本都依賴于算法予以實現(xiàn)。特別是,算法具有“顛覆性潛力”(凱倫·楊、馬丁·洛奇,2020),一方面無處不在的智能算法深刻改變了人們的生產(chǎn)生活方式甚至社會形態(tài),另一方面有意圖的或非故意的算法不當以及所謂的“算法污染”(Schultze et al.,2018)往往是數(shù)智經(jīng)濟負外部性的深層來源,負責任的算法對于構(gòu)建可持續(xù)性數(shù)智經(jīng)濟和更加美好的社會至為重要。

然而,現(xiàn)實中大量的算法失當現(xiàn)象經(jīng)常在多個場景出現(xiàn),算法歧視或算法偏見、算法共謀、算法壟斷、算法黑箱、算法遮蔽、算法倫理缺失、算法短視、算法霸權、算法操縱、算法劫持、算法剝削等算法問題不斷涌現(xiàn)。典型的如:算法歧視中的“大數(shù)據(jù)殺熟”,國內(nèi)多個外賣平臺、出行平臺、購物平臺、差旅平臺、視頻網(wǎng)站都被曝基于大數(shù)據(jù)對用戶進行畫像,依托算法實施“熟客賣高價”“千人千面”“千人千價”的“殺熟”行為。算法偏見中的“種族歧視”或“少數(shù)群體歧視”,前者的著名例子是Google開發(fā)的自動圖像標記軟件曾經(jīng)將黑人照片識別并標記成“大猩猩”,一些美國法院引入的犯罪風險智能評估系統(tǒng)COMPAS在評估罪犯的再犯罪風險時存在明顯的歧視黑人罪犯情況(劉友華,2019);后者的代表性事例是亞馬遜曾經(jīng)開發(fā)“算法篩選系統(tǒng)”用于招聘中的簡歷篩選,但算法明顯偏好于男性應聘者而歧視女性,另一個教科書式的示例是比利亞雷亞爾(Villarreal)訴雷諾煙草公司(Reynolds Tobacco Co.)案(汪懷君、汝緒華,2020),反映出算法依據(jù)年齡篩選應聘申請人的年齡歧視。算法推薦引致的“信息繭房”困境與“回音室效應”,以今日頭條、抖音為代表的APP通過智能算法重復地向用戶推送所謂“感興趣”的內(nèi)容,這種單純基于興趣導向的算法推薦限制了用戶獲取多樣化的信息,使其被束縛在智能算法所構(gòu)建的“信息繭房”和“回音室”里。算法操控導致的人被技術所“異化”,2020年9月《人物》雜志微信公眾號推出的《外賣騎手,困在系統(tǒng)里》一文,揭示了外賣平臺算法對騎手的斯德哥爾摩效應式規(guī)訓和“冰冷”控制,將外賣騎手變成馬爾庫塞言下的“單向度的人”。這些多樣化的算法失當現(xiàn)象引發(fā)社會普遍的算法焦慮甚至一系列算法危機,由此算法甚至被認為是“怪物”(Schultze et al.,2018)。

算法失當及其引發(fā)的算法焦慮問題越來越多地受到學術界的關注,狹義與廣義的算法責任逐漸進入法學、倫理學、經(jīng)濟學、管理學、社會學、技術哲學、新聞學的研究視域,直接聚焦或間接探析算法責任治理的研究開始成為熱點,并集中于兩個方面:一是綜合性算法責任及其治理研究,重點是算法責任機制、算法倫理。對于前者,算法在社會領域決策中的應用不斷增加,催生對負責任算法的需求日益強烈(Binns,2018),因此應提高算法決策的公平度、問責性和透明度(Lepri et al.,2018)。算法被認為承載著價值觀而非中性,企業(yè)不僅對算法負有責任,而且對設計算法中的“誰做什么”負有責任(Martin,2019)。浮婷(2020)綜合透明度視角、利益相關方視角、負責任研究與創(chuàng)新視角,構(gòu)建了算法責任機制的概念模型,闡釋了算法責任不同要件的邏輯關系。張凌寒(2021a)從問責制的視角研究了平臺算法責任如何生成,以及針對“責任鴻溝”問題如何構(gòu)建算法問責制。對于后者,算法所引發(fā)的倫理問題變得越來越突出,包括算法的自主性所引發(fā)的倫理問題、算法在應用性場景下的倫理問題和算法的歸責性困境問題(孫保學,2019),因此算法決策需要考慮倫理因素(Gerlick and Liozu,2020)。算法倫理研究主要涉及算法倫理的困境生成、理論前提、價值基礎、基本準則和實現(xiàn)進路(Hauer,2018;劉培、池忠軍,2019;郭林生、李小燕,2020;匡文波,2021)。二是特定性責任失當問題及其治理研究,包括算法黑箱(Zerilli et al.,2019;浮婷,2020;吳椒軍、郭婉兒,2021)、算法歧視(?liobait?,2017;崔靖梓,2019;張恩典,2020;李丹,2021)、算法共謀(Ezrachi and Stucke,2017;Gal,2019;時建中,2020;Beneke and Mackenrodt,2021)和算法操縱(大衛(wèi)·薩普特,2020)等各種算法責任的缺失與異化現(xiàn)象。一方面,大量研究關注于各種特定性算法責任失當現(xiàn)象的概念、分類、危害和成因,另一方面,許多學者針對各種算法責任缺失與異化問題提出治理方式與治理策略。比如,在算法治理與算法規(guī)制研究中,許多都是針對特定性算法責任失當現(xiàn)象的治理(Saurwein et al.,2015;Yeung,2017;D’Agostino and Durante,2018;Ulbricht,2018;Cristianini and Scantamburlo,2020;陽鎮(zhèn)、陳勁,2021)。

通過深入分析可以發(fā)現(xiàn),目前國內(nèi)外關于算法責任的研究尚處于起步階段,已有的探索性研究成果對治理算法失當和算法責任缺失或異化問題具有重要的價值貢獻,但它們至少存在3個方面的不足:一是缺乏真正意義與完整意義的社會責任視角研究。目前關于算法責任問題的研究主要聚焦于法律與倫理兩種視角,法律視角關注于算法失當發(fā)生后的責任認定和責任分配問題,倫理視角強調(diào)算法和算法結(jié)果與普適的社會道德倫理符合性(Martin,2019)。顯然,法律視角的“責任”不是真實意義的社會責任,而倫理符合性只是社會責任的部分構(gòu)成。即便個別學者關注到社會責任視角對算法責任治理的研究,但其要么幾乎聚焦于算法透明問題(浮婷,2020),要么僅僅將算法治理作為企業(yè)社會責任治理的對象和內(nèi)容(陽鎮(zhèn)、陳勁,2021),沒有從真正意義和完整意義社會責任視角對算法責任和算法責任治理進行系統(tǒng)研究。二是缺乏對算法責任的完整畫像進行清晰刻畫。科學界定算法責任的內(nèi)涵、范疇邊界、內(nèi)容構(gòu)成既是判斷算法是否失當?shù)幕疽罁?jù),更是有效開展算法責任治理的重要前提。然而,現(xiàn)有的絕大多數(shù)研究聚焦于算法責任的特定議題,部分涉及綜合性算法責任領域的研究也僅僅關注于算法的消極社會影響等單一維度,即便個別學者提出了負責任的算法概念(Binns,2018;Lepri et al.,2018;丁曉東,2020),也未做出明確的、完整的界定?,F(xiàn)有研究對算法責任的內(nèi)涵、范疇邊界和內(nèi)容構(gòu)成并未做出有意義的全景刻畫,算法責任的完整畫像及其形成的邏輯鏈條尚不清晰。三是缺乏對算法責任治理范式的系統(tǒng)建構(gòu)?,F(xiàn)有研究絕大多數(shù)聚焦于對特定算法失當現(xiàn)象的治理,對整體性的算法責任治理研究相對較少。無論是前者還是后者,已有研究主要關注于相對抽象或概念化的治理原則和相對具體或針對性的治理策略,從更加系統(tǒng)的范式層面研究算法責任治理較為缺乏。鑒于此,本文嘗試對這些不足進行突破,從真正意義與完整意義社會責任視角對算法責任開展研究,試圖對算法責任的理論邏輯、完整畫像和治理范式進行探索性建構(gòu)。

本文余下部分的結(jié)構(gòu)安排如下:第二部分基于邏輯起點檢驗和證成算法責任命題的正當性與合理性,第三部分系統(tǒng)梳理和分析算法責任觀的縱向流變與動態(tài)迭代,第四部分刻畫算法責任的完整構(gòu)面和建構(gòu)算法責任的全景畫像,第五部分分析算法責任治理的邏輯理路和構(gòu)建算法責任綜合治理范式,最后歸納總結(jié)本文研究結(jié)論、理論貢獻,提出政策啟示和實踐建議。

二、算法責任命題的邏輯起點與理論證成

作為一個新概念或新領域,“算法責任”是真命題還是偽命題一直存在爭議,但這關乎算法責任治理存在的價值與必要性??季克惴ㄘ熑蚊}的邏輯起點是對算法、算法與人、算法與社會關系的認知,物性或工具化的算法角色認知、原子式或割裂式的算法中立觀必然導致“算法責任”偽命題的結(jié)論,反之則可推演出“算法責任”為真命題。在現(xiàn)實中,隨著弱人工智能不斷獲得重大突破,加上大數(shù)據(jù)的深度應用、機器學習尤其是深度學習的迅猛發(fā)展,算法的社會嵌入日益深入,高度自動化的算法決策推動算法的社會功能顯著增強,“算法責任”越來越呈現(xiàn)為一個具有正當性與合理性的真命題,并儼然成為公共議程重點關注的對象。

(一)算法的代理者角色:算法責任產(chǎn)生的認知基礎

理解算法責任命題的基礎是對算法的角色屬性進行科學定位,而這相當程度上依賴于對算法概念的界定。算法概念最早出現(xiàn)于數(shù)學領域,指的是解決數(shù)學問題的運算法則,以算術或算式形式呈現(xiàn)。計算機誕生后,算法概念被引入計算機領域并成為計算機科學的基礎與核心,其涵義也區(qū)別于數(shù)學領域的算法概念,指的是將輸入轉(zhuǎn)化為輸出的序列計算指令(Cormen et al.,2009),或者說是依托特定計算模式將輸入數(shù)據(jù)轉(zhuǎn)換成預期輸出的編碼程式(Gillespie,2014),是一種有限的、確定性的、有效的、適合計算機程序執(zhí)行的問題解決方法(Sedgewick and Wayne,2011)。隨著數(shù)智經(jīng)濟時代算法的廣泛滲透和悄然介入人類事務,算法概念逐步超越計算機領域的專業(yè)術語,延拓到更廣泛的社會領域,被寬泛地認為是問題解決方案的完整描述(孫萍,2019),涵蓋所有的決策程序和步驟,是理性建構(gòu)社會秩序的一種特殊方式(Beer,2009)。從算法概念的流變來看,算法可以從技術、系統(tǒng)、社會3個層面予以理解。技術層面的算法是一種技術性解決方案(Gillespie,2014),多指在計算機領域結(jié)合邏輯條件與控制結(jié)構(gòu)來表達計算解決方案,屬于基礎層次的算法概念。系統(tǒng)層面的算法是從人與機器互動系統(tǒng)的角度,將算法看作“人類和機器交互的決策,即人類通過代碼設置、數(shù)據(jù)運算與機器自動化判斷進行決策的一套機制”(丁曉東,2020),屬于中間層次的算法概念。社會層面的算法泛指為解決某一問題或達成某一目的而采取的一系列步驟(Diakopoulos,2015;Kroll et al.,2017),其集合將形成對社會秩序的理性建構(gòu),屬于高階層次的算法概念?;谀壳暗募夹g發(fā)展水平和著眼于更重要的現(xiàn)實意義,本文聚焦于人機互動系統(tǒng)視角的算法,即中間層次的算法概念。需要指出的是,人工智能算法是數(shù)智經(jīng)濟時代最具代表性的算法,但鑒于當前的數(shù)智化技術仍處于弱人工智能階段,強人工智能尚未真正產(chǎn)生,且由弱人工智能向強人工智能演化的“奇點”是否出現(xiàn)并不明確,因此本文的人工智能算法主要是弱人工智能語境下的算法。

按照系統(tǒng)層面的算法概念,算法在人與機器的交互中可以發(fā)揮不同程度的輔助決策功能,進而增強人在某些領域開展決策的能力。而且,在某些方面人也可以依靠機器的自動化判斷進行自動化決策,由此算法就會代替人做出決策。然而,算法的本質(zhì)可以看作一種“技術人造物”,算法模型往往嵌入了設計者和使用者的目的與意圖,算法功能映射出設計者和使用者的價值認知與期望用途(Kalpokas,2019)。這意味著無論是前置行動(Prior-to Actions)還是目的行動(In-order-to Actions)(Introna,2016),算法運行所控制的行動實質(zhì)上是執(zhí)行性的(Performative)。即便是人工智能算法展現(xiàn)出隱喻意義上的不同程度學習能力,可能能夠通過所謂的圖靈測試,但這種學習能力歸根結(jié)底仍然屬于工具能力,人類對算法始終處于控制支配地位。在OECD(2017)提出的人工智能算法“四分法”中,監(jiān)控算法(Monitoring Algorithms)只是指令的執(zhí)行者,決策權和控制權完全掌握在人的手中;并行算法(Parallel Algorithms)擁有人“讓渡”出來的部分決策權,享有某些“自由裁量權”,但人依然擁有主導性的決策權和控制權;信號算法(Signalling Algorithms)雖然通過自發(fā)的信號處理而表現(xiàn)出更多的自動化決策,但信號披露背后的意圖仍然是人賦予的;自我學習算法(Self-learning Algorithms)更進一步,它基于大數(shù)據(jù)支撐和反復學習訓練而擁有自我學習能力,表現(xiàn)為超越人腦算力和思維能力的超級決策工具(謝栩楠,2021)。由此可見,監(jiān)控算法、并行算法、信號算法和自我學習算法無論表現(xiàn)出多么復雜,也不管如何運用,它們都是人的意圖不同程度的執(zhí)行。類似地,監(jiān)督學習、無監(jiān)督學習、半監(jiān)督學習和強化學習等機器學習算法,在本質(zhì)上都體現(xiàn)為操作性的工具能力。正因如此,作為新工具主義的代表性人物,Bryson(2010)甚至認為以算法為核心的機器人應當是人類的“奴隸”而非“同伴”。對于自主進化之前的算法,在人、算法、社會三者之間的關系中,算法無論是輔助決策還是自動化判斷,起到的都是人的“代理角色”(Willson,2017;Martin,2019;Kim,2020),成為人的“代理者”。算法的代理者角色定位表明算法具有間接的主體性,可以和應當對社會負責任,但這并不意味著委托人責任的消除(Martin,2019),而是說明算法責任是人類主體社會責任的延展,算法責任概念具有現(xiàn)實意義和正當性。

(二)算法的多元價值載荷:算法責任生成的根本緣起

由于社會責任涉及價值判斷與倫理規(guī)范,因此算法責任的生成取決于對算法價值屬性的認知。從技術哲學和倫理學派出發(fā),技術本身被認為內(nèi)嵌價值(Flanagan et al.,2008),據(jù)此算法本身也被認為包含基本價值判斷(Kraemer et al.,2011),是載荷價值的決策行動者(Martin,2019)。算法價值載荷(Value-laden)引申出算法對社會負責任的必然要求,成為算法責任生成的根本緣起,反映出算法責任概念具有正當性和合理性。進一步來看,算法的價值載荷主要源于3個方面,即算法存在的社會嵌入、算法主體的價值遷移和算法結(jié)果的社會影響。

1.算法存在的社會嵌入

從算法概念的歷史演化過程來看,算法是社會技術的產(chǎn)物,算法特征經(jīng)歷了由強調(diào)技術性到強調(diào)社會性,再到同時強調(diào)技術性與社會性的過程。算法的雙重屬性特征表明算法不是純粹的技術性解決方案,也不僅僅是作為“技術之間的中介”的三階技術(盧西亞諾·弗洛里迪,2016),更不是與人類社會實踐相割裂、游離于社會系統(tǒng)之外的“物化”存在?,F(xiàn)代社會中的算法并非處于真空中,也非實驗室里的算法,而是存在于和交融于社會系統(tǒng)中(Beer,2017),嵌入于特定社會結(jié)構(gòu),是社會技術的集合,甚至被認為是由社會和組織環(huán)境深刻構(gòu)成的社會技術實體(Gal et al.,2020)。按照技術的社會建構(gòu)范式,包括算法在內(nèi)的技術生產(chǎn)、創(chuàng)新、演化與其產(chǎn)生的社會影響在某種程度上都是社會塑造的,技術設計是技術規(guī)則與社會現(xiàn)實互相作用的結(jié)果,由此算法開發(fā)與應用也是在與社會互動中予以完成,必然受到一系列社會規(guī)范、制度安排、人類實踐和社會態(tài)度的影響(Zerilli et al.,2019)。從這種意義上來說,算法是經(jīng)過社會建構(gòu)的社會性存在,如此就可以從元層次破解算法身份的特修斯之船(The Ship of Theseus)問題。如果試圖脫離社會來對算法進行分析,就很可能出現(xiàn)錯誤(Beer,2017)。算法的社會嵌入與社會建構(gòu)意味著社會價值已經(jīng)滲透于算法系統(tǒng),算法在相當程度上直接或間接地載荷社會價值。

2.算法主體的價值遷移

算法由個體或組織的實踐形塑、想象和建構(gòu)(Beer,2017),與個體或組織的思維觀念和價值偏好密切相關,因此擁有不同價值判斷的個體或組織將會設計出差異化的算法,或者采用不同的算法予以解決問題(Kraemer et al.,2011)。從算法的意識形態(tài)認知視角來看,算法技術發(fā)揮著傳遞、復制和強化信念與價值觀的功能(Just and Latzer,2017),算法被認為是將一些價值或一套價值觀作為輸入,并形成一些價值或一套價值觀作為輸出的設計良好的計算程序(Cormen et al.,2009)。作為人的“代理者”,算法承載著人的目的傾向性,算法設計者、開發(fā)者的基本價值判斷會映射于算法的優(yōu)先序排列、標準歸類、關聯(lián)標記和過濾,算法模型往往體現(xiàn)出設計者、開發(fā)者的設計意圖和價值取向。即便是具有自我學習能力的自我學習算法,設計者、開發(fā)者的價值觀和道德信仰對算法的初始創(chuàng)建與后續(xù)學習也都具有重要影響。倫理的美德主義范式也認為,設計者、開發(fā)者個體主觀的、異質(zhì)的和非理性的沖動會影響算法模型,算法形成受到設計者、開發(fā)者“更自發(fā)的”和“本能驅(qū)動或精神動機驅(qū)動”的作用(Ananny,2016)。由此可見,設計者、開發(fā)者的價值遷移使得算法內(nèi)在地載荷算法主體的“人設”價值,蘊含了許多價值判斷、道德抉擇和約束條件,成為個體或組織的價值載體。

3.算法結(jié)果的社會影響

如果某項技術帶來了改變,只要這一改變不是中立的,那么該項技術也必然不是中立的(Strate,2012)。算法是否中立和是否載荷價值還應當考察算法輸出結(jié)果的性質(zhì),如果輸出結(jié)果對利益相關方和社會產(chǎn)生的影響不是中性的,那么算法就必然是價值載荷而非中立的。一方面,無論是對于算法設計者、開發(fā)者還是算法部署者、使用者,算法輸出結(jié)果絕不是只停留于功利主義的純工具理性,不會只局限于對算法主體自身的功用,而是會對利益相關方和社會產(chǎn)生積極或消極影響。算法設計者通過選擇性地將其價值觀置于算法系統(tǒng),算法決策將會輸出多種預期的或意想不到的具有倫理意涵的結(jié)果(Gritsenko and Wood,2020),增強或削弱利益相關方的權利(Martin,2019)。比如,外賣平臺將“效率為先”的價值理念嵌入算法,相應地平臺算法就會嚴格控制和考核騎手的“送餐時間”,但真實場景的復雜性和不確定性可能導致算法預估時間偏短,對騎手造成巨大壓力和罰款的利益侵害。正因如此,2021年7月國家市場監(jiān)管總局等七部門要求外賣平臺對送餐時間采用“算法取中”而非“最嚴算法”。另一方面,算法結(jié)果具有不可預測性,尤其是機器學習算法本身的高度復雜性,疊加人的局限性和環(huán)境的動態(tài)變化,推動算法結(jié)果的不可預測性成為算法的內(nèi)在屬性。不可預測性使得算法在被部署和應用于社會領域的多個場景時,其結(jié)果具有不確定性,而一旦出現(xiàn)算法識別或算法錯誤,將會引發(fā)重大社會風險,產(chǎn)生社會倫理問題與價值爭議。

(三)算法權力崛起與濫用:算法責任出場的現(xiàn)實邏輯

無論是組織社會責任,還是個體社會責任,抑或是算法責任,其產(chǎn)生絕不只是復雜的理論推演結(jié)果,也不是純粹的理想主義構(gòu)念,而是根植于現(xiàn)實與來源于實踐,是多重現(xiàn)實因素和多元實踐現(xiàn)象演化的必然結(jié)果。算法責任的出現(xiàn)一方面可以一般化地歸因于社會責任正成為當今重要的時代精神和社會思潮,另一方面更重要的是要情境化地認識到,數(shù)智化技術正在對生產(chǎn)力和生產(chǎn)關系形成實質(zhì)性的重塑,革命性的算法廣泛滲透和深度應用于經(jīng)濟社會各個領域,“算法經(jīng)濟”“算法社會”和“算法生活”已經(jīng)日益盛行。在悄然而至的“算法時代”,無處不在的算法正在成為深刻影響經(jīng)濟社會發(fā)展和人類發(fā)展的顯性或隱性力量,算法權力的與日俱增(Beer,2017)和算法權力濫用引發(fā)的算法外部性不斷膨脹(吳梓源、游鐘豪,2018),使人們意識到算法應當被關進社會責任的“籠子”里,算法責任不是選擇題而是必答題,算法責任有其深刻的現(xiàn)實邏輯和時代烙印。

1.算法權力崛起孿生出匹配性的算法責任

無論是按照管理學的權責匹配原則,還是依據(jù)社會責任領域的“責任鐵律”(Iron Law of Responsibility),社會權力與社會責任無可爭辯地被認為是孿生體。在算法社會中,隨著算法越來越多地被部署和應用于司法、教育、醫(yī)療、交通、城市治理、社區(qū)管理、生活服務等社會領域,權力越來越多地出現(xiàn)和存在于算法之中(Lash,2007),算法甚至被表達為“算法權威”(Beer,2009)和“作為權力的算法”(Gillespie,2014)。算法由于在權力行使中扮演著日益重要的角色而成為社會中新的權力掮客(Kitchin,2017),是構(gòu)建與實現(xiàn)權力的機制(Kushner,2013),算法權力作為一種新型權力形態(tài)正在迅速崛起。一方面,算法日益強大的分類、搜索、過濾、排序、優(yōu)化等功能和自動化決策能力是算法權力的基礎(Beer,2009),這些功能和能力使得算法能夠作為“代理者”承載決策權,形成“功能和能力—決策權—算法權力”的轉(zhuǎn)化路徑。另一方面,按照技術烏托邦(Techno-utopian)視角或者技術精英(Technocratic)治理理論,無論是在個體的私人問題領域,還是在公共的社會問題領域,算法的支配力和控制力在不同程度上予以展現(xiàn)(Diakopoulos,2015),算法成為一種彌散性權力。對于前者,算法通過直接演變成為新的行為規(guī)范而對個體行為進行影響和控制,形成私人場域新的制約關系;對于后者,基于算法的治理已經(jīng)被廣泛而深度應用,算法與公權力的結(jié)合使得算法權力逐漸成為公共場域的“準公權力”。私人場域和公共場域的算法權力蘊含著算法的社會影響力和社會地位,相應地算法權力就由技術性權力演變成為社會權力。算法的社會權力不斷增長(Beer,2017),意味著算法作為“代理者”需要承擔與社會權力相匹配的社會責任,算法責任成為算法權力崛起的必然要求。

2.算法權力濫用催生出約束性的算法責任

社會責任內(nèi)生于主體行為對利益相關方和社會的影響(李偉陽、肖紅軍,2011),有效管理這些影響是主體應當履行的義務和責任。算法權力是一把“雙刃劍”,恰當運用將會對經(jīng)濟社會發(fā)展帶來積極影響,為利益相關方創(chuàng)造正向的多元價值增量,特別是,算法對人類認知“波蘭尼悖論”的突破將極大地革新人們的生產(chǎn)生活,表現(xiàn)出推動社會進步的顯著正外部性。反之,算法權力的不當使用將會對利益相關方和社會發(fā)展產(chǎn)生消極影響,嚴重時更是會帶來巨大破壞,形成超越傳統(tǒng)方式的強烈負外部性?,F(xiàn)實中,算法權力崛起的確也引發(fā)了算法權力異化的出現(xiàn)(張凌寒,2019),算法權力濫用造成利益相關方權利被侵蝕和社會利益受損的現(xiàn)象頻頻發(fā)生,其中既包括已有社會問題在算法中的移植甚至放大,如算法歧視、算法共謀,更為突出的是算法部署和應用衍生出越來越多的新的社會問題,如算法操縱、算法剝削、人工智能主體倫理挑戰(zhàn)。最為典型的例子是電商平臺濫用算法權力實施“大數(shù)據(jù)殺熟”,以及社交平臺濫用算法權力進行“民意操縱”。比如,2018年曝光的Cambridge Analytica公司事件中,該公司在2016年利用Facebook泄露的5000萬條用戶信息,借助算法對用戶的多維個人信息進行分析并預測其政治傾向,然后通過Facebook精準投放政治廣告,最終對他們在當年美國總統(tǒng)大選中的投票產(chǎn)生影響。進一步來看,算法權力濫用的背后是算法主體即算法開發(fā)者、設計者、部署者和應用者的不良動機與不當行為,算法不當使用造成的突出社會問題和嚴重負外部性必然要求對其進行有效管理與防范。最小化算法的負外部性和對社會負責任成為利益相關方和社會的普遍期望與強烈要求,算法責任作為約束與消解算法負外部性的基本規(guī)則就應運而生。

(四)算法責任的特殊性:作為新命題存在具有合理性

算法的代理者角色、算法的多元價值載荷、算法權力崛起與濫用等多視角透視表明,算法責任具有理論邏輯、歷史邏輯和現(xiàn)實邏輯的統(tǒng)一性,這為認識與理解算法責任的深刻內(nèi)涵和特殊性提供了基本導向。從算法作為代理者和價值載荷者出發(fā),算法責任即意味著算法對社會責任的承擔或承載,是組織社會責任或個體社會責任在算法活動層面的集中反映和深化拓展。按照社會責任的元定義,社會責任是主體“通過透明和道德的行為,有效管理自身決策和活動對社會、利益相關方、自然環(huán)境的影響,追求在預期存續(xù)期內(nèi)最大限度地增進社會福利的意愿、行為和績效”(李偉陽、肖紅軍,2011)。如果將這一元定義應用于算法活動層面,那么算法責任就可以界定為主體通過透明和道德的算法,有效管理算法決策和活動對社會、利益相關方、自然環(huán)境的影響,追求算法最大限度地增進社會福利的意愿、行為和績效。由此可見,算法責任要求算法是透明的和合乎道德的,算法決策和活動對利益相關方和社會的消極影響最小化、積極價值創(chuàng)造和社會福利增進最大化。進一步來看,算法活動通常包括算法開發(fā)設計與部署應用、算法本體構(gòu)造、算法決策3項內(nèi)容,它們分別從過程、本體、結(jié)果3個維度刻畫算法活動,相應地,算法責任也可以從本體、過程和結(jié)果3個維度予以綜合理解。算法責任的本體維度要求算法構(gòu)造本身飽含社會責任元素,過程維度意味著算法主體追求負責任的算法開發(fā)設計與部署應用,結(jié)果維度表現(xiàn)為算法決策結(jié)果是對社會負責任的。

盡管算法責任是組織社會責任在算法領域的深入和投射,甚至被認為是歸屬于組織社會責任的子集,但算法責任與組織社會責任之間仍然存在顯著差異,尤其是相對組織社會責任的其他子集或者組織承擔的其他責任,算法責任更是表現(xiàn)出多個方面的特殊性,具體包括:一是責任向度的綜合性。從對象來看,組織社會責任就是組織對不同利益相關方承擔的責任,通常包括股東責任、消費者責任、員工責任、合作伙伴責任、社區(qū)責任、環(huán)境責任等;從內(nèi)容來看,組織社會責任往往被認為涵蓋經(jīng)濟、社會、環(huán)境三重底線責任(Elkington,1998)。無論是構(gòu)成組織社會責任的每一特定利益相關方責任還是每一特定內(nèi)容的議題責任,它們各自均為單一向度,具有單一責任屬性。但算法責任屬于活動層面的社會責任,算法活動應當全面考慮股東、消費者、員工、合作伙伴、社區(qū)、環(huán)境等多個利益相關方的期望和訴求,涉及經(jīng)濟、社會、環(huán)境等多個方面影響,因此算法責任跨越對不同利益相關方承擔的責任,涵蓋算法活動中需要履行的經(jīng)濟、社會、環(huán)境三重底線責任。由此可見,算法責任是一種綜合性責任,具有多向度和復雜性。二是責任定位的代理性。算法作為一種“技術人造物”,是人的“代理者”,在人或組織作用于社會過程中起到中介或代理的作用,因此算法責任是算法代表(代理)人或組織與利益相關方和社會互動過程中產(chǎn)生的責任,本質(zhì)上是人或組織是否履行社會責任的意志反映。這意味著算法責任與傳統(tǒng)組織社會責任產(chǎn)生于組織直接作用于利益相關方和社會不同,屬于一種代理性責任。代理性責任一方面表明算法承載著委托人對利益相關方和社會應盡的責任,另一方面還要求算法不能藉由自我學習而出現(xiàn)代理偏差或機器錯誤。目前現(xiàn)實中出現(xiàn)的種種“算法亂像”本質(zhì)上是算法作為企業(yè)的“代理者”,執(zhí)行企業(yè)的“不道德”理念和行為的結(jié)果。三是責任形態(tài)的隱蔽性。算法是由一系列數(shù)據(jù)代碼構(gòu)成,算法主體將主觀決策和價值判斷嵌入于代碼之中,通過“看不見、摸不著”的代碼作用于利益相關方和社會,由此披上一層“算法面紗”。算法模型的復雜性和算法決策過程的“黑箱性”,使得算法作用于利益相關方和社會的過程具有高度的隱蔽性,隨之而來的是各種算法失當現(xiàn)象相較傳統(tǒng)情境更為隱性,如算法歧視比傳統(tǒng)意義的歧視更為隱蔽,算法操控也比人的直接操控更為隱蔽,其結(jié)果是算法責任成為一種高隱蔽性的責任形態(tài)。算法責任的特殊性意味著其作為一個新命題得以提出具有合理性,算法責任是一個有實質(zhì)意義的現(xiàn)實概念。

三、算法責任觀的縱向流變與動態(tài)迭代

算法責任觀是對算法本質(zhì)與算法責任本質(zhì)的認知,反映出社會主體對算法責任精神實質(zhì)的理解。算法責任觀相當程度上是社會主體對算法相關活動心智模式的映射,對社會主體開展算法相關活動的行為方式起到方向引領功能,不同的算法責任觀將會誘發(fā)差異化的算法行為。算法責任觀往往與社會主體所秉持的認知視角相關聯(lián),甚至受到當時社會思潮的較大影響,因此從不同時期對算法本質(zhì)與算法責任本質(zhì)認知的演變來看,算法責任觀大致經(jīng)歷了技術中立視域下的責任否定觀、技術倫理視域下的道德算法觀、人技信任視域下的“可信賴的算法”觀、社會責任視域下的“負責任的算法”觀等4種認知的流變與迭代(如表1所示)。

(一)技術中立視域下的責任否定觀

技術中立通常有4種理解:競爭中立、功能中立、責任中立和價值中立(鄭玉雙,2018)。競爭中立是指政府“非歧視”地對待各種技術,使其擁有公平競爭的機會。功能中立是指技術使命的實現(xiàn)只在于其遵循功能機制和原理發(fā)揮了作用,典型的是網(wǎng)絡中立。責任中立是技術功能與使用后果的分離,其由著名的“環(huán)球電影制片公司訴索尼公司案”確立的“具有實質(zhì)意義的非侵權用途”規(guī)則發(fā)展而來,典型的是“菜刀理論”。技術的功能中立和責任中立在底層上都隱含了價值中立的立場,從更深層次來看技術中立實質(zhì)上是價值中立(鄭玉雙,2018),因此這里的技術中立指的是技術價值中立。技術價值中立思想源遠流長,早在古希臘時期,亞里士多德就將技藝活動視為工具型活動,認為其目的存在于自身之外。技術價值中立觀點更為直接的基礎來源于韋伯的“價值中立”學說,技術在韋伯來看本質(zhì)上是一種形式合理性,而形式合理性不同于實質(zhì)合理性的價值判斷,它更多的是一種具有工具理性特征的事實判斷,由此技術被認為具有天然性的價值中立立場(吳梓源、游鐘豪,2018)。技術價值中立觀點的經(jīng)典表述來自德國存在主義哲學家雅斯貝爾斯(Karl Theodor Jaspers),他提出“技術本身沒有善惡之分,善用和惡用均有可能。技術本身并沒有包含完美觀念或邪惡觀念等任何觀念,這些觀念的源頭都在技術之外,即在人類自身之中”(Jaspers,1963)。技術價值中立觀點長期盛行并深入人心,對科學研究和技術創(chuàng)新影響深遠,早期對算法和算法責任的認知亦受到技術價值中立觀點的深刻影響。

在技術價值中立論來看,算法就像任何一項其他技術,其本身只有“工具性”而沒有“目的性”,只是亞里士多德界定的工具型活動,具有韋伯區(qū)分出來的形式合理性和純粹工具理性特征。也就是說,算法在本質(zhì)上只不過是一把“技術菜刀”,是一種中性的工具,是無關好壞選擇的價值中立(Hauer,2018),其如何被部署和應用,最終取決于人的目的,因此算法功能與實踐后果是分離的,算法具有責任中立的性質(zhì)。技術價值中立衍生的必然結(jié)果是對算法責任的否定,認為算法在倫理學上的中性使得算法沒有社會責任可言。按照技術價值中立觀點,如果一定要說算法責任,那么其唯一的內(nèi)容就是在算法功能發(fā)揮過程中遵循了算法的技術原理和功能機制,無關任何價值內(nèi)容?,F(xiàn)實中,F(xiàn)acebook創(chuàng)始人扎克伯格曾在美國國會面前堅守技術中立觀點,以此為Facebook不進行內(nèi)容審查的算法行為進行辯解;被稱作“卷積神經(jīng)網(wǎng)絡之父”的楊立昆(Yann LeCun)也曾經(jīng)隱含地從技術中立觀點出發(fā),將機器學習結(jié)果出現(xiàn)的偏見歸咎于數(shù)據(jù)集偏見而不是算法偏見;在著名的“快播案”審理中,被告就援引技術中立觀點并以“技術無罪”進行抗辯。這些都意味著,以技術價值中立論為基礎的算法責任否定觀曾經(jīng)不乏支持者。

然而,一方面,技術價值中立論一直以來就飽受詬病,不僅早期的法蘭克福學派對韋伯的“價值中立”學說進行了批判,而且在后現(xiàn)代主義和建構(gòu)主義理論背景下,最新的技術批判理論基于技術哲學語境對價值中立開展了更為細致的批判和反思。技術被認為在本質(zhì)上不是中性的,具有目的性與社會性雙重維度,是在特定社會情境下由設計者結(jié)合主觀性價值判斷而建構(gòu)的(吳梓源、游鐘豪,2018),是社會因素和技術因素相互混合的結(jié)果。技術價值中立論帶來的是技術與倫理、技術與社會的割裂,技術批判理論對價值中立的致命批判,導致技術價值中立論逐步被技術價值論所替代。另一方面,即使技術原理可以是中立的,但技術的應用必然包含應用主體的價值觀和主觀意圖(張凌寒,2021a)。算法亦是如此,它作為人的“代理者”,其開發(fā)、設計、部署和應用都承載著算法主體的意圖性和目的性,算法開發(fā)者和設計者的價值認知、價值偏好會顯性或隱性地對算法建構(gòu)產(chǎn)生影響。也就是說,算法實際上隱藏著開發(fā)者和設計者的立場,在許多情境下甚至已經(jīng)變成社會價值判斷的一部分(丁曉東,2020)。比如,人民網(wǎng)曾在2017年9月三評算法推薦,批判以今日頭條、一點資訊為代表的新聞推送平臺,其算法推薦依據(jù)的唯一標準是“能不能抓眼球、能不能吸引用戶”,反映出這些新聞推送平臺將商業(yè)利益最大化作為新聞媒體追求目標的價值立場。正因如此,2021年12月國家互聯(lián)網(wǎng)信息辦公室等四部門發(fā)布《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》,要求算法推薦服務提供者堅持主流價值導向,積極傳播正能量,促進算法應用向上向善。技術價值中立論的式微和對算法價值載荷認知的強化,推動算法責任否定論不斷遭到否定,取而代之的是基于技術倫理學的道德算法觀。

(二)技術倫理視域下的道德算法觀

技術倫理學的興起源于倫理學對技術問題的關注和技術哲學的倫理學轉(zhuǎn)向,尤其是20世紀60年代發(fā)生于德國的兩大爭論即圍繞“技術統(tǒng)治論”的爭論和圍繞實證主義的爭論,極大地推動了技術倫理學的發(fā)展。盡管技術倫理學出現(xiàn)了多個流派,如尤納斯(Hans Jonas)以義務論為基礎的責任倫理、羅波爾(G. Ropohl)以社會—技術系統(tǒng)論為基礎的消極功利主義、胡比希(Christoph Hubig)以價值論為基礎的權宜倫理、哈斯泰特(Heiner Hastedt)以商談倫理學為基礎的商談倫理,但它們都普遍地蘊含了對技術與倫理之間關系的思考,反對技術價值中立觀點,認為技術是價值載荷的,技術本身蘊含著價值。技術倫理學既關注于人與技術之間的倫理關系,也涉及技術倫理主體的道德性(賈璐萌、陳凡,2021)。隨著傳統(tǒng)技術倫理學向現(xiàn)代技術倫理學的轉(zhuǎn)變,技術倫理學研究范式由“外在進路”轉(zhuǎn)向“內(nèi)在進路”,技術倫理學更加強調(diào)“物轉(zhuǎn)向”(Thingly Turn)。拉圖爾(Bruno Latour)提出的行動者網(wǎng)絡(Actor-Network)理論、哈拉維(Donna Haraway)提出的賽博格(Cyborg)理論和皮克林(Andrew Pickering)提出的沖撞(Mangle)理論都試圖超越傳統(tǒng)的人與物二元對立關系。以此為基礎,現(xiàn)代技術倫理學將技術物納入道德行動體,認為技術物能夠滿足道德行動體界定的因果效應標準、代理標準和道德自主性標準(陳凡、賈璐萌,2015),從而賦予技術物一定的“能動性”和倫理價值,形成人與技術的“混合行動體”。從道德行動體層面來看,技術物的倫理價值可以通過“道德物化”(Verbeek,2006)予以實現(xiàn)。現(xiàn)代技術倫理學的核心思想引發(fā)人們對科學研究和技術創(chuàng)新的重新認知,也催生對算法和算法責任的新思考。

按照現(xiàn)代技術倫理學的觀點,算法作為技術物不再只是技術工具論下的純粹手段或工具,而是具有倫理意向性,載荷倫理價值,是人工道德行動體。在Verbeek(2008)界定的人—技術—世界的賽博格關系(Cyborg Relation)中,人與算法的關系是交互而非相互作用,算法作為擁有自我推理能力的技術人工物,被認為是伊德(Don Ihde)所言的“它者”,因此可以作為道德行動體而存在。實際上,Moor(2006)通過層次模式將人工道德行動體區(qū)分為倫理影響型道德行動體、隱性道德行動體、顯性道德行動體和完全道德行動體4種類別,而具有不同“能動性”的算法相應地歸屬于不同類別道德行動體?;谒惴ū举|(zhì)上是人工道德行動體的定位,技術倫理學認為算法責任的核心是合乎倫理要求,算法倫理成為算法責任的基本構(gòu)成。比如,在國際電氣電子工程師學會(IEEE)2017年發(fā)布的《人工智能設計的倫理準則》(第2版)中,人權、福祉等一般性倫理原則被認為是人工智能合乎倫理的設計、開發(fā)和應用需要遵循的原則。不僅如此,算法作為人工道德行動體應當符合Wallach和Allen(2009)提出的操作性道德、功能性道德和完全道德能動性(Full Moral Agency)要求,成為“在道德上可接受的算法或合乎倫理的算法”(李倫、孫保學,2018),即道德算法。如果從技術倫理學的“內(nèi)在進路”研究范式來看,道德算法可以認為是算法倫理的核心,算法責任就轉(zhuǎn)化為道德算法。道德算法通常有“自上而下”的倫理規(guī)范和道德標準嵌入算法、“自下而上”的算法道德學習和道德行為探索、“自上而下”與“自下而上”相結(jié)合的“混合型”方式等(Wallach and Allen,2009)。

基于技術倫理學的道德算法觀在理論上和現(xiàn)實中都受到廣泛關注,產(chǎn)生了較大影響,但這一算法責任觀完全聚焦于算法責任的單一倫理維度,不僅容易造成對算法責任理解的“狹隘化”,難以使算法責任真正對社會負責任,而且道德算法本身也存有爭議,能否破解現(xiàn)實中的倫理悖論仍被質(zhì)疑,算法依然無法被真正信任。比如,無人駕駛汽車碰撞算法仍然無法解決“電車難題”(Trolley Problem)的倫理悖論:麻省理工學院曾于2018年公布一項來自233個國家和地區(qū)數(shù)百萬用戶關于自動駕駛汽車發(fā)生虛擬車禍時的道德決策測驗,發(fā)現(xiàn)較為一致的全球偏好是更傾向于拯救人類而不是動物、拯救多數(shù)人犧牲少數(shù)人、優(yōu)先拯救兒童,但作為全球首個實施自動駕駛倫理道德標準的國家,德國在其準則中明確規(guī)定“當自動駕駛汽車發(fā)生不可避免的事故時,任何基于年齡、性別、種族、身體屬性或任何其他區(qū)別因素的歧視判斷都是不允許的”。實際上,不僅存在如上的認知分歧,而且無論優(yōu)先選擇拯救誰的生命,都會引發(fā)強烈的道德爭議,并使某些人感到不安,無人駕駛汽車碰撞算法依然無法走出道德困境。鑒于此,超越純粹的技術倫理視角,算法責任觀邁向以人類—技術(“人技”)信任為基礎的更加全面的“可信賴的算法”觀。

(三)人技信任視域下的“可信賴的算法”觀

人技信任來源于信任理論,是信任理論在人類與技術互動中的應用與拓展。按照信任的制度主義研究范式,信任被認為是復雜社會的一種簡化機制(Luhmann,1979),是個體“對一個人或一個系統(tǒng)之可依賴性所持有的信心,在一系列給定的后果或事件中,這種信心表達了對誠實或他人的愛的信念,或者,對抽象原則(技術知識)之正確性的信念”(安東尼·吉登斯,2000)。這意味著信任既包括人對人的信任,也包括人對(社會)系統(tǒng)的信任,前者是以對他人的誠實或愛這些道德品質(zhì)的信賴為基礎,后者是以對系統(tǒng)的原則即抽象原則(技術知識)的正確性的信賴為基礎。一方面,由于技術物在現(xiàn)代技術倫理學已被認為是道德行動體,因此人對人的信任可以延伸到技術物,形成人對技術物的信任;另一方面,技術系統(tǒng)的社會嵌入使得技術系統(tǒng)轉(zhuǎn)化為社會技術系統(tǒng),由此人對社會系統(tǒng)的信任可以延伸到技術系統(tǒng),形成人對技術系統(tǒng)的信任。人對技術物的信任和人對技術系統(tǒng)的信任共同構(gòu)成人對技術的信任,即人技信任。更進一步,信任因為人們建立預期的差異性而存在不同層次,Barber(1983)將其歸結(jié)為3類:第一層次是普遍信任,是對自然準則和道德的社會秩序形成預期而構(gòu)建的信任;第二層次是能力信任,是對他人能夠勝任所扮演的社會角色形成預期而構(gòu)建的信任;第三層次是責任信任,是對另一方能夠承擔所托付的責任和義務形成預期而構(gòu)建的信任。延伸至人技信任領域,普遍信任是人對技術遵守自然準則和社會秩序的信任,也可以稱為合規(guī)信任;能力信任是人對技術本身功能性和可靠性的信任,也可以稱為功能信任;責任信任是人對技術能夠合乎倫理地發(fā)揮作用的信任,也可以稱為倫理信任。也就是說,人技信任包括合規(guī)信任、功能信任和倫理信任3個層次。人技信任理論大大拓展了人們對科學研究和技術創(chuàng)新的認知,尤其是對算法和算法責任認知的再次迭代。

依循人技信任理論,人對技術物的信任意味著算法被看作人工道德行動體,而人對技術系統(tǒng)的信任則蘊含著算法系統(tǒng)被看作一種抽象系統(tǒng),因此算法是道德行動體和抽象系統(tǒng)的混合體。相應地,人技信任理論認為算法責任在本質(zhì)上是要構(gòu)建人對算法的信任,算法信任(張欣,2019b)是算法責任的核心,即“可信賴的(Trustworthy)算法”觀??尚刨嚨乃惴ㄔ谠缙谥饕菑乃惴ū旧淼馁|(zhì)量角度予以界定(李應潭,1999),但在人技信任理論來看,可信賴的算法應涵蓋合規(guī)信任、功能信任和倫理信任3個層次。在現(xiàn)實中,歐盟2019年發(fā)布的《可信賴的人工智能倫理準則》在底層邏輯上與這3個層次信任相吻合,它將可信賴的人工智能(算法)分為法律、倫理和技術3個組成部分,即合乎法律、合乎倫理和技術穩(wěn)健,每一部分為必要但非充分條件(閆宏秀,2019)。中國信息通信研究院與京東探索研究院2021年聯(lián)合發(fā)布的《可信人工智能白皮書》認為,可信賴的人工智能(算法)應當可控可靠、透明可釋、隱私保護、明確責任和多元包容,這實際上也可歸入合規(guī)信任、功能信任和倫理信任的框架。相較于技術倫理視域下的道德算法觀,可信賴的算法在算法倫理之外增加了算法合規(guī)和技術可信,技術可信既包括算法的穩(wěn)健性,也意涵著算法透明和可解釋性。算法透明強調(diào)將算法運算數(shù)據(jù)、源代碼和架構(gòu)對外公開,算法可解釋性則在此基礎上提出更高要求,強調(diào)算法能夠被數(shù)據(jù)主體或用戶所理解。算法透明和可解釋性對于可信賴的算法至關重要,不僅是破解越來越普遍的算法“黑箱”問題的根本要求(Criado et al.,2020),而且是確保算法合乎倫理和算法合規(guī)的重要機制(Martin,2019)。盡管“可信賴的算法”觀對道德算法觀進行了超越,對算法責任認知的廣度與深度都有明顯延拓,但可信賴的算法主要聚焦于人對算法的信任,一方面缺乏從整個社會視角洞察算法對社會的影響和貢獻,人對算法的信任并不一定就意味著算法對社會負責任,另一方面人對算法的信任是一個整體層面的籠統(tǒng)性概念,缺乏從具象化的利益相關方視角界定算法對利益相關方的價值和責任,在操作層面未必能夠形成所有利益相關方對算法的信任。由此,對算法責任的認知由“可信賴的算法”觀進一步轉(zhuǎn)向社會整體視角和利益相關方視角,即以社會責任理論為基礎的“負責任的算法”觀。

(四)社會責任視域下的“負責任的算法”觀

雖然真正意義的社會責任概念產(chǎn)生尚不足百年,但社會責任理論卻經(jīng)歷了從興起到繁榮的過程,呈現(xiàn)出越來越被主流經(jīng)濟學與管理學所接受的趨勢。目前對社會責任概念的界定基本上都是特指企業(yè)社會責任或組織社會責任,前者經(jīng)歷了“狹義企業(yè)社會責任→企業(yè)社會回應→企業(yè)社會表現(xiàn)→企業(yè)公民”的演化(Bakker et al.,2005),后者的典型代表是ISO(2010)做出的社會責任定義。盡管如此,目前對社會責任概念的界定在元層次仍可以拓展至和適用于一般性社會主體,社會責任在理念維度包括外部視野、底線思維、可持續(xù)性原則,在行為維度包括社會與環(huán)境風險防范、綜合價值創(chuàng)造、透明溝通、利益相關方合作、社會資源整合與優(yōu)化配置,在內(nèi)容維度包括經(jīng)濟議題、社會議題、環(huán)境議題,在制度維度主要是社會責任融入(肖紅軍,2020a)。隨著社會責任理念的流行和社會責任理論向縱深發(fā)展,負責任投資、負責任消費、負責任采購、負責任研究與創(chuàng)新等衍生性理論不斷出現(xiàn),推動社會責任理論在專業(yè)領域的深度應用和二次開發(fā)。其中,負責任研究與創(chuàng)新理論是社會責任理論與研發(fā)創(chuàng)新理論的結(jié)合,形成研發(fā)創(chuàng)新的新范式和新規(guī)范。負責任研究與創(chuàng)新指的是社會行動者與創(chuàng)新者相互擔責的透明互動過程,且這一創(chuàng)新過程及其市場產(chǎn)品符合(倫理)可接受性、可持續(xù)性和社會發(fā)展進步的要求(Von Schomberg,2013)。負責任研究與創(chuàng)新包括預期性、自反性、包容性、回應性(Owen et al.,2012;Stilgoe et al.,2013)和可持續(xù)性、關懷(Burget et al.,2017)6個維度。社會責任理論及其衍生的負責任研究與創(chuàng)新理論更加深刻地反映主體與社會的應然關系,更加透徹地揭示社會主體行為和研究與創(chuàng)新活動的高階規(guī)律,形成對算法和算法責任認知的再深化。

從社會責任理論來看,算法被隱含地認為是一種社會性存在,是作為代理者的中介角色存在。這意味著算法應當對社會負責任,不僅需要符合透明和道德的行為要求,更要最大限度地增進社會福利,不僅要堅持外部視野、底線思維、可持續(xù)性原則,更要強調(diào)社會與環(huán)境風險防范、綜合價值創(chuàng)造、透明溝通、利益相關方合作、社會資源整合與優(yōu)化配置。從負責任研究與創(chuàng)新理論來看,算法被認為是一種研究與創(chuàng)新活動,具有潛在社會影響和利益相關方影響。這意味著算法應當成為負責任的研究與創(chuàng)新活動,符合預期性、自反性、包容性、回應性、可持續(xù)性、關懷要求,確保倫理上的可接受性和滿足社會需要與期望(梅亮、陳勁,2015)。綜合這兩個方面,算法責任的目標和核心就是要構(gòu)建負責任的算法(Kroll et al.,2017;Binns,2018;Lepri et al.,2018),既要推動算法最小化其消極影響,也要增進算法最大化其積極價值,同時還要滿足負責任研究與創(chuàng)新要求。實際上,中國2019年發(fā)布的《新一代人工智能治理原則——發(fā)展負責任的人工智能》從“推動經(jīng)濟、社會及生態(tài)可持續(xù)發(fā)展”的定位出發(fā),將負責任的人工智能(算法)界定為8個方面,包括和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作和敏捷治理,這一界定基本上反映出社會責任理論、負責任研究與創(chuàng)新框架的結(jié)合。與可信賴的算法相比,負責任的算法更加突出算法責任的社會視角和利益相關方視角,更加強調(diào)算法對可持續(xù)發(fā)展的貢獻,更加注重全過程的負責任管理,在算法合規(guī)、技術可信和算法倫理基礎上,增加了社會與環(huán)境風險防范、綜合價值創(chuàng)造、利益相關方價值創(chuàng)造、社會資源整合與優(yōu)化配置、負責任研究與創(chuàng)新要求。進一步來看,隨著社會責任日益成為當今重要社會思潮,社會對日益嚴重的算法失當現(xiàn)象和算法責任缺失問題提出越來越迫切的矯正期望,負責任的算法成為更加合意的算法新形態(tài)和更可持續(xù)的算法責任觀。

四、算法責任畫像的多維構(gòu)面與全景透視

無論是構(gòu)建負責任的算法,還是開展有效的算法責任治理,其基礎都是要對算法責任的構(gòu)造有一個全面系統(tǒng)的解構(gòu)。而且,算法責任作為一個新生事物,絕不能僅僅停留于概念層面或理念層次,而是需要對其構(gòu)面和要件具象化,識別其內(nèi)容構(gòu)成與范疇邊界,繪制算法責任的全景畫像。實際上,現(xiàn)實中對算法衍生出諸多現(xiàn)象的爭論,相當程度上是因為對“算法責任到底包括哪些內(nèi)容”缺乏清晰界定,更別說對算法責任范疇邊界和完整構(gòu)成形成基本共識,因此亟需對算法責任的構(gòu)成要素與范疇邊界進行深入探究。

(一)算法責任構(gòu)面的建構(gòu)方法與框架

現(xiàn)有對算法責任構(gòu)面的研究幾乎都聚焦于算法責任內(nèi)容,且絕大多數(shù)停留于特定責任議題,直接性與真正意義上的算法責任內(nèi)容界定研究非常稀少。盡管如此,近年來與算法高度關聯(lián)的人工智能和機器人領域出現(xiàn)了較多倫理倡議與準則,這類倡議與準則從2015年至今全球已經(jīng)超過50個(宋冰,2020),形成了所謂的算法倫理的“中層原則”(孟令宇,2019),它們一定程度上可以看作算法責任內(nèi)容界定的相關成果。從這種意義上來說,目前關于算法責任內(nèi)容界定的方法主要有兩類:第一類是經(jīng)驗主義方法,即依據(jù)現(xiàn)實中的良好實踐或基于問題導向的解決方案予以確定算法責任的內(nèi)容構(gòu)面。典型的是多項已經(jīng)公布的人工智能(算法)倫理準則,如歐盟發(fā)布的《可信賴的人工智能倫理準則》提出,可信賴的人工智能應當具有7個倫理構(gòu)面,包括人的管理和監(jiān)督、穩(wěn)健性和安全性、隱私和數(shù)據(jù)管理、透明度、多樣性和非歧視性以及公平性、社會和環(huán)境福祉、問責制;G20在“G20人工智能原則”中提出了可信人工智能的負責任管理原則,包括包容性增長與可持續(xù)發(fā)展及人類福祉、以人為本的價值觀和公平、透明度和可解釋性、健壯性及信息安全性和物理安全性、問責制。第二類是規(guī)范主義方法,即從理論出發(fā)進行正向的邏輯推演而確定算法責任的內(nèi)容構(gòu)面。袁曾(2019)以無人駕駛汽車的算法應用為例,依據(jù)責任鏈理論將算法責任構(gòu)成區(qū)分為遵循倫理規(guī)則的研發(fā)者責任、承擔基礎性義務的生產(chǎn)者責任、履行恰當義務的使用者責任和維持行業(yè)良性發(fā)展的監(jiān)管者責任等構(gòu)面;浮婷(2020)綜合企業(yè)社會責任“三重底線”理論、利益相關方理論、負責任研究與創(chuàng)新理論,提出算法責任內(nèi)容包括底線合規(guī)、滿足期望、價值共創(chuàng)、有意義的透明、利益相關方參與和“預見性—反思性—包容性—回應性”的負責任研究與創(chuàng)新。

從已有研究來看,在方法論層面,經(jīng)驗主義方法和規(guī)范主義方法都是算法責任研究的重要方法,尤其是經(jīng)驗主義方法為算法責任內(nèi)容構(gòu)面的確定提供了多個倫理維度與議題的借鑒,規(guī)范主義方法提供的不同理論視角為算法責任內(nèi)容的界定具有啟發(fā)意義。然而,無論是經(jīng)驗主義方法還是規(guī)范主義方法,也都存在較為明顯的缺陷和不足。經(jīng)驗主義方法雖然羅列出人工智能(算法)倫理的原則性構(gòu)面,但它們的底層邏輯不明確,學理支撐不足,不同構(gòu)面之間缺乏邏輯性,構(gòu)面的完整性難以自證,基本停留于道義論的普適價值觀層面,缺乏對算法責任的系統(tǒng)化與具體化。規(guī)范主義方法雖然依據(jù)不同理論推演出算法責任內(nèi)容的不同構(gòu)成,但一方面它們停留于對選定的既有理論進行移植性應用,沒有對算法責任的內(nèi)在邏輯進行剖解,結(jié)果是算法責任內(nèi)容構(gòu)面不系統(tǒng)、不全面、不嚴謹,且與算法責任的本質(zhì)內(nèi)涵與應有之義存在不同程度的偏頗,另一方面它們局限于將算法作為一個整體,沒能區(qū)分算法的不同角色及其責任的差異性,沒有深入算法運行的內(nèi)在機理與實現(xiàn)過程,結(jié)果是算法責任內(nèi)容構(gòu)面不準確、不具體、不深入,算法責任的“算法特點”體現(xiàn)不充分。進一步來看,經(jīng)驗主義方法和規(guī)范主義方法都沒有考究算法責任畫像的完整構(gòu)成元素,對除了責任內(nèi)容之外的其他構(gòu)面缺乏研究,結(jié)果必然是沒能建立算法責任的完整畫像。

鑒于現(xiàn)有研究的缺陷和不足,需要從界定方法與邏輯思路上對算法責任的構(gòu)面進行重新審視與再建構(gòu),基本方向是回歸算法責任的本質(zhì)內(nèi)涵,經(jīng)由規(guī)范主義方法推演建立算法責任的內(nèi)在邏輯鏈條,衍生形成算法責任的構(gòu)面框架,結(jié)合規(guī)范主義方法和經(jīng)驗主義方法將各構(gòu)面元素具體化,最終建立算法責任的完整畫像。首先,由于算法責任是算法對社會責任的承擔或承載,因此算法責任在元層面是社會責任。社會責任的緣起在于主體與社會的關系,對于算法責任本質(zhì)內(nèi)涵的理解也需要追溯于算法與社會的關系。按照系統(tǒng)層面的算法概念,算法涉及人與機器交互的決策機制(丁曉東,2020),這意味著算法與社會的關系必然涉及到人的“卷入”,進而演變成為人、算法、社會三者之間的關系,即算法責任的認知起點在于人、算法、社會三者之間的關系。其次,人、算法、社會三者關系中,最基礎、最核心的是人與算法在決策中的自主權關系,可以用“自主度”來衡量兩種自主權之間的比例關系(李升,2020)。依據(jù)“自主度”水平,算法的代理者角色可以進一步細化。在當前弱人工智能情境下,當算法在決策中完全沒有自主權時,“自主度”將處于最高等級水平,算法在人與算法關系中成為純粹執(zhí)行者;當人在決策中占有主導性自主權,算法決策處于輔助地位時,“自主度”將處于較高等級水平,算法在人與算法關系中屬于輔助決策者;當算法在決策中擁有主導性的自主權,成為人類決策的接管者(Beer,2017),“自主度”將處于較低等級水平,算法在人與算法關系中成為獨立決策者。再次,由算法責任認知起點引申出來的兩個基本問題是責任性質(zhì)和責任基礎,前者依據(jù)人、算法、社會三者關系,可以將算法責任區(qū)分為載體責任、延體責任和聯(lián)體責任,后者由社會責任形成的本質(zhì)根源,可以將算法責任界定為以功能為基礎的責任、以期望為基礎的責任和以影響為基礎的責任。最后,社會責任的核心問題包括由誰負責、對誰負責、負責什么、負責到什么程度(周祖城,2017)和如何負責(肖紅軍,2020a),相應地,算法責任也應涵蓋這五個維度,即責任主體、責任對象、責任內(nèi)容、責任程度和責任機制。

綜上分析,算法責任的完整構(gòu)面包括責任緣起、責任性質(zhì)、責任基礎、責任主體、責任對象、責任內(nèi)容、責任程度和責任機制,它們之間的關系如圖1所示。

(二)基于構(gòu)面具體化的算法責任全景畫像

算法責任畫像的輪廓由8個構(gòu)面以某種邏輯關系勾勒而成,但畫像的詳細元素與完整畫面仍然需要對每一個構(gòu)面具體化。算法作為純粹執(zhí)行者、輔助決策者和獨立決策者時,它們的責任緣起、責任性質(zhì)、責任基礎、責任主體、責任對象、責任內(nèi)容、責任程度和責任機制存在差異,由此它們的畫像也不盡相同。進一步來看,由于算法責任是組織社會責任或個體社會責任在算法活動層面的集中反映和深化拓展,且社會責任視域下的“負責任的算法”觀實現(xiàn)了對技術中立視域下的責任否定觀、技術倫理視域下的道德算法觀、人技信任視域下的“可信賴的算法”觀的超越,因此算法責任畫像的勾勒應以社會責任視域下的“負責任的算法”觀為理論指引,以便刻畫出來的算法責任能夠支持構(gòu)建負責任的算法。

1.算法作為純粹執(zhí)行者的算法責任畫像

純粹執(zhí)行者意味著算法并不自主做出任何決策,而是以代碼的形式完全按照人的指令予以執(zhí)行,將人的決策意圖轉(zhuǎn)化為輸出結(jié)果,并作用于利益相關方和社會。在純粹執(zhí)行者的算法定位下,從責任緣起來看,人(算法主體)、算法、社會的關系呈現(xiàn)為“人→算法→社會”的依序作用關系,算法責任緣起于這一關系模式。從責任性質(zhì)來看,“人→算法→社會”表明算法成為人與社會互動的介質(zhì),算法對于人的決策和活動作用于社會發(fā)揮載體功能,算法責任屬于載體責任,即承載著人(算法主體)對社會應當承擔的責任,由此算法責任在本質(zhì)上是組織或個體社會責任的延續(xù)。從責任基礎來看,組織或個體社會責任由組織或個體在經(jīng)濟社會中的功能定位決定,包括核心社會功能和衍生社會功能(肖紅軍、李平,2019)。算法完全是算法主體發(fā)揮核心社會功能和衍生社會功能的載體,算法責任成為以功能為基礎的責任。從責任主體來看,算法責任的承擔主體是算法主體,算法開發(fā)與設計者、部署與應用者需要對利用算法開展相關事項的行為和結(jié)果負責。從責任對象來看,以功能為基礎的責任意味著算法責任關注于算法參與的核心社會功能和衍生社會功能相關的利益相關方,這些利益相關方并不是算法主體的泛泛一般化利益相關方,而是與這些功能活動或事項相關聯(lián)的特定利益相關方,即算法責任的負責對象是特定利益相關方。

從責任內(nèi)容來看,算法責任是組織或個體社會責任內(nèi)容在算法參與的相關活動或事項上的具體化,按照李偉陽(2010)界定的企業(yè)社會責任內(nèi)容邊界,算法責任既包括最大限度實現(xiàn)與活動或事項相關的經(jīng)濟、社會、環(huán)境綜合價值(核心社會功能),又要求承擔對各具體特定利益相關方的責任(衍生社會功能)。比如,搜索引擎可以看作是純粹執(zhí)行者,其算法責任是搜索引擎提供商的使命功能在信息搜索服務活動上的具體化,既包括通過提供智能搜索提高信息獲取可能性與效率,改變信息不對稱和降低交易成本,促進經(jīng)濟發(fā)展與帶來生活便捷,也要求對智能搜索用戶承擔權益保護、倫理道德方面的責任。曾經(jīng)發(fā)生的“魏則西事件”就是競價排名搜索算法對百度公司商業(yè)利益至上理念的具體執(zhí)行,是百度公司對用戶缺乏承擔商業(yè)道德責任在搜索算法上的反映。從責任程度來看,肖紅軍和李平(2019)將社會責任的擔責程度區(qū)分為“底線要求”“合理期望”和“貢獻優(yōu)勢”3個等級,在算法責任中可以進一步區(qū)分為對算法主體和對算法本身的3個層級擔責程度。算法作為純粹執(zhí)行者時,算法責任的重點是算法主體在相關活動與事項中遵循“底線要求”“合理期望”和“貢獻優(yōu)勢”的擔責。從責任機制來看,算法責任的實現(xiàn)基本上可以采用組織或個體社會責任的實現(xiàn)方式,即社會責任融入(肖紅軍,2020a),將社會責任理念和要求融入算法參與的相關活動或事項。

2.算法作為輔助決策者的算法責任畫像

輔助決策者意味著算法在決策中具有一定的自主權,參與或代替人做出部分決策,由此算法不僅是人的指令執(zhí)行者,而且在一定范圍和邊界內(nèi)代理人成為自主決策者。盡管如此,占據(jù)主導地位的依然是人的自主性,即便算法做出輔助決策,其決策也是人的決策意圖的反映,算法決策的輸入、過程和結(jié)果都處于人的控制之下。在輔助決策者的算法定位下,從責任緣起來看,人(算法主體)、算法、社會的關系同時呈現(xiàn)兩種模式,即“人→算法→社會”和“算法→社會”,并以第一種模式為主、第二種模式為輔。從責任性質(zhì)來看,算法除了發(fā)揮“人→算法→社會”的載體功能之外,“算法→社會”表明算法決策也將直接作用于利益相關方和社會,算法責任屬于延體責任,即算法作為人(算法主體)的延展體對社會應當承擔的責任,算法責任實質(zhì)上是對組織或個體社會責任的延拓。從責任基礎來看,算法作為人(算法主體)的延展體,利益相關方和社會期望算法輔助決策考慮利益相關方訴求并對社會負責任,也對算法主體依托算法負責任地開展相關活動或事項持有期望,算法責任符合Carroll(1979)從期望視角定義的社會責任,由此成為以期望為基礎的責任。從責任主體來看,算法的代理者角色和延展體定位使得算法決策是人的決策的延續(xù),受控于人,因此算法主體仍然是算法責任的承擔主體,算法開發(fā)與設計者、部署與應用者應當對算法決策的過程和結(jié)果承擔責任。從責任對象來看,算法責任不僅關注算法主體開展相關活動或事項的關聯(lián)特定利益相關方,而且需要考慮與算法本身相關聯(lián)的特定利益相關方,算法責任的行使對象涵蓋這兩個方面的特定利益相關方。

從責任內(nèi)容來看,以期望為基礎的責任要求對算法責任內(nèi)容的界定需要考慮利益相關方和社會對算法主體與算法決策的期望內(nèi)容,相應的算法責任既包括算法主體開展相關活動或事項的一般性組織或個體社會責任內(nèi)容,又囊括算法開發(fā)設計、部署應用和決策結(jié)果全過程對關聯(lián)特定利益相關方承擔的責任內(nèi)容。比如,智能輔助辦案系統(tǒng)是人工智能算法在司法領域的典型應用,其承擔的角色即是輔助決策者,此時的算法責任除了司法機構(gòu)在智能輔助辦案系統(tǒng)所參與的案件審理和裁判中承擔相應的司法責任之外,還包括司法機構(gòu)在開發(fā)設計和部署應用智能輔助辦案系統(tǒng)中對原告、被告、辯護律師、法官等利益相關方承擔算法透明度和可解釋性、算法正義等方面的責任。美國著名的威斯康辛州訴盧米斯案(State v. Loomis)中,初審法院在量刑中參考和使用了犯罪風險智能評估系統(tǒng)COMPAS對被告累犯風險的評估結(jié)果,但被告對初審法院借由COMPAS專業(yè)性和商業(yè)機密而未予公開算法,以及對COMPAS將性別、種族等個人因素納入評估范疇而可能出現(xiàn)算法偏見提出質(zhì)疑,反映出人們對算法開發(fā)設計和部署應用中相關責任內(nèi)容的關注。從責任程度來看,算法責任中的一般性組織或個體社會責任履行涵蓋“底線要求”“合理期望”和“貢獻優(yōu)勢”3個層級,但與算法本身相關聯(lián)的特定利益相關方責任,其履行的重點是“底線要求”和“合理期望”兩個層次。從責任機制來看,算法責任的實現(xiàn)既要求將社會責任理念和要求融入算法主體開展的相關活動或事項中,更應當在算法開發(fā)設計、部署應用和決策結(jié)果全過程中融合社會責任理念和要求。

3.算法作為獨立決策者的算法責任畫像

獨立決策者意味著算法在決策中的自主權達到較高水平,機器學習特別是深度學習推動算法決策的高度自動化,算法決策的領域范疇顯著擴大并日益代替人的決策(Krafft et al.,2020),算法決策居于主導性地位,其決策結(jié)果直接作用于利益相關方和社會。然而,算法成為主要決策者并不意味著算法對人的完全替代,也不是人對算法的完全失控,算法開發(fā)設計和部署應用仍然是人的目的意圖的反映,嵌入人的價值判斷,算法決策結(jié)果也代表人的決策。在獨立決策者的算法定位下,從責任緣起來看,人(算法主體)、算法、社會的關系同時表現(xiàn)出“人→算法→社會”和“算法→社會”兩種模式,但以第二種模式為主、第一種模式為輔。從責任性質(zhì)來看,雖然算法無法作為社會主體而存在,但它作為代替人的重要決策者和“算法→社會”為主的關系模式,說明算法是利益相關方和社會的直接作用者,由此算法和人聯(lián)合對利益相關方和社會產(chǎn)生影響,算法責任屬于聯(lián)體責任,即算法作為人(算法主體)的聯(lián)合體共同對社會承擔的責任。從責任基礎來看,聯(lián)體責任和算法作為獨立決策者意味著算法責任的核心是負責任的算法決策,其根本要求是考慮和管理算法決策對利益相關方和社會的影響,包括消極影響和積極影響,算法責任就是要最小化算法決策的消極影響和最大化算法決策的積極影響,這與ISO(2010)定義的社會責任相吻合,由此算法責任可以被認為是以影響為基礎的責任。從責任主體來看,理論上算法責任的直接承擔主體應當是由人(算法主體)和算法組成的聯(lián)合體,但由于算法依然是人的目的意圖的反映,且聯(lián)合體中算法主體對算法具有較大影響,因此最終的責任主體可以歸結(jié)于算法主體。從責任對象來看,除了算法主體開展相關活動或事項的關聯(lián)特定利益相關方和與算法本身相關聯(lián)的特定利益相關方外,算法決策的廣泛性和獨立性使得算法對整個社會產(chǎn)生影響,更廣泛的社會主體也將成為算法責任的擔責對象。

從責任內(nèi)容來看,以影響為基礎的責任要求對算法責任內(nèi)容的界定需要分析算法主體行為與算法決策對利益相關方和社會產(chǎn)生的消極影響和積極影響,算法責任的內(nèi)容即是最小化每一項具體的消極影響和最大化每一項具體的積極影響。它們既反映于算法作為輔助決策者的兩個層面算法責任內(nèi)容,更強調(diào)算法影響的可控性,后者要求將預期性、自反性、包容性、回應性、可持續(xù)性、關懷的負責任研究與創(chuàng)新納入算法責任的內(nèi)容范疇。比如,無人駕駛系統(tǒng)可以認為是獨立決策者,其算法責任除了更加便捷舒適的交通出行,以及算法開發(fā)設計、部署應用過程中承擔算法透明度、可解釋性、數(shù)據(jù)隱私等責任內(nèi)容外,還需要考慮無人駕駛系統(tǒng)可能引發(fā)的安全風險、社會風險、倫理風險等,強調(diào)其研究與創(chuàng)新行為對社會負責任,即符合預期性、自反性、包容性、回應性、可持續(xù)性、關懷要求。從責任程度來看,算法責任的3個層面內(nèi)容都應重點涵蓋“底線要求”和“合理期望”兩個層次,而其中的一般性組織或個體社會責任可考慮“貢獻優(yōu)勢”。從責任機制來看,算法責任的實現(xiàn)除了需要社會責任融入之外,更強調(diào)構(gòu)建與應用負責任研究與創(chuàng)新機制,推動算法符合預期性、自反性、包容性、回應性、可持續(xù)性、關懷要求。此外,鑒于算法更加高階和算法決策的獨立性,算法責任的實現(xiàn)應當重視敏捷治理,推動算法能夠自我修正、自我迭代、自我優(yōu)化,確保算法發(fā)展始終有利于人類。

綜合算法作為純粹執(zhí)行者、輔助決策者和獨立決策者的責任構(gòu)面具體化,算法責任的完整畫像如表2所示。

五、算法責任治理的邏輯理路與范式建構(gòu)

算法日益廣泛和深刻的社會影響,交織現(xiàn)實中越來越嚴重的算法責任缺失現(xiàn)象,推動算法責任治理成為算法時代和算法社會需要迫切破解的難題。一方面,類似于一般性的社會責任治理,算法責任治理既是對算法責任缺失和異化問題的矯正,更是推進相關主體對算法責任的落實與踐行,二者共同催生負責任的算法。與此同時,算法責任治理屬于更寬泛的算法治理的子集,許多算法治理研究直接或間接地涉及算法責任相關內(nèi)容(Cristianini and Scantamburlo,2020),能夠為算法責任治理提供重要基礎和有益借鑒。另一方面,算法責任治理既與算法治理有所差別,也與一般性的社會責任治理存在差異,因此有必要從深層的治理邏輯剖析出發(fā),構(gòu)建更加匹配的、更加合意的算法責任治理范式。

(一)算法責任治理的前因與邏輯理路

算法責任治理的對象是算法責任,核心是矯正算法責任缺失或異化,推動算法責任得以踐行,這意味著對算法責任缺失或異化進行歸因、探尋踐行算法責任的影響因素是算法責任治理的首要任務。從操作層面來看,對算法責任缺失或異化進行歸因和探尋踐行算法責任的影響因素分別從反向和正向考究算法責任落實的出路,本質(zhì)上具有一致性,踐行算法責任的影響因素可以作為開展算法責任缺失或異化歸因的分析框架,因此算法責任治理的基礎可以歸結(jié)為開展算法責任缺失或異化歸因。進一步來看,算法責任生成的起點是人、算法、社會三者之間的關系,這使得對算法責任缺失或異化進行歸因需要聚焦于人、算法、社會三要素及其相互關系。由此,算法責任治理的邏輯理路是“算法責任缺失或異化歸因→人、算法、社會三要素歸因→三要素缺陷與誘因矯正→形成與算法責任踐行相適配的三要素→算法責任得以協(xié)同踐行→負責任的算法”。按照三要素歸因,算法責任缺失或異化通常由“人”的行為偏差、算法的技術缺陷和社會的生態(tài)失調(diào)互動引致,相應地,算法責任治理的重點分別為對“人”、算法和社會的治理,由此形成“‘人’的行為偏差→人為型算法失當→對‘人’的治理”“算法的技術缺陷→功能型算法失當→對算法的治理”“社會的生態(tài)失調(diào)→觸發(fā)型算法失當→對社會的治理”3個治理邏輯鏈條。

1.“人”的行為偏差→人為型算法失當→對“人”的治理

這里的“人”指的是算法的人類主體,包括算法的開發(fā)者、設計者、部署者和應用者,可以是組織和個體人,但通常更多的是指組織。算法責任缺失或異化問題相當大一部分是由于“人”的不負責任行為造成的,特別是在算法作為純粹執(zhí)行者和輔助決策者的情形下尤為如此,這種算法責任缺失或異化可以稱作人為型算法失當。結(jié)合福格的“動機、能力、觸發(fā)條件”三因素個體行為模型(Fogg’s Behavior Model)和組織社會責任實現(xiàn)的“意愿—能力—制度—行為—結(jié)果”邏輯鏈條,“人”在算法開發(fā)、設計、部署和應用中的行為主要受到動機或意愿、能力和制度等本體因素影響,而動機或意愿又深受自身的價值認知影響,因此其不負責任的行為可以歸因為價值偏差、能力偏差和制度偏差。首先,從價值偏差來看,許多組織缺乏社會責任意識,秉持純粹自利導向的利益最大化使命追求,算法開發(fā)、設計、部署和應用成為其實現(xiàn)自我利益最大化的工具性活動,完全忽視算法對利益相關方訴求和社會價值的關切,甚至違背道德倫理底線,結(jié)果是組織的不良意圖被嵌入算法,對利益相關方和社會產(chǎn)生不良后果。其次,從能力偏差來看,對于接受差異化價值判斷的人,他們可能會有正當理由設計出不同的算法(Kraemer et al.,2011),這意味著算法開發(fā)設計組織或個人應當擁有雙重能力,不僅具有算法設計的專業(yè)能力,而且應當具備合乎社會責任的價值判斷能力。但在現(xiàn)實中,算法開發(fā)設計組織或個人往往缺乏諸如價值敏感性設計(Friedman et al.,2002)、勸導式設計等倫理設計能力,而且對于深度學習等復雜算法的駕馭能力較弱,無法對算法可能出現(xiàn)的不負責任的“突現(xiàn)”(Emergent)行為進行監(jiān)督管理,結(jié)果是開發(fā)設計出來的算法存在偏離社會責任的“漏洞”。最后,從制度偏差來看,許多算法開發(fā)、設計、部署和應用組織采用的制度邏輯是純粹的市場邏輯或商業(yè)邏輯,制度激勵與約束均為市場導向或商業(yè)導向,缺乏社會責任制度供給,沒有建立負責任研究與創(chuàng)新的制度體系,算法開發(fā)、設計、部署和應用中的社會責任規(guī)范完全缺失,對負責任的算法開發(fā)、設計、部署和應用缺乏制度激勵與約束,結(jié)果是引發(fā)組織或個人開展不負責任的算法活動。

2.算法的技術缺陷→功能型算法失當→對算法的治理

除了“故意為之”或“能力缺陷”的人為型算法失當外,算法本身存在的技術缺陷也可能引發(fā)算法責任缺失或異化現(xiàn)象,形成“無意為之”的功能型算法失當,這在算法作為獨立決策者的情形下更為突出。按照技術哲學荷蘭學派Houkes和Vermaas(2004)的觀點,功能偶發(fā)性失常是技術人工物的一種普遍現(xiàn)象,算法作為技術人工物也會出現(xiàn)功能偶發(fā)性失?,F(xiàn)象,尤其是對社會責任的偏離。從算法系統(tǒng)的運行過程來看,算法技術缺陷引致功能型算法失當可以具體歸因于四個方面:一是輸入數(shù)據(jù)的缺陷?!癎IGO定律”(Garbage In,Garbage Out)是計算機科學領域的一個著名定律,意思是如果輸入的是垃圾數(shù)據(jù),那么輸出也會是垃圾數(shù)據(jù),典型的是算法經(jīng)常發(fā)生的“偏見進,偏見出”(Bias In,Bias Out)的算法歧視問題。算法模型的形成往往需要大量數(shù)據(jù)進行訓練、學習和數(shù)據(jù)挖掘,輸入數(shù)據(jù)或訓練數(shù)據(jù)有限、不相關或不正確,以及數(shù)據(jù)未脫敏、大小樣本差別懸殊,都可能因過擬合和“冗余編碼”而導致算法判斷錯誤或算法輸出偏差。二是算法方法的缺陷。一方面,算法領域如人工智能越來越多地呈現(xiàn)出概率關聯(lián)困境,即只關注相關性而不關心因果,只進行歸納而不做演繹(汪懷君、汝緒華,2020),這使得算法決策在社會領域可能出現(xiàn)偏誤;另一方面,無論是機器學習、深度學習或是強化學習,其算法技術本身仍然具有較大的不成熟性,它們采用的正則化算法、集成算法、降維算法、貝葉斯算法、關聯(lián)規(guī)則學習算法、圖模型等諸多方法均存在局限性,容易導致算法決策結(jié)果出現(xiàn)偏差。此外,自動化的算法決策系統(tǒng)可能會將某些對于決策程序非常重要的道德價值或“軟性”價值予以剔除(Roth,2016),結(jié)果是引發(fā)算法決策對社會倫理的背離。三是人機互動的缺陷。算法的應用端是學習端的延伸,因為算法在應用過程中需要根據(jù)接收到的數(shù)據(jù)不斷地進行自我修正。然而,這些接受到的數(shù)據(jù)可能來自價值觀迥異的不同主體,接觸的場景也多種多樣,而算法自身無法做到對不良價值觀的“有意識的抵制”,因此算法自我修正的方向難以預料,很有可能被人類所“教壞”。四是不可解釋性的缺陷。算法尤其是深度學習的自主算法極其復雜,很難甚至不可預測,自我解釋性差,算法的技術黑箱難題始終沒能有效解決,算法黑箱的不負責任決策很難控制。

3.社會的生態(tài)失調(diào)→觸發(fā)型算法失當→對社會的治理

這里的“社會”在宏觀上指的是經(jīng)濟、社會、環(huán)境總稱,在微觀上則具體化為與“人”的行為和算法決策相關聯(lián)的利益相關方,包括直接利益相關方(如算法決策的受體)和間接利益相關方(如社會公眾)。在人、算法、社會三者關系中,社會具有雙重角色,既是“人”的行為和算法決策的作用對象,受到這些行為和決策的影響,又為“人”的行為和算法決策提供發(fā)生場景,對這些行為和決策產(chǎn)生影響。實際上,無論是“影響”還是“被影響”,社會都為算法的開發(fā)者、設計者、部署者和應用者開展算法相關活動構(gòu)建了“生態(tài)”,算法決策發(fā)生于這一“生態(tài)”中。如果“生態(tài)”出現(xiàn)失調(diào),就容易觸發(fā)算法開發(fā)、設計、部署和應用中的不負責任行為,引發(fā)算法決策的偏頗結(jié)果被不當使用,形成觸發(fā)型算法失當現(xiàn)象。從社會“生態(tài)”構(gòu)成來看,算法責任缺失或異化的具體觸發(fā)因素主要包括3個方面:一是互動系統(tǒng)失調(diào)。算法權力的崛起對人的主體性形成嚴重削弱,在人、算法、社會的互動系統(tǒng)中,往往出現(xiàn)將算法置于絕對的中心,完全弱化甚至排除人的自主性。一方面,決策程序中將決策權力完全交由算法,即便是算法因技術缺陷引發(fā)功能型失當和不負責任的“突現(xiàn)”,程序中也缺乏人的識別、判斷與糾偏,另一方面,算法決策的受體擁有的合法合理權利不足,數(shù)據(jù)權利未有保障,完全受自動化算法決策結(jié)果的制約,即便算法決策出現(xiàn)偏誤亦如此。二是算法素養(yǎng)失調(diào)。無論是算法決策的受體還是社會公眾,與數(shù)字經(jīng)濟蓬勃發(fā)展相匹配的數(shù)字素養(yǎng)尚未形成,算法認知與算法互動能力尚處于低位階,互動過程中自我保護意識和維護權利意識較弱,對負責任的算法期望不足與錯位并存。三是規(guī)制能力失調(diào)。隨著由產(chǎn)品化算法到工具化算法再到本體化算法的演化,算法規(guī)制亟需進行迭代和革新(張凌寒,2019),但目前算法的法律地位并不明確,“責任鴻溝”問題(Matthias,2004)或“行為人與責任人相分離”的困境(張凌寒,2021a)未能破解。政府對算法的規(guī)制相當程度上停留于傳統(tǒng)規(guī)制思維,規(guī)制范式、規(guī)制方法、規(guī)制手段均無法適應算法快速演化的需要,與構(gòu)建負責任的算法要求不適配,難以走出算法技術發(fā)展所產(chǎn)生的科林格里奇困境(Collingridge’s Dilemma)。

(二)算法責任綜合治理范式的九宮格模型

對于算法責任治理范式,目前的直接或間接研究主要有兩類:第一類是整體性的治理范式,如針對人工智能或算法的節(jié)點治理和協(xié)同治理(杜嚴勇,2018)、場景化治理(丁曉東,2020)、精準化治理(張欣,2021);第二類是具體化的治理方式,如算法透明度(Lepri et al.,2018)、算法可解釋性(Martin,2019;Criado et al.,2020)、個體數(shù)據(jù)賦權(丁曉東,2020)、算法影響評估制度(張凌寒,2021b)、算法審計(張超,2021)、算法問責制(Neyland,2019)、道德算法(Wallach and Allen,2009;李倫、孫保學,2018)。深入分析來看,對算法責任治理范式的已有研究至少存在3個方面的不足:缺乏對算法責任的深度理解與系統(tǒng)刻畫,沒有從真正意義和完整意義的社會責任角度對算法責任治理范式進行建構(gòu);缺乏對算法責任治理邏輯的詳細剖解,沒有形成算法責任治理范式建構(gòu)的完整邏輯鏈條;缺乏算法責任治理的綜合性框架,多數(shù)范式或方式聚焦于算法責任治理的特定領域、特定方法和特定主體,無法實現(xiàn)對算法責任的全面系統(tǒng)治理。實際上,“負責任的算法”的構(gòu)建應當是算法責任的全面落實,相應的算法責任治理也應當是綜合性的、系統(tǒng)性的,即算法責任綜合治理范式。

算法責任綜合治理的基本思路是:一是治理要素的綜合性。算法責任治理應當全面涵蓋人、算法、社會三要素,包括對“人”的治理、對算法的治理和對社會的治理。二是責任機制的綜合性。算法責任治理需要綜合運用算法責任的多種實現(xiàn)機制,包括基礎層次的社會責任融入、中間層次的負責任研究與創(chuàng)新、高階層次的敏捷治理。三是歸因矯正的綜合性。算法責任治理應當囊括對人為型算法失當、功能型算法失當、觸發(fā)型算法失當?shù)闹卫?,針對它們所產(chǎn)生的各類成因進行矯正。四是治理方式的綜合性。算法責任治理需要將各類治理方式和治理手段進行整合,形成可以用于算法責任普遍性治理和特定性治理的方法集合。按照這一思路,結(jié)合算法責任治理的邏輯理路,可以將治理要素作為一個維度,區(qū)分為對“人”的治理、對算法的治理和對社會的治理,將責任機制作為另一維度,區(qū)分為社會責任融入、負責任研究與創(chuàng)新、敏捷治理,兩個維度結(jié)合起來,并考慮算法責任缺失或異化的歸因,可以構(gòu)造出算法責任治理的9種方式,形成算法責任綜合治理的九宮格模型,如圖2所示。由此,算法責任綜合治理包括對“人”的3種治理方式,即責任內(nèi)生型組織、雙重能力建構(gòu)、算法監(jiān)管與問責,對算法的3種治理方式,即責任融合型算法、算法影響評估、算法技術動態(tài)完善,對社會的3種治理方式,即責任聯(lián)結(jié)型構(gòu)造、個體賦權、協(xié)同治理能力提升。

1.對“人”的3種治理方式

對“人”的治理是算法責任的基礎治理,催生算法開發(fā)者、設計者、部署者和應用者落實算法責任的意愿、能力與行為對于算法責任治理最為根本?;?種責任機制在“人”的層面的應用和落實,結(jié)合人為型算法失當?shù)臍w因,對“人”的治理可以采用3種方式:一是責任內(nèi)生型組織。算法開發(fā)者、設計者、部署者和應用者對算法責任的落實,首要的是它們成為對社會負責任的組織,基本的方式是通過社會責任融入整個組織(ISO,2010),構(gòu)建形成責任內(nèi)生型組織。責任內(nèi)生型組織意味著將社會責任融入組織使命和價值觀,推動組織超越純粹自利導向的利益最大化追求,取而代之的是社會價值驅(qū)動,進而內(nèi)生出對社會負責任和貢獻于可持續(xù)發(fā)展的動力或意愿。責任內(nèi)生型組織還要求將社會責任融入組織運營與管理,超越單一制度邏輯的主導,推動價值鏈活動最大限度創(chuàng)造社會價值和共享價值。責任內(nèi)生型組織實際上定義了算法開發(fā)者、設計者、部署者和應用者的本質(zhì)屬性,能夠從組織的“內(nèi)心深處”生發(fā)出落實算法責任的意愿,推動組織將社會責任融入于算法的開發(fā)、設計、部署和應用。二是雙重能力建構(gòu)。相較于一般性社會責任,算法責任的落實有其特殊性,算法開發(fā)者、設計者、部署者和應用者需要在內(nèi)生履責意愿的基礎上,將負責任研究與創(chuàng)新要求和方法植入于算法開發(fā)、設計、部署、應用全過程,這要求他們培育、擁有和提升算法相關的專業(yè)技術能力與價值判斷能力。特別是,算法開發(fā)者、設計者需要著眼于規(guī)避算法開發(fā)設計的消極影響和增進其積極影響,不斷增強負責任的算法設計能力,科學掌握和應用“設計者的道德想象”與“擴展的建設性技術評估”(Verbeek,2006)、預期性技術倫理方法(Brey,2012)、價值敏感性設計、勸導式設計等多種負責任的算法設計方法。三是算法監(jiān)管與問責。除了自治外,算法責任的落實也離不開對“人”的他治或外部治理,需要將更加適配于前沿科技、新興技術、新興產(chǎn)業(yè)的敏捷治理要求和方法應用于對“人”的治理,形成更加靈活多元、動態(tài)敏捷的算法監(jiān)管和算法問責。敏捷治理框架下的算法監(jiān)管需要改變監(jiān)管者與被監(jiān)管者之間“貓和老鼠”的傳統(tǒng)博弈關系(薛瀾、趙靜,2019),增強算法開發(fā)者、設計者、部署者、應用者與監(jiān)管機構(gòu)的互動,推動算法監(jiān)管更具包容性、適應性、精準性和可持續(xù)性。算法監(jiān)管的重要方式是推行算法問責制,即明確誰對算法決策承擔責任和義務(Lepri et al.,2018),要求其承擔決策的消極性后果并予以責任追究的制度。算法問責制不僅要對算法的社會影響進行責任分配,通過責任明確、責任要求和責任追究的方式督促算法開發(fā)者、設計者、部署者和應用者落實算法責任,更要求減輕算法可能造成的負面社會影響和引致的潛在傷害(Neyland,2019),對已經(jīng)發(fā)生的傷害進行救治。

2.對算法的3種治理方式

對算法的治理是算法責任的焦點治理,構(gòu)建飽含社會責任元素、能夠進行負責任判斷與決策、具有自我矯正修復功能的算法對于算法責任治理至為關鍵,能夠有效破解人的“道德脆弱”(Moral Weakness)問題(Thero,2006)。基于3種責任機制在算法本身層面的應用和落實,結(jié)合功能型算法失當?shù)臍w因,對算法的治理可以采用3種方式:一是責任融合型算法。通過將社會責任融入算法本體,推動算法自身擁有負責任的判斷和決策能力,形成責任融合型算法,是算法責任得以落實的“物化”和“智化”方式。類似于道德算法的實現(xiàn)進路,責任融合型算法也有3種實現(xiàn)方法:責任嵌入、責任學習和混合法。責任嵌入即“自上而下”的方法,是將社會責任的理念要求和具體元素嵌入算法,形成算法決策不同場景的社會責任抉擇標準,構(gòu)造出如康德式機器(Kantian Machine)的人工責任(道德)行動體。責任學習即“自下而上”的方法,“自下而上”式進路或數(shù)據(jù)驅(qū)動進路受到生物進化的啟發(fā),重點是創(chuàng)造一種環(huán)境,算法可以在這種環(huán)境中進行責任訓練、學習和行為探索,不斷自我發(fā)展進化,形成穩(wěn)定的負責任推理模式和決策能力,從而能夠?qū)Ω鞣N復雜場景做出負責任的反應。責任嵌入和責任學習兩種方法具有互補性而非相互排斥,現(xiàn)實中往往將它們結(jié)合起來,形成責任融合型算法實現(xiàn)的混合式解決方法與綜合進路。二是算法影響評估。負責任研究與創(chuàng)新要求算法本身應當符合預期性、自反性、包容性、回應性、可持續(xù)性、關懷要求,破解算法發(fā)展的科林格里奇困境,因此針對算法本身可以應用負責任研究與創(chuàng)新的多種方法,尤其是實時技術評估(Guston and Sarewitz,2002)和技術社會評估(Stirling,2008)等自反性方法,構(gòu)建形成算法影響評估制度。算法影響評估是根據(jù)事前確立的衡量標準,對算法決策系統(tǒng)的性能風險和社會影響進行系統(tǒng)評判,確定相應的風險等級和影響水平(張欣,2021)。算法影響評估采用事前、事中、事后相結(jié)合的全過程動態(tài)評估方式,在技術層面強調(diào)對算法本身的安全性、穩(wěn)健性、可解釋性進行評估,在社會層面強調(diào)對算法決策可能產(chǎn)生的社會影響開展評估,并依據(jù)評估結(jié)果采取控制與治理舉措,降低算法可能出現(xiàn)的算法失當風險及其負面影響。三是算法技術動態(tài)完善。敏捷治理在技術層面要求技術本身具有自適應性與自愈能力,能夠敏捷地自我矯正和動態(tài)完善。算法責任的敏捷治理意味著算法本身能夠?qū)赡艹霈F(xiàn)的功能型算法失當問題進行技術規(guī)避,對算法決策可能存在社會影響方面的缺陷進行算法自我矯正,這要求對算法技術進行動態(tài)完善和迭代升級。比如,可以采用代碼審計、審計工具審計、爬取審計、非侵入用戶審計、代理審計、眾包審計等多種算法審計技術識別算法的盲點或偏差(張超,2021),運用無監(jiān)督訓練、“能覺察歧視的數(shù)據(jù)挖掘技術”“公正、負責任和透明的機器學習”等技術規(guī)避和矯正數(shù)據(jù)、算法、人機互動方面的缺陷;也可以針對操作算法另外設計一套監(jiān)督算法(Etzioni and Etzioni,2016),對算法運行時出現(xiàn)偏差及時糾正或終止。

3.對社會的3種治理方式

對社會的治理是算法責任的生態(tài)治理,增強算法決策的受體、社會公眾、政府、更廣泛社會主體等直接或間接利益相關方的算法素養(yǎng)和監(jiān)督能力,形成更具包容性的可持續(xù)算法社會生態(tài)。基于3種責任機制在社會層面的應用和落實,結(jié)合觸發(fā)型算法失當?shù)臍w因,對社會的治理可以采用3種方式:一是責任聯(lián)結(jié)型構(gòu)造。算法責任在社會層面的落實首先要求將社會責任融入于人、算法、社會互動系統(tǒng),構(gòu)建以人為本、以人類為中心的系統(tǒng)結(jié)構(gòu),形成人、算法、社會三者之間的責任聯(lián)結(jié)型構(gòu)造。責任聯(lián)結(jié)型構(gòu)造的關鍵是在人、算法、社會三者互動系統(tǒng)中設置負責任的決策程序,通過增強人的自主性來規(guī)避或緩解算法的功能型失當和不負責任的“突現(xiàn)”,因為人類的裁量力、判斷力和能動性被認為是克服規(guī)則內(nèi)生缺陷的關鍵武器(Yeung,2017)。這意味著對于算法作為純粹執(zhí)行者和輔助決策者的情形,算法決策閉環(huán)程序中可以植入一定的人為干預,以解決算法自動決策可能出現(xiàn)的偏差;對于算法作為獨立決策者的情形,算法決策程序應著重建立事后機制,賦予算法決策的受體擁有質(zhì)疑、反對或參與決策的機會,確保決策的可靠性。二是個體賦權。負責任研究與創(chuàng)新的包容性和反應性維度都要求算法開發(fā)、設計、部署、應用過程中與算法決策受體的互動,而鑒于受體在互動過程中往往處于“弱勢地位”,因此可以通過個體賦權增強受體的互動能力和逆向影響算法能力。個體賦權是對個體在算法的輸入、訓練、決策和輸出全過程中賦予相關權利,增強他們行使這些權利的能力與制度安排,典型的是個人數(shù)據(jù)賦權和算法解釋權。個人數(shù)據(jù)賦權將對算法責任的治理鑲嵌于數(shù)據(jù)治理框架之下,通過對個人賦予多種數(shù)據(jù)權利而使個體能夠?qū)λ惴Q策施加干預,甚至直接賦予個人對僅僅基于算法自動化處理輸出決定有權不受制約的權利(張欣,2019b)。算法解釋權著眼于增強算法透明和可理解性,賦予個體尋求算法決策結(jié)果產(chǎn)生原因和理由的權利,要求算法主體采用“反設事實解釋”的方法或以普通人可以充分理解的方式對算法做出解釋(辛巧巧,2021)。從構(gòu)造來看,算法解釋權包括算法所需個人信息的解釋權、算法邏輯的解釋權和算法審計的解釋權3個層次(許可、朱悅,2020)。比如,針對算法邏輯的解釋權,美團外賣于2021年9月首次公開了騎手配送時間的計算規(guī)則和預估送達時間的算法邏輯,11月又公開了訂單分配算法。三是協(xié)同治理能力提升。敏捷治理要求在社會層面對算法責任開展多元主體共治,推動用戶、社會公眾、社會組織等更多社會主體參與,形成算法責任協(xié)同治理的格局。這意味著要培養(yǎng)和提升全民的算法素養(yǎng),增強政府數(shù)字監(jiān)管和算法規(guī)制的敏捷能力,推動多元社會主體形成對算法責任治理的共識,增進不同社會主體參與算法責任治理的意愿,形成對算法責任協(xié)同治理的合力。

(三)算法責任治理方式的場景化適配

雖然算法責任治理的9種方式具有普適性,但其重要性和強度要求與算法場景密切相關,它們之間的適配性直接決定算法責任治理的效果。比如,“有意義的”(Meaningful)算法透明(Brauneis and Goodman,2018)應當區(qū)分不同算法擁有者、不同主體、不同情形的場景,施加不同的算法公開責任和開展不同范圍不同程度的算法公開,個人數(shù)據(jù)賦權也需要依據(jù)場景和對象不同決定賦權的類型與強度(丁曉東,2020)。進一步來看,一方面,人與算法在決策中的自主權關系即“自主度”差異引致不同的算法責任畫像,由此使得不同算法責任治理方式在算法作為純粹執(zhí)行者、輔助決策者、獨立決策者時的重要性和強度要求表現(xiàn)出差異性。另一方面,算法的應用領域是影響算法決策的重要治理因素(張欣,2019a),不同算法責任治理方式對應用于商業(yè)領域與公用事業(yè)領域的算法將呈現(xiàn)出不同的重要性和強度要求。結(jié)合這兩個方面因素,就可以細分出6個算法場景:商業(yè)領域的純粹執(zhí)行者(場景1)、公用事業(yè)領域的純粹執(zhí)行者(場景2)、商業(yè)領域的輔助決策者(場景3)、公用事業(yè)領域的輔助決策者(場景4)、商業(yè)領域的獨立決策者(場景5)、公用事業(yè)領域的獨立決策者(場景6)。如果將算法責任治理方式對于某一算法場景的重要性區(qū)分為高、中、低3個層次,將強度要求分為強、中、弱3個等級,那么算法責任治理的9種方式在6個算法場景中的重要性和強度要求就如表3的適配性矩陣所示。

六、結(jié)論與建議

(一)研究結(jié)論與邊際貢獻

針對普遍存在的算法失當現(xiàn)象和算法責任缺失問題,本文嘗試從算法責任命題證成、算法責任觀流變、算法責任畫像和算法責任治理等方面對算法責任開展探索性的系統(tǒng)研究,并得到以下6個方面的主要結(jié)論:一是算法作為人的代理者角色定位是算法責任產(chǎn)生的認知基礎,算法存在的社會嵌入、算法主體的價值遷移和算法結(jié)果的社會影響等算法的多元價值載荷是算法責任生成的根本緣起,算法權力崛起孿生出匹配性的算法責任、算法權力濫用催生出約束性的算法責任是算法責任出場的現(xiàn)實邏輯,責任向度的綜合性、責任定位的代理性、責任形態(tài)的隱蔽性彰顯出算法責任的特殊性,這些使得算法責任作為一個具有正當性與合理性的真命題得以證成。二是基于不同時期對算法本質(zhì)與算法責任本質(zhì)認知的演變,算法責任觀大致經(jīng)歷了技術中立視域下的責任否定觀、技術倫理視域下的道德算法觀、人技信任視域下的“可信賴的算法”觀、社會責任視域下的“負責任的算法”觀的流變與迭代,負責任的算法成為算法發(fā)展的最新取向。三是依據(jù)人與算法在決策中的自主權關系,算法的代理者角色可以進一步細分為純粹執(zhí)行者、輔助決策者和獨立決策者,它們結(jié)合責任緣起、責任性質(zhì)、責任基礎、責任主體、責任對象、責任內(nèi)容、責任程度和責任機制等算法責任的8個構(gòu)面,可以繪制算法責任的全景畫像。四是算法責任治理的邏輯理路是“算法責任缺失或異化歸因→人、算法、社會三要素歸因→三要素缺陷與誘因矯正→形成與算法責任踐行相適配的三要素→算法責任得以協(xié)同踐行→負責任的算法”,即涵蓋“‘人’的行為偏差→人為型算法失當→對‘人’的治理”“算法的技術缺陷→功能型算法失當→對算法的治理”“社會的生態(tài)失調(diào)→觸發(fā)型算法失當→對社會的治理”3個治理邏輯鏈條。五是結(jié)合治理要素與責任機制,可以構(gòu)建算法責任綜合治理范式的九宮格模型,構(gòu)造出算法責任治理的9種方式,包括對“人”的3種治理方式,即責任內(nèi)生型組織、雙重能力建構(gòu)、算法監(jiān)管與問責,對算法的3種治理方式,即責任融合型算法、算法影響評估、算法技術動態(tài)完善,對社會的3種治理方式,即責任聯(lián)結(jié)型構(gòu)造、個體賦權、協(xié)同治理能力提升。六是算法責任治理的9種方式在算法作為商業(yè)領域的純粹執(zhí)行者、公用事業(yè)領域的純粹執(zhí)行者、商業(yè)領域的輔助決策者、公用事業(yè)領域的輔助決策者、商業(yè)領域的獨立決策者、公用事業(yè)領域的獨立決策者等6個算法場景中的重要性和強度要求呈現(xiàn)出差異性,算法責任治理方式應與算法場景高度適配。

本文的邊界貢獻主要體現(xiàn)在5個方面:一是對算法責任命題的正當性與合理性進行了理論證成。基于社會責任視角對算法責任概念進行界定的基礎上,從算法責任產(chǎn)生的認知基礎即算法作為人的代理者角色、算法責任生成的根本緣起即算法的多元價值載荷、算法責任出場的現(xiàn)實邏輯即算法權力崛起與濫用、算法責任的特殊性等4個層次,論證認為算法責任一個具有正當性與合理性的真命題。二是對算法責任觀的縱向流變進行了系統(tǒng)剖析和深度解構(gòu)。從理論基礎、算法本質(zhì)認知、算法責任本質(zhì)認知、算法責任核心構(gòu)成、認知局限性等多個維度,對技術中立視域下的責任否定觀、技術倫理視域下的道德算法觀、人技信任視域下的“可信賴的算法”觀、社會責任視域下的“負責任的算法”觀等四種算法責任觀的演變進行了刻畫和比較分析。三是對算法責任的全景畫像進行了建構(gòu)。從責任緣起、責任性質(zhì)、責任基礎、責任主體、責任對象、責任內(nèi)容、責任程度和責任機制等8個構(gòu)面,對算法作為純粹執(zhí)行者、輔助決策者和獨立決策者的算法責任畫像分別進行了繪制,并綜合生成算法責任的完整畫像。四是對算法責任綜合治理范式進行了模型建構(gòu)和邏輯解析。在分析算法責任治理的3條邏輯理路基礎上,結(jié)合治理要素(對“人”的治理、對算法的治理、對社會的治理)和責任機制(社會責任融入、負責任研究與創(chuàng)新、敏捷治理)兩個維度,構(gòu)建形成算法責任綜合治理范式的九宮格模型,對每一治理方式進行了解析。五是對算法責任治理方式與算法場景的適配性進行了系統(tǒng)分析。結(jié)合算法責任治理的9種方式和6個算法場景,考慮重要性和強度要求兩個方面,構(gòu)建了算法責任治理方式與算法場景的適配性矩陣。

(二)政策啟示與實踐建議

算法責任是一個強實踐性概念,加之算法實踐的新興性、復雜性和動態(tài)性,因此有效的算法責任治理需要在綜合治理范式建構(gòu)的基礎上,從政府和企業(yè)兩類治理主體角度,進一步探尋合意的實踐進路和因應對策,推動治理的精度、信度和效度不斷提升,形成更高質(zhì)量的“負責任的算法”。

1.政府層面:加快算法責任制度供給與創(chuàng)新算法監(jiān)管方式

算法的廣泛滲透性和社會影響性使得算法責任日益成為公共議程重點關注的對象,政府作為最后的“數(shù)字守門人”,在算法責任治理中扮演著越來越重要的制度供給和算法監(jiān)管角色。從制度供給來看,政府需要根據(jù)算法責任的運行規(guī)律和動態(tài)演化,采取法律固化與框架指導并用的方式,加快建立健全算法責任制度體系。類似于一般性社會責任的“必盡之責任”或強制性內(nèi)容不斷增多,算法責任中“底線要求”也在日益擴展與強化,算法責任的“硬化”趨勢開始顯現(xiàn)。隨著算法失當現(xiàn)象的大量涌現(xiàn),社會對算法的法律規(guī)制呼聲日漸高漲,算法責任的法制化越來越受到重視。算法責任治理中對算法開發(fā)者、設計者、部署者和應用者的行為約束,對算法本身的影響評估,對算法參與社會決策程序的要求和個體賦權,都應當通過法律固化和具體化的方式增強其強制性。在現(xiàn)實中,歐盟發(fā)布的《通用數(shù)據(jù)保護條例》(GDPR)、美國通過的多部算法問責法(及法案)、加拿大頒布的《自動化決策指令》、中國公布的《中華人民共和國個人信息保護法》(2021年11月1日施行)、國家互聯(lián)網(wǎng)信息辦公室等九部門聯(lián)合印發(fā)的《關于加強互聯(lián)網(wǎng)信息服務算法綜合治理的指導意見》(國信辦發(fā)文〔2021〕7號)都對算法責任和算法責任治理的相關內(nèi)容進行了法律法規(guī)上的規(guī)定,但與算法經(jīng)濟和算法社會快速發(fā)展對算法責任治理的需求之間仍有差距,算法責任的法制化需要進一步完善。除了法律固化外,算法責任的許多議題和要求類似一般性社會責任的“應盡之責任”與“愿盡之責任”,特別是涉及算法倫理和道德抉擇的責任議題,很多難以通過明確的法制化予以強制實施,而是應當建立明確的原則框架和操作準則給予行為指導。負責任的算法開發(fā)、設計、部署和應用,以及算法的責任嵌入、責任學習,其實現(xiàn)很大程度上依賴于遵循和應用適宜的原則框架和操作準則。

從算法監(jiān)管來看,算法的代理者角色和隱蔽性特點決定政府需要改變用于傳統(tǒng)市場主體的監(jiān)管模式,針對算法主體和算法責任構(gòu)建更加靈活高效、更加動態(tài)新穎、更加適宜可靠的監(jiān)管方式。一方面,要推動頭部治理與生態(tài)共建并進。數(shù)智經(jīng)濟的頭部化趨勢日益明顯,頭部企業(yè)在以機器學習算法為根基的人工智能、互聯(lián)網(wǎng)平臺等行業(yè)占據(jù)主導地位,不僅是市場份額、流量、數(shù)據(jù)、算法的支配者甚至壟斷者,而且在以頭部企業(yè)為核心型成員的商業(yè)生態(tài)系統(tǒng)中處于最高生態(tài)位,是具有實質(zhì)選擇權的生態(tài)領導(肖紅軍,2020b),對行業(yè)內(nèi)其他企業(yè)具有行為示范功能與生態(tài)治理功能。現(xiàn)實中,人工智能、互聯(lián)網(wǎng)平臺等行業(yè)頭部企業(yè)的算法失當現(xiàn)象頻頻發(fā)生,在社會上產(chǎn)生了嚴重的不良影響,對行業(yè)健康發(fā)展形成重大挑戰(zhàn)。因此,算法責任治理應當將頭部企業(yè)作為“少數(shù)關鍵”,對其落實算法責任進行多措并舉的治理,推動頭部企業(yè)構(gòu)建負責任的算法,成為負責任的“少數(shù)關鍵”,確保頭部企業(yè)發(fā)揮算法責任落實的正向影響和示范作用。除了頭部企業(yè)治理,人工智能、互聯(lián)網(wǎng)平臺等行業(yè)的算法生態(tài)建設至關重要,因為生態(tài)健康能夠形成對眾多算法開發(fā)者、設計者、部署者和應用者的集體治理。算法生態(tài)建設要求推動個體、組織、系統(tǒng)、社會的共同參與、共同建設、共同治理,引導頭部企業(yè)之間、頭部企業(yè)與行業(yè)內(nèi)其他企業(yè)之間開展落實算法責任的相互合作與監(jiān)督。另一方面,要采取約束懲戒與激勵誘導并重。算法責任治理應當綜合運用多種治理手段和治理工具,在對“人”的治理、對算法的治理和對社會的治理中,將約束懲戒的強制性手段與激勵誘導的引致性方法相結(jié)合,既將算法活動關進制度約束的籠子里,又鼓勵負責任的算法得到更高質(zhì)量和更高水平的發(fā)展。對于約束懲戒,政府需要完善算法問責制度,加大算法問責力度,對算法失當行為予以問責、處罰和懲戒,形成對算法開發(fā)者、設計者、部署者和應用者違背算法責任的“震懾”。對于激勵誘導,算法責任治理需要充分考慮數(shù)智化技術的新興性、算法責任發(fā)展的初期性、全社會算法素養(yǎng)尚不高的現(xiàn)實性,可以采用誘致性制度和激勵性手段,激發(fā)算法開發(fā)者、設計者、部署者和應用者自覺落實算法責任的積極性,增強其自愿踐行算法責任的能力,引導他們主動創(chuàng)新算法責任落實的方式和技術,持續(xù)提升算法責任落實效果。

2.企業(yè)層面:全面落實算法責任議題與構(gòu)建可持續(xù)性算法商業(yè)模式

企業(yè)作為關鍵的算法主體,往往是算法的開發(fā)者、設計者、部署者和應用者,在算法責任治理中發(fā)揮著第一關“守門人”功能,因此在《關于加強互聯(lián)網(wǎng)信息服務算法綜合治理的指導意見》(國信辦發(fā)文〔2021〕7號)中,明確提出要強化算法治理的企業(yè)主體責任。從企業(yè)視角來看,算法責任治理的核心是要將算法責任議題全面落到實處,既包括風險型議題,也涵蓋價值型議題。前者要求企業(yè)樹立社會風險防范意識,多維度梳理和挖掘算法的社會越軌行為影響因素和表現(xiàn),預判、規(guī)避和應對算法開發(fā)、設計、部署、應用中可能出現(xiàn)的社會風險;后者要求企業(yè)超越技術倫理往往忽視如何最大化社會利益、最大限度造福社會問題(Brundage,2016)的局限,將創(chuàng)造積極的社會價值融入算法開發(fā)、設計、部署和應用,運用共享價值、戰(zhàn)略性社會責任、社會資源優(yōu)化配置、社會問題管理的方法,對算法的積極影響予以擴展,推動算法決策和算法活動的價值增進。算法責任議題的落實一方面要求企業(yè)將普適性的算法責任理念和要求落地,推動算法開發(fā)、設計、部署和應用融合元層面的社會責任思想、過程層面的負責任研究與創(chuàng)新、敏捷治理要求,形成算法責任的普遍治理和系統(tǒng)治理;另一方面要求企業(yè)考慮特定算法責任議題的特點和規(guī)律,探索、深化和創(chuàng)新不同議題治理的特殊要求與方法。比如,對于算法透明議題,需要考慮算法“黑箱”的特殊性,通常認為包括真實黑箱(Real Secrecy)、法律黑箱(Legal Secrecy)、混淆性(Obfuscation)三類(Pasquale,2015)或者技術黑箱、解釋黑箱、組織黑箱三類(浮婷,2020),由此算法透明的實現(xiàn)方式與機制具有多維性和多樣性,需要針對性地構(gòu)建治理方式和策略。對于算法共謀議題,需要對算法共謀形成的不同原因進行分析,依據(jù)共謀治理的基本方法,針對信使型共謀(Messenger)、軸輻型共謀(Hub and Spoke)、預測型共謀(Predictable Agent)、自主型共謀(Autonomous Machine)(Ezrachi and Stucke,2017)實施差異化的治理。

進一步來看,企業(yè)兼具商業(yè)性與社會性,依托算法開展商業(yè)模式創(chuàng)新是企業(yè)在算法時代贏得競爭的重要利器。落實算法責任要求企業(yè)在實施以算法為支撐甚至驅(qū)動的商業(yè)模式創(chuàng)新時,應當改變傳統(tǒng)上以純粹商業(yè)利益為導向、以短期增益為目標的商業(yè)邏輯,取而代之的是以綜合創(chuàng)造經(jīng)濟價值與社會價值為導向、以長期主義和可持續(xù)發(fā)展為方向的可持續(xù)性商業(yè)模式創(chuàng)新,構(gòu)建形成具有“高經(jīng)濟影響—高社會影響”的可持續(xù)性算法商業(yè)模式??沙掷m(xù)性算法商業(yè)模式意味著企業(yè)的算法商業(yè)實踐應當做到:一是堅守底線,即算法商業(yè)活動必須嚴守相關法律法規(guī)和倫理道德底線,不能逾越;二是創(chuàng)造長期的而非短期的綜合價值與共享價值,更不能只是單純的企業(yè)價值增益;三是最小化算法商業(yè)活動可能產(chǎn)生的直接社會風險,防范算法商業(yè)模式創(chuàng)新引發(fā)的次生風險,確保算法商業(yè)實踐的可持續(xù)性。比如,智能算法推薦平臺傳統(tǒng)上采用的即為以企業(yè)利益最大化為導向的商業(yè)模式創(chuàng)新,通過智能算法推薦向用戶推送大量同質(zhì)內(nèi)容,一方面用戶使用時間增加了,平臺獲得更大流量,另一方面也因提供用戶感興趣的同質(zhì)內(nèi)容而提升了用戶體驗和使用效率,這一商業(yè)模式似乎實現(xiàn)了平臺與用戶的“雙贏”。然而,推送大量同質(zhì)內(nèi)容雖然解決了用戶興趣匹配和信息獲取效率問題,但卻引發(fā)用戶陷入“信息繭房”困境的次生風險。從短期來看,用戶似乎因為體驗感和使用效率提升而獲得短期價值增益,但長期來看卻因陷入“信息繭房”困境而對用戶造成更大消極影響。從個體來看,平臺與用戶似乎因為各自獲得增益而達成“雙贏”,但從全社會來看,“信息繭房”增加群體極化可能,容易割裂公共議題,造成社會黏性削弱,形成對社會的巨大危害。更有甚者,一些智能算法推薦平臺為迎合用戶的“不健康興趣”,向用戶推送大量有悖公序良俗的內(nèi)容,不僅對用戶身心健康造成負面影響,也對社會秩序形成擾亂。如此,智能算法推薦平臺將受到社會質(zhì)疑,外部“合法性”下降甚至喪失將使這一商業(yè)模式變得不可持續(xù)。落實算法責任必然要求智能算法推薦平臺改變以最大化企業(yè)利益、短期利益、個體理性為核心的傳統(tǒng)商業(yè)模式,轉(zhuǎn)而邁向以創(chuàng)造長期綜合價值與共享價值、實現(xiàn)個體理性與社會理性相協(xié)調(diào)為導向的可持續(xù)性算法商業(yè)模式。為此,智能算法推薦平臺需要在堅守底線的基礎上,改進甚至變革算法推薦機制,既發(fā)揮增進用戶體驗和使用效率的積極功能,更應防范和破解社會關注的“信息繭房”難題,推動社會價值、用戶價值和企業(yè)價值的協(xié)同實現(xiàn)。

(注:文中圖表有刪減。)

文章刊發(fā):

肖紅軍:《算法責任:理論證成、全景畫像與治理范式》,《管理世界》,2022年第4期,第200~225頁。


(https://mp.weixin.qq.com/s?__biz=MzI4MDAyODQ5Mw==&mid=2649891853&idx=1&sn=ea116991f8fe382055db129ab50ccd0c&chksm=f3b8302fc4cfb9394f23ed09e401e7ef3f4b9137351b4d4b640c7f2ad48e3ab79c0f7edd1574&scene=27)


《管理世界》|| 肖紅軍:算法責任:理論證成、全景畫像與治理范式的評論 (共 條)

分享到微博請遵守國家法律
平塘县| 石河子市| 白沙| 沙雅县| 安徽省| 祁阳县| 兖州市| 政和县| 府谷县| 张家口市| 江西省| 浏阳市| 于田县| 波密县| 民丰县| 丹江口市| 连江县| 盈江县| 会泽县| 土默特左旗| 佳木斯市| 瑞丽市| 永安市| 深水埗区| 葫芦岛市| 云龙县| 昌平区| 木兰县| 天津市| 东丽区| 剑阁县| 开封县| 定兴县| 永登县| 册亨县| 上犹县| 东丰县| 佛学| 科尔| 延边| 铜川市|