未來,真正的競爭優(yōu)勢將是判斷力
不久之前,人工智能還被認(rèn)為是屬于精英專家或數(shù)據(jù)科學(xué)家的領(lǐng)域。企業(yè)熱情洋溢地談?wù)撝淖儤I(yè)務(wù)的潛力,但卻只有一小部分員工能接觸到它。然而,有了生成式人工智能后,游戲規(guī)則發(fā)生了變化——突然之間,每個人都是潛在的程序員,這要歸功于OpenAI的ChatGPT、谷歌的Bard或Anthropic的Claude 2等工具。但
在我們經(jīng)歷這些技術(shù)上的飛躍的同時,每個組織都需要一種基本的、長期的能力來實現(xiàn)人工智能的真正潛力,這就是判斷力。
人工智能時代的判斷理念是我們已故的同事、有遠(yuǎn)見的朋友亞歷山德羅·迪·菲奧雷工作的核心內(nèi)容。亞歷山德羅認(rèn)為,
應(yīng)該以人為中心,技術(shù)是一種幫助人們增強創(chuàng)造力、自主性和批判性思維的方式。
作為《哈佛商業(yè)評論》的撰稿人(也是《哈佛商業(yè)評論》意大利版的前主席),他經(jīng)常思考創(chuàng)新、領(lǐng)導(dǎo)力和人工智能是如何攜手并進(jìn)的。他認(rèn)為,隨著所有員工都能更容易地使用人工智能,判斷力將變得和任何技能一樣重要。 亞歷山德羅認(rèn)為,
隨著人工智能系統(tǒng)上升到新的通用操作標(biāo)準(zhǔn),判斷力將成為組織真正的競爭優(yōu)勢。
但是僅僅強化人的技能并不能培養(yǎng)出更好的判斷力。為了適應(yīng)變化的步伐,
企業(yè)需要從根本上重新思考他們?nèi)绾慰创筒渴鹋袛嗔Α?/p>
值得注意的是,亞歷山德羅認(rèn)為判斷力的三個關(guān)鍵方面對當(dāng)前的時刻而言至關(guān)重要:
權(quán)限
這一點指的是誰有權(quán)力、誰被允許做出判斷。
作為判斷民主化的早期倡導(dǎo)者,亞歷山德羅知道,做出正確的決定并不局限于高管。隨著知識、數(shù)據(jù)和技術(shù)更加廣泛地傳播,判斷也必須更加廣泛地傳播。 企業(yè)需要了解如何利用和擴展生成式人工智能,而試圖禁止這種訪問最終將徒勞無功。只要員工能夠利用這些人工智能工具創(chuàng)造價值,企業(yè)就需要確保他們能夠訪問所有這些工具,這是轉(zhuǎn)型的一部分。當(dāng)然,要以一種安全和受控的方式進(jìn)行。這需要信任和溝通。但是領(lǐng)導(dǎo)者應(yīng)該考慮到,越來越多的新使用案例和實踐必然是自下而上出現(xiàn)的,而不是自上而下的。
行使判斷力
這一點指的是決定或形成意見的行為或者過程。
亞歷山德羅認(rèn)為,判斷是一個連續(xù)的過程,而不是某一個單一的時刻: “判斷不僅僅是在評估數(shù)據(jù)和信息并作出決定的那一刻進(jìn)行的。判斷的范圍要更廣,它始于提出正確的問題,構(gòu)建正確的問題框架,評估更廣泛的背景。判斷是共同創(chuàng)造的。” 這種判斷的概念在今天看來尤其正確。
生成式人工智能的興起將判斷擴展到離散決策之外——它現(xiàn)在是一個人機協(xié)作的過程。
對于人工智能聊天機器人,情景互動的重要性是顯而易見的。判斷是通過整合人類與人工智能的對話產(chǎn)生的。我們最近利用ChatGPT做了一個實驗,是關(guān)于生成式人工智能如何賦能十種流行的管理實踐的,這就是一個很好的例子。在與ChatGPT進(jìn)行有意義的對話時,我們必須在給出提示之前、期間和之后鍛煉我們的判斷能力,輸入正確的上下文,制定最佳的提示鏈,并仔細(xì)解釋相關(guān)建議。 這個實驗證實了亞歷山德羅的直覺:理想的結(jié)果出現(xiàn)在人類智能和機器智能的交匯處。未來,正確的判斷是共同創(chuàng)造的過程。這種轉(zhuǎn)變要求企業(yè)進(jìn)行全面的人員轉(zhuǎn)型和再培訓(xùn),才能為員工們配備人工智能時代必不可少的判斷能力。
控制
這一點與監(jiān)督或檢查決策的系統(tǒng)或流程有關(guān)。
傳統(tǒng)的控制方法很快就過時了。嚴(yán)格的自上而下的監(jiān)督可能會扼殺這種新模式中的敏捷性。然而,如果合乎道德的人工智能開發(fā)和部署原則沒有在整個組織中根深蒂固,那么完全不受約束的自主權(quán)就會帶來風(fēng)險。
該解決方案由兩部分組成:
首先,通過公平、安全和可持續(xù)利用的道德準(zhǔn)則在系統(tǒng)中建立起信任感和責(zé)任機制,并防止人工智能模型產(chǎn)生不準(zhǔn)確的信息或產(chǎn)生與貴公司價值觀相抵觸的反應(yīng);第二,為用戶提供培訓(xùn),讓他們知道如何為人類和人工智能的決策設(shè)定正確的背景。第二部分內(nèi)容包括:解釋提示的適當(dāng)邊界,以及負(fù)責(zé)任地構(gòu)建查詢框架。領(lǐng)導(dǎo)者不應(yīng)該在微觀上批準(zhǔn)一系列選擇,而應(yīng)該把重點放在賦予各級員工相關(guān)技能上。 在這個愿景中,控制從官僚把關(guān)轉(zhuǎn)變?yōu)榕囵B(yǎng)集體責(zé)任感。正如亞歷山德羅所寫的那樣:“領(lǐng)導(dǎo)者有責(zé)任創(chuàng)造合適的環(huán)境和條件,讓員工在數(shù)據(jù)和技術(shù)的幫助下做出更自主的決策。給予自由是好事,但幫助他們行使自由權(quán)力則更為重要。” 亞歷山德羅的愿景強調(diào)了:在人工智能重塑社會的過程中,人們需要健全的判斷。在我們致力于實現(xiàn)人類與技術(shù)無縫合作、促進(jìn)創(chuàng)新和進(jìn)步的未來努力的過程中,他的遺產(chǎn)仍然是我們靈感的不竭源泉。而未來仍然是由我們通過遠(yuǎn)見、倫理和負(fù)責(zé)任的創(chuàng)新來塑造的。
關(guān)鍵詞:判斷力
艾莉薩·法里是Capgemini Invent管理實驗室的副總裁兼聯(lián)合負(fù)責(zé)人。此前,艾莉薩是法國哈佛商學(xué)院歐洲研究中心的一名研究員。 保羅·塞爾維尼是Capgemini Invent管理實驗室的副總裁兼聯(lián)合負(fù)責(zé)人。此前,保羅是《哈佛商業(yè)評論》意大利版的內(nèi)容協(xié)調(diào)員。 加布里埃尼·羅薩尼是Capgemini Invent管理實驗室的內(nèi)容和研究主管。他定期為核心的管理評論撰稿,并與Thinkers50和商業(yè)生態(tài)系統(tǒng)聯(lián)盟(Business Ecosystem Alliance)合作。 張振濤 | 譯?周強 | 編校