智能漸近線|聊天機器人也要懂“人情世故”?一文了解Chatbot所需的11種社交特性


聊天機器人(Chatbot)正在改變?nèi)祟惻c計算機之間的互動方式。
諸如GPT、LLaMA等大語言模型(LLM)的到來,正在重塑人類生活的各個領(lǐng)域,不論是全新的對話互動方式,還是更為高效的知識獲取與學(xué)習(xí),甚至通過聊天機器人來診治精神病患者或是實現(xiàn)患者自我健康監(jiān)控。
在當(dāng)今世界,Chatbot使用的廣泛程度已經(jīng)遠超乎你的想象。2018年的F8大會上,F(xiàn)acebook宣布其Messenger應(yīng)用上就已經(jīng)有30萬個活躍的Chatbot。而BotList網(wǎng)站更是羅列了數(shù)以千計的Chatbot,涵蓋了教育、娛樂、游戲、健康、生產(chǎn)、旅游等多個領(lǐng)域。

但問題是,這些Chatbot果真能像人類一樣“懂”如何聊天嗎?它們是否能夠精準滿足用戶的交流需求和期望呢?
答案是否定的。為了讓Chatbot更好地滿足用戶預(yù)期,IBM和華盛頓大學(xué)的研究者建議Chatbot的交互目標(biāo)中應(yīng)當(dāng)包含社交能力。
“讓用戶接受對話機器人主要是一個社會問題,而不僅僅是技術(shù)問題。
??——Mario Neururer等
奧地利因斯布魯克管理中心
研究表明,人們更偏好具備一定社交特性的Chatbot。那么,隨之而來的則是:到底哪些社交特性能夠提高Chatbot的溝通能力和社交技巧?這些特性在哪些領(lǐng)域具有顯著的益處?使用它們是否存在挑戰(zhàn)?
早在AI浪潮爆發(fā)的3年之前,北亞利桑那大學(xué)和巴拉那聯(lián)邦理工大學(xué)的研究者Chaves和Gerosa就曾進行了一項深入的文獻研究。他們從近千篇相關(guān)文獻中篩選出了56篇代表性的工作,來探究Chatbot的社交特性如何影響用戶對其的感知和反應(yīng)。研究者運用基于扎根理論(Grounded Theory)的定性編碼方法,總結(jié)出了三類共計11種社交特性的概念模型。
?
結(jié)果發(fā)現(xiàn),在特定領(lǐng)域中這11種社交特性有利于Chatbot和用戶更好地交互,但其中仍存在一些使用限制和挑戰(zhàn)。這些研究成果有助于深入了解特定的特性是否適合特定Chatbot的交互情境,來幫助聊天AI產(chǎn)品的設(shè)計者在選擇特性子集時做出明智決策。

Chatbot應(yīng)具備哪些社交特性?
在這項研究中,研究者通過對相關(guān)工作的總結(jié),提出了11個Chatbot應(yīng)該具備的社交特性,并將其分為三類。首先是“會話智能(conversational?intelligence)”,這個類別有助于Chatbot管理自己與用戶的交互過程。其次是“社交智能(social?intelligence)”,該類別關(guān)注習(xí)慣性的社交規(guī)范。最后是“擬人化(personification)”,指的是賦予Chatbot可感知的身份和個性表現(xiàn)。
為了幫助設(shè)計師和研究人員開發(fā)能夠體現(xiàn)這些社交特性的Chatbot,研究者對這三類社交特性在Chatbot上的應(yīng)用所帶來的益處以及相應(yīng)的挑戰(zhàn)進行了詳細的分析。

(一)會話智能
會話智能指的是Chatbot在實現(xiàn)對話目標(biāo)的技術(shù)能力之上,所具備的有效溝通能力。這能讓Chatbot積極主動地參與對話,展現(xiàn)它對討論主題和不斷演變的對話語境的認知,同時還能夠理解對話的流程。
1.?主動性(Proactivity)
當(dāng)與具有主動性的Chatbot進行對話時,對話會變得更加豐富多樣,不再拘泥于簡單的一問一答模式。
比方說,Chatbot可以自己引入新的話題,提供額外的信息,并提出后續(xù)的追問,從而使對話更加有趣,也更有效率。不僅如此,Chatbot還能依靠自己的主動性去吸引和引導(dǎo)用戶,避免用戶過早對交流失去興趣。
然而,Chatbot也要講究方式方法,太過主動也可能會讓用戶感到不適。合適的時機和與話題的相關(guān)性十分重要。同時,研究指出,絕不能侵犯用戶隱私,也不能讓用戶有被操控的感覺。
2.?責(zé)任感(Conscientiousness)
不同于人類,Chatbot的責(zé)任在于維護對話的主題和上下文。一個負責(zé)任的Chatbot能夠確保對話流程連貫,最終得到有意義的結(jié)果。
根據(jù)Brandtzaeg的實驗(參考文獻10),有68%的參與者表示他們使用Chatbot主要是為了提升“生產(chǎn)力”。在復(fù)雜的行業(yè)領(lǐng)域(如金融)中,即便是最簡單的問題也需要了解一定的背景知識,即“上下文”。顯然,能夠記住這些上下文并正確使用的Chatbot是提高生產(chǎn)力的前提保障。
然而,目前的Chatbot在處理過于復(fù)雜的問題和長篇上下文方面仍存在局限。此外,Chatbot對于上下文的理解與用戶表達的內(nèi)容之間可能存在歧義。由此,如何在對話中保持統(tǒng)一性也是一項重要的挑戰(zhàn)。
3.?可交流性(Communicability)
Prates認為(參考文獻11),“可交流性是交互式軟件的本質(zhì),因為用戶是通過與系統(tǒng)交換信息來實現(xiàn)目標(biāo)的?!?/strong>在Chatbot的討論范疇中,可交流性是指需要向用戶傳達自己的功能,也就是讓用戶知道應(yīng)該如何使用自己。
與傳統(tǒng)軟件不同,Chatbot不再通過按鈕、菜單、鏈接或新手指南來呈現(xiàn)自身功能,而是在與用戶的多輪交流對話中逐步展示其能力。
除了明確功能,可交流性還有助于管理用戶期望。畢竟,如果用戶期望超出了Chatbot的能力范圍,“期望越高,失望越大”。
總之,會話智能的社交特性能讓Chatbot在交互中扮演主動地提供關(guān)注和信息的角色。這類特性可以幫助Chatbot管理對話,讓它變得高效、有趣和靈巧。為了實現(xiàn)這一目標(biāo),產(chǎn)品的設(shè)計研發(fā)人員需要關(guān)注提供信息的時機與相關(guān)性、隱私、交互的靈活性以及一致性等問題。
(二)社交智能
社交智能指的是個體為了實現(xiàn)預(yù)期目標(biāo)而產(chǎn)生適當(dāng)社交行為的能力。在人機交互領(lǐng)域,人們對待計算機就如同對待社交角色一樣。因此,在Chatbot和用戶的互動中,有必要讓它遵守人類社交的交往規(guī)則。
1.?傷害控制(Damage?control)
多項實驗表明,人們在對待Chatbot時的態(tài)度與對待真實人類時存在差異,更容易采取騷擾行為、使用非正常輸入進行壓力測試,并且更容易對結(jié)果表現(xiàn)出不滿。Lasek和Jessa在分析酒店Chatbot對話記錄時發(fā)現(xiàn),辱罵性言論占比達到了2.8%;而在Amazon的對話中,有4%的句子含有露骨的性暗示(參考文獻12)。
因此,傷害控制成為了Chatbot不可或缺的社交特性。這種特性使Chatbot能夠以適當(dāng)?shù)姆绞綉?yīng)對騷擾和測試行為。當(dāng)然,前提是Chatbot必須能夠識別出敏感詞匯,同時也需要識別超出其能力范圍的請求,并提供符合對話上下文的回應(yīng)。
2. 連貫性(Thoroughness)
有趣的是,Chatbot的語言風(fēng)格不僅會影響到用戶的使用體驗,還會影響到用戶的回答風(fēng)格——用戶在交流時會更傾向于和Chatbot使用的語言風(fēng)格保持一致。
一致的語言風(fēng)格和精準的語言使用,能夠顯著增加Chatbot的可信程度,使其從“acting as a machine(像機器一樣工作)”變?yōu)椤癿ore as a person(與真人更相似)”。
可惜,盡管有13篇研究強調(diào)了語言使用和語言風(fēng)格對用戶體驗的重要性,但目前尚無工作提出具體的策略來支持Chatbot的連貫性。
3.?禮貌(Manners)
盡管不同地區(qū)和性格的人對禮貌的界定存在差異,但通常情況下,禮貌可以營造更融洽的對話氛圍。Chatbot也可以通過使用禮貌的詞匯,例如問候、道歉或結(jié)束語,來維持對話的和諧,減少不愉快對話帶來的負面體驗。
然而,即便對于人類而言,維護面子也是一項挑戰(zhàn),更不用說Chatbot了。讓Chatbot識別潛在的丟臉行為(Face-Threatening Acts),并以禮貌的方式化解,這一任務(wù)更是異常復(fù)雜。
4.?道德準則(Moral agency)
一個沒有道德準則的Chatbot是難以控制的,就像微軟在Twitter上推出的Tay一樣,在短時間內(nèi)就展現(xiàn)出了種族歧視和性別歧視等不道德行為。因此,Chatbot需要能夠根據(jù)社會的道德觀念來采取行動。
限制Chatbot具備道德準則的主要痛點是訓(xùn)練數(shù)據(jù)和訓(xùn)練方法當(dāng)中的偏見。開發(fā)者給Chatbot投喂的訓(xùn)練數(shù)據(jù)通常是“干凈”的,沒有不道德的語料。然而,這種“干凈”的數(shù)據(jù)反而導(dǎo)致Chatbot對不道德言論的陌生,無法適當(dāng)?shù)貙ζ渥龀龌貞?yīng)。
5.?情商(Emotional intelligence)
具備情商能讓Chatbot接受、識別和表達情感,對用戶的情感作出回應(yīng),并在解決問題時運用情感智能。
這種能力主要在一些可能涉及情感披露的領(lǐng)域中發(fā)揮作用,例如教育和醫(yī)療。有趣的是,實驗表明,在與Chatbot交流時,人們更有可能披露自己的負面情緒。參與者表示,有些話題與人類交談可能會感到尷尬,但如果對方是個機器人,便可以更加隨心所欲地傾訴。
此外,情商還可以使用戶更加信任Chatbot。在一項實驗中,用戶表示在與治療師Chatbot交流的體驗中,最好的一點是能夠感受到同理心。這種感受使他們更愿意稱呼Chatbot為“他”、“朋友”或者“一個有趣的小家伙”。
Lee和Choi提出了一種有趣的方法來提升Chatbot的情商。他們認為通過自我披露和展現(xiàn)互惠性的方式可以增加用戶對Chatbot的信任度和親近感(參考文獻18)。然而,盡管這個假設(shè)頗具潛力,目前還需要進一步的研究來充分驗證其有效性。
6.?個性化(Personalization)
擁有一個“私人訂制”Chatbot對許多人來說是非常有吸引力的。個性化能夠使Chatbot根據(jù)用戶的個人信息和獨特需求來定制化調(diào)整其功能。
想象一下,如果一個導(dǎo)航的Chatbot沒有個性化能力,它會為所有用戶提供統(tǒng)一的答案,而不考慮用戶的個人需求,比如是否喜歡走高速,是否愿意繞開擁堵路段,還是只是想隨處兜兜風(fēng)。
然而,實現(xiàn)個性化功能意味著Chatbot必須收集足夠的用戶個人信息,這可能會帶來用戶隱私泄露的風(fēng)險。因此,在實現(xiàn)個性化功能的同時,務(wù)必要高度重視用戶的隱私保護問題。
總的來說,社交智能這一類社交特性有助于Chatbot解決社交定位問題,同時增強調(diào)整能力、可信度、類人性、互動性和人際關(guān)系。在實現(xiàn)這一目標(biāo)的同時,設(shè)計師和研究人員也應(yīng)關(guān)注隱私保護、情感調(diào)節(jié)問題、語言一致性以及故障和不當(dāng)內(nèi)容的識別。
(三)擬人化
擬人化是指將人類的特質(zhì)賦予Chatbot,包括外貌和情感狀態(tài)。文獻表明,經(jīng)過誘導(dǎo),用戶可以將計算機視為人類,且計算機越類人化,人們的反饋就會愈發(fā)社會化。
1.?身份(Identity)
雖然Chatbot無法自主選擇自己的身份,但開發(fā)人員在定義其對話風(fēng)格和行為方式時,總會有意無意地賦予它一定的身份特質(zhì)。一個恰如其分的身份不僅能夠增強對話的沉浸感,還能夠提升用戶的信任度。想象一下,當(dāng)患者面對“專業(yè)醫(yī)師”和“實習(xí)醫(yī)生”兩種Chatbot身份時,前者很可能更容易獲得信賴。
Chatbot身份的建構(gòu)可能涵蓋多個方面,如性別、年齡、語言風(fēng)格和姓名,甚至連字體的選擇也在其中。有研究表明,用戶認為采用手寫字體的Chatbot更具人類特質(zhì)。
然而,如何賦予Chatbot一個貼切的身份是頗有挑戰(zhàn)的。需要注意的不僅是Chatbot身份與其能力之間的一致性,還需避免身份賦予帶來的社會刻板印象,比如黑人身份所帶來的與種族主義相關(guān)的聯(lián)想。
2.?人格(Personality)
根據(jù)社會學(xué)觀點,人格是用來預(yù)測個人思維、情感和行為的特質(zhì),包括外向性、宜人性、盡責(zé)性、神經(jīng)質(zhì)、開放性、氣質(zhì)和幽默感等。同樣,Chatbot也需要具備這些人格特質(zhì)。
擁有一致人格的Chatbot更具可預(yù)測性和可信度。喜怒無常和多變的人很少受歡迎,同樣,如果Chatbot的態(tài)度出現(xiàn)不可預(yù)測的波動,也會讓用戶感到不適。
需要注意的是,不同的用戶群體對Chatbot的人格有不同偏好。例如,學(xué)生更偏好宜人性和外向性較高的導(dǎo)師式Chatbot,以便能在面對挫折時獲得鼓勵;而一些以娛樂為目的的人可能更希望Chatbot具備幽默感。
以上兩個擬人化特性的好處與社交智能很類似,包括增強可信度、類人性、互動性和人際關(guān)系。不同之處在于,研究人員應(yīng)專注于賦予Chatbot可識別的身份和人格特征,并且這些特征可以和用戶所期待的Chatbot特質(zhì)相一致。此外,也要關(guān)注對用戶文化背景的適應(yīng)、減少負面刻板印象的影響。
如何選擇Chatbot的社交特性?
進一步的研究揭示,不同領(lǐng)域?qū)ι缃惶匦缘男枨蟾骶卟町悺?/p>
目前,幾乎所有的社交特性在開放領(lǐng)域的Chatbot中都得到了應(yīng)用,唯獨“可交流性”例外。這是因為開放領(lǐng)域的Chatbot通常無需明確界定它的具體能力范圍,只需模擬人類的交流方式即可。
然而,在特定領(lǐng)域中,Chatbot往往需要更加定制化的社交特性。以教育和客服領(lǐng)域為例,Chatbot在禮貌和情商方面需求更高,但在不同的目標(biāo)下表現(xiàn)迥異。在教育背景下,這些特性旨在激勵學(xué)生,因此Chatbot應(yīng)擅長鼓勵和安撫,特別是在學(xué)生遇到挫折時。而在客服領(lǐng)域,情商和禮貌更多地用于應(yīng)對客戶對產(chǎn)品或服務(wù)的不滿情緒,從而提供更優(yōu)質(zhì)的服務(wù)體驗。

此外,不同社交特性之間的關(guān)系也值得關(guān)注。研究者們發(fā)現(xiàn),社交特性之間可以相互影響、相互促進。比如,當(dāng)責(zé)任感和情商同時出現(xiàn)時,因為保留了先前對話的信息并能夠回憶它們,Chatbot能夠展現(xiàn)出更強的同理心。責(zé)任感也能支持更好的個性化特性,因為Chatbot能夠記住不同交互會話中的個人偏好。研究者用一個理論框架總結(jié)了社交特性之間的22種關(guān)系命題。

總結(jié)
Chatbot的發(fā)展已經(jīng)不再僅僅依賴于計算機科學(xué),還需要社會科學(xué)的有力支持。
這項研究通過對相關(guān)工作的回顧性調(diào)研,總結(jié)出了11種Chatbot所需的社交特性,并提出了社交特性之間的22種相互關(guān)系。這些特性或許并不全面,也沒有定量分析,但已經(jīng)涵蓋了許多人際交流的關(guān)鍵要素。這些結(jié)果為設(shè)計師和研究人員在推動人機交互領(lǐng)域發(fā)展方面提供了重要的參考和機遇。
研究者認為,“社會科學(xué),尤其是社會語言學(xué)和傳播學(xué),在Chatbot的設(shè)計中扮演著重要角色?!?/strong>
文中研究者指出了一些可指導(dǎo)這些研究的社會學(xué)理論,如合作原則、社會認同、個性化、禮貌以及心智感知理論。具體而言,責(zé)任感、連貫性和主動性可能屬于合作原則的范疇,而社會認同理論可能有助于解釋人機對話中的身份、人格和道德問題。這些理論為Chatbot的開發(fā)提供了有益的指導(dǎo),讓設(shè)計師和研究人員能夠更好地塑造Chatbot的社交特性。
然而,需要注意的是,要讓Chatbot具備恰當(dāng)?shù)纳缃惶匦圆⒉皇且豁椚菀椎娜蝿?wù)。在確保Chatbot的社交特性與其功能一致的同時,還需要避免潛在的偏見和社會刻板印象。這需要我們在技術(shù)與倫理之間找到平衡,以創(chuàng)造出能夠為用戶提供積極體驗的Chatbot。
綜上所述,Chatbot的未來之路在于融合計算機科學(xué)與社會科學(xué),讓技術(shù)更加人性化、智能化,為用戶提供更優(yōu)質(zhì)、親近的交互體驗。通過深入挖掘社會科學(xué),我們能夠更準確地滿足人們多樣化的需求,使Chatbot的發(fā)展更加貼近人心,為人類創(chuàng)造出更加有益的數(shù)字伙伴。