最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

所見非所得:玩家對AI的感覺 | Game AI Pro

2020-04-28 23:49 作者:有木乘舟  | 我要投稿

What You See Is Not What You Get Player Perception of AI Opponents

Baylor Wetzel and Kyle Anderson

4.1 Introduction

? 對很多人來說,即使是游戲開發(fā)人員,開發(fā)出一個戰(zhàn)勝玩家的游戲AI是一件很合理的事情。? 從花了錢買游戲的玩家角度來看,這顯然是一個糟糕的主意。因為玩家只想玩的開心。

??如果我們想制作一個玩家喜歡的人工智能,我們需要了解玩家是如何看待人工智能的。我們設(shè)置一個實驗,一組玩家與24個AI對手進(jìn)行回合策略游戲;根據(jù)難度、真實性和趣味性對他們進(jìn)行排名;并解釋他們認(rèn)為的每個人工智能的策略是什么。實驗結(jié)果發(fā)現(xiàn),玩家不善于確定人工智能的策略,也不善于發(fā)現(xiàn)隨機性和作弊行為。知覺困難與現(xiàn)實主義高度相關(guān),但實際困難的相關(guān)性僅為中等。復(fù)雜的技術(shù)往往能獲得更高的分?jǐn)?shù),但對玩家來說,似乎并不比簡單得多的人工智能更困難、更現(xiàn)實或更有趣。沒有一個因素與球員喜歡與某個特定對手比賽的程度高度相關(guān)。

4.2 The Game

? 我們制造了各種類型的人工智能對手、NPC和系統(tǒng),我們知道不同的類型有不同的人工智能需求。我們的目標(biāo)是學(xué)習(xí)一些普遍的東西,但我們的測試必須以一個特定的游戲為基礎(chǔ)。我們想要玩家能更充分的測試人工智能對手;我們想要人工智能? ?這樣一個人工智能對手,它能讓玩家更充分的測試人工智能;我們想要人工智能更持久的表現(xiàn)出某些性能。我們希望人工智能有很多選擇,因為它給了玩家更多的機會來研究人工智能。我們想要更好的游戲平衡和平等的資源,就像國際象棋游戲,我們希望AI和玩家擁有同樣多的選擇和獲勝的概率。我們猜測如果玩家面臨和AI相同的選擇,那么玩家就更能夠理解AI的策略。也許在我們最具爭議的決定中,我們決定我們想要一個時間不是因素的游戲;我們相信面對時鐘的玩家有更少的時間去擔(dān)心人工智能在想什么。

??最后,我們決定建立一個回合為基礎(chǔ)的戰(zhàn)略游戲。我們的游戲基于《魔法門之英雄無敵》制作,一個平衡的游戲給玩家和人工智能許多戰(zhàn)略選擇。在我們的游戲中,每個玩家控制10支軍隊,其中一支軍隊是一堆相同類型的單位。玩家從精靈、惡魔、九頭蛇、十字軍、冰龍和骨龍等46種單位中挑選。單位屬性包括明顯的候選屬性,如健康、傷害范圍、攻擊和防御(分別是傷害乘數(shù)和除數(shù))以及速度(控制哪個單位先走)、傷害類型(火、毒等)、抵抗力,最后是花費。每個玩家都有相同的錢來購買他們的軍隊。然而,在我們的測試中,我們要求雙方在每場比賽中都使用隨機的軍隊,我們相信這會迫使玩家更多地考慮他們和人工智能的策略。

? 就像游戲《Heros》一樣,我們也有持續(xù)性傷害攻擊,有些單位會更傾向于進(jìn)攻或防守,有些單位會比其他單位強大得多??吹?00個小鬼和一條黑龍搏斗并不少見。人工智能決定攻擊誰是人工智能目標(biāo)和思維過程的線索,我們想知道玩家是否能理解人工智能在想什么。由于boss傾向于使用范圍攻擊,這顯示不出AI的智能,所以我們其從boss戰(zhàn)中移除。

? 對于那些熟悉《魔法門之英雄無敵》的玩家來說,我們做了一些其他的改變來簡化游戲;去掉士氣調(diào)整,增加和調(diào)整一些單位,以更好地支持平衡和戰(zhàn)略使用。最重要的變化是,我們移除了運動,因此任何需要空間推理的單位都可以從它們所處的位置進(jìn)行戰(zhàn)斗,并且可以攻擊任何其他單位。這使得玩家可以有更多的選擇去決定攻擊誰,再次讓玩家有更多的機會來檢驗人工智能的決策能力。我們試圖利用每一個讓玩家去體驗人工智能的決策行為。

? 就像英雄無敵一樣,除了傷害范圍之外,游戲中沒有隨機性。單位不會丟失(?Units do not miss?)。這將重點放在決策上(對本研究很重要),而不強調(diào)運氣的影響。

??總結(jié)一下我們的游戲,雙方都有一組隨機的單位。人工智能必須決定使用哪支軍隊和攻擊哪支敵軍。軍隊的規(guī)模、兵力和防御力都有很大的不同。它們可能會使用元素攻擊和抵抗隨時間變化的傷害效果。玩家看不到人工智能的思維過程,但他們確實看到人工智能在每場游戲中做出的幾十個決定,并且有足夠的時間來觀察和思考這些決定。

4.3 AI Design Goals

? 在我們能夠?qū)ν婕以谌斯ぶ悄軐κ稚砩纤龅暮蜎]有注意到并欣賞到的事情進(jìn)行實驗之前,我們需要決定作為人工智能設(shè)計者在開發(fā)人工智能時對我們來說什么是重要的。?我們制定了以下幾個目標(biāo):

  • 對于玩家,我們關(guān)心人工智能的整體能力、可見錯誤率、可見錯誤嚴(yán)重性以及玩家對人工智能的感知。

  • 對于開發(fā)人員來說,我們關(guān)心人工智能的復(fù)雜性和實現(xiàn)難度。

? 我們?yōu)閷嶒瀯?chuàng)建的AIs就是根據(jù)這些目標(biāo)設(shè)計的。

??對我們來說,玩家感知意味著玩家對人工智能的難度和真實性的看法,以及與之對抗的樂趣。作為其中的一部分,我們創(chuàng)建了AIs,它展示了某些常見的人類行為(堅持和復(fù)仇,在下一節(jié)中解釋),并試圖巧妙地讓玩家獲勝。我們沒有做的一件事是,讓AIs有深刻而不合邏輯的個性。正如在結(jié)果部分所討論的,這并不能阻止玩家相信我們已經(jīng)設(shè)計出了真實的AI。一項關(guān)于個性特征如何影響玩家對人工智能代理感知的科學(xué)研究是未來實驗的一個有趣課題。

??復(fù)雜度是指人工智能程序的復(fù)雜程度。雖然在商業(yè)游戲中并不常用,但程序員通常會考慮使用諸如深度學(xué)習(xí)、博弈論、馬爾可夫鏈蒙特卡羅模擬和遺傳算法等技術(shù)。實現(xiàn)難度是指構(gòu)建一個人工智能的難度。復(fù)雜的人工智能不一定要花很長時間(尤其是在使用庫的情況下)。一個使用大量變量的簡單人工智能可能只需要很短的時間來創(chuàng)建,但需要很長的時間來優(yōu)化。

? 對于這兩個因素,相關(guān)的問題是,“玩家是否注意、欣賞或關(guān)心人工智能的技術(shù)或復(fù)雜性?”換言之,游戲制作成本不低,我們是不是把時間和金錢花在了正確的事情上?

??我們所說的綜合能力,是指它多久獲勝一次?可見錯誤率是指玩家注意到的人工智能所犯的錯誤。所謂明顯的錯誤嚴(yán)重性,我們并不是說人工智能犯了一個導(dǎo)致它輸?shù)舯荣惖腻e誤,而是說人工智能犯了一個導(dǎo)致玩家思考的錯誤,“哇,這個人工智能真的很愚蠢?!比绻粋€人工智能的對手打敗了一個玩家,但是犯了一個人類不會犯的愚蠢的錯誤,玩家會被打動嗎?或者他們會專注于這個愚蠢的錯誤嗎?我們首先認(rèn)真考慮了這個問題,其中一位作者與一個臺球人工智能打了一個只有一個非常好的球員才能打的困難的球,然后錯過了三個簡單的球,這是任何業(yè)余選手都可以打進(jìn)的球。人工智能犯了不該犯的錯誤,這會強烈提醒玩家他(她)只是在和電腦玩,這可能導(dǎo)致玩家退出游戲。這些錯誤在臺球游戲中可能比回合策略游戲更為明顯,但這是所有類型的游戲人工智能開發(fā)人員都應(yīng)該考慮的問題

4.4 Visible AI Traits

??人工智能對手可以給玩家?guī)硎裁凑勝Y?我們當(dāng)然不希望玩家注意或關(guān)心人工智能是使用行為樹、影響圖還是某種延遲的、時間分割的人工智能技術(shù)實現(xiàn)的。但我們希望他們注意到什么???

? 這個重要的設(shè)計問題影響到我們想要制造的AIs的類型。在這個實驗中,我們決定了人工智能對手的八個特性:可用信息的使用、直接信息與摘要信息的使用、技術(shù)復(fù)雜性、可預(yù)測性、策略顯而易見性、持久性、報復(fù)性和擁擠性。

4.4.1 Available Information

??當(dāng)我們談?wù)撘粋€人工智能是否使用可用信息時,我們談?wù)摰氖侨斯ぶ悄苓x擇使用多少相關(guān)和可用的信息片段。

  • 攻擊得分最高的敵人,只需要一條信息。

  • 攻擊你能造成最大傷害的敵人至少需要兩點:你能造成多少傷害,敵人的防御能力。

  • 攻擊你這回合能殺死的敵人至少需要三點你能造成的傷害,敵人的防御能力,敵人當(dāng)前的健康狀態(tài)。

? 如果目標(biāo)策略說明了傷害類型(例如,對木制敵人使用火力攻擊或避免對金屬敵人使用毒藥攻擊),則需要另外兩條信息。如果每個游戲人工智能都使用了所有可用的相關(guān)信息,那么就不需要再這個實驗中做測量了,但是我們已經(jīng)玩了足夠多的3A游戲人工智能,它們用火(或用火攻擊的防火生物)來滅火,以便更好地了解。

4.4.2 Direct versus Summary Information

??假設(shè)一個人工智能知道怎么以通過使用關(guān)于這個單位的低級信息來計算一個給定的敵人有多強大。例如,單位強度可能由其攻擊、防御和起始生命值決定。這些值很容易跨單位進(jìn)行比較。關(guān)于哪個單位先攻擊的信息,相對于健康和攻擊強度來說更難衡量。

? 特殊能力(取決于能力)很難評估。例如,如果第一人稱射擊中的一個單位在攻擊時有10%的機會不消耗彈藥,那么這是否會使他們比健康度高5%的同類單位更強或更弱?

? 人工智能設(shè)計師可以創(chuàng)建一個復(fù)雜的公式,該公式可以考慮所有相關(guān)因素,然后平衡每個術(shù)語的權(quán)重,或者他們可以采用快速簡便的方法,使用一些可能總結(jié)了所有信息(如單位成本)的東西。想攻擊最危險的敵人嗎?攻擊成本最高的那個。并不是所有的游戲都有單位成本,但有些游戲有等級,而在其他游戲中,最大健康是整體單位強度的一個很好的代表。

??這就是我們所說的使用直接信息和摘要信息。使用摘要信息更容易,而且有可能捕獲難以衡量的因素的價值,例如需要花費大量時間(因此也需要金錢)才能正確衡量的特殊能力。它可能(或者可能不會)導(dǎo)致產(chǎn)生一個不太有能力的人工智能,但重要的問題是,玩家會注意到嗎?

4.4.3 Technique Complexity

? 技術(shù)復(fù)雜性是指人工智能技術(shù)有多復(fù)雜。復(fù)雜的技術(shù)可能因為使用復(fù)雜的公式而變得復(fù)雜,也可能因為使用了有趣的人工智能技術(shù)而變得復(fù)雜。相比之下,一個簡單的技術(shù)可能只花了幾分鐘來思考和實現(xiàn)。后者有很多優(yōu)點,從花更少的時間實現(xiàn)(更小的幾率延期)和更少的成本(因人工成本,試錯成本)到更容易調(diào)試。缺點是人工智能可能會越來越笨,導(dǎo)致人工智能對手沒那么有趣。這是假設(shè)玩家可以區(qū)分一個花哨的人工智能和一個簡單的人工智能,這是本實驗中的問題之一。

4.4.4 Predictability

??可預(yù)測性是指人工智能的行為是可預(yù)測的。策略可見性是指能簡單的解釋出人工智能的策略行為。如果人工智能隨機選擇目標(biāo),人工智能的行為基本上無法預(yù)測,但人工智能的目標(biāo)選擇策略是顯而易見的。這個實驗驗證了這個假設(shè)。

4.4.5 Persistency

? 堅持是指人工智能傾向于專注一個選擇并持久的執(zhí)行它。一個選擇一個敵人卻從不放過他們的人工智能是堅持不懈的。一個每轉(zhuǎn)一次都切換目標(biāo)的人工智能不是。我們在一年的時間里做了多次實驗。這項測試的早期版本顯示,人類傾向于專注一個目標(biāo),而一個頻繁切換目標(biāo)的人工智能被視為“計算機”,我們在這些早期測試之后添加了這一特性。

4.4.6 Revenge

??另一個類似人類的特征是復(fù)仇。被特定敵人攻擊的人類玩家傾向于將注意力集中在敵人身上,并因攻擊敵人而懲罰敵人。將這種行為添加到人工智能中是快速而簡單的。理論上,它賦予了人工智能更多的個性,讓它看起來更人性化

4.4.7 Hustling

??我們用“推銷”這個詞來代替欺騙,因為兩者背后的意圖是不同的。當(dāng)我們說有人作弊時,我們通常是指這人篡奪了不屬于他的勝利果實。當(dāng)我們說一個人在向你“推銷”的時候,我們通常是在說這個人正在裝狠,積極的去玩游戲,這樣當(dāng)你輸了的時候,就會覺得只差一點點就能贏了。當(dāng)我們在游戲AI中使用術(shù)語hustling時,我們談?wù)摰氖且粋€AI對手,他做出了微小的、不可察覺的、但似乎可信的改變,結(jié)果導(dǎo)致玩家僅僅是勉強獲勝。

??我們有兩個目標(biāo):玩家必須相信AI盡了全力,當(dāng)玩家擊敗了人工智能時會認(rèn)為是自己技術(shù)高超。我們不希望人工智能犯下明顯的錯誤,如果人工智能遙遙領(lǐng)先,以至于玩家無法獲勝,我們希望人工智能無情地粉碎玩家,這樣當(dāng)他們最終擊敗人工智能時,他們會覺得自己打敗了一個有價值的對手。對于我們的一些人工智能,當(dāng)人工智能顯著領(lǐng)先時(例如,如果它通常造成20-40點傷害,則將范圍降低到20-30),通過擲骰子來完成“推銷”這一行為。其他人也選擇了第二個最好的目標(biāo),如果這個目標(biāo)也是合理的(在排名第一的目標(biāo)價值的20%以內(nèi))。一個人工智能切換到第二個策略,仍然是好的,如果它太超前的話。作弊是可以的(而且通常計算效率高,這在計算資源有限的情況下很重要),但重要的是,人工智能不能被發(fā)現(xiàn)作弊。如果做的正確,玩家不應(yīng)該注意到人工智能作弊,但應(yīng)該覺得他們是靠自己獲勝的。

4.5 The AIs We Created

? 我們試圖創(chuàng)造人工智能對手,他們在上述人工智能屬性和內(nèi)部都有所不同(例如,多種低復(fù)雜度技術(shù))。最后,我們創(chuàng)造了51個人工智能對手,盡管只有22個在這些實驗中使用。

  • PowerCalculationFancy,它使用了一個復(fù)雜的、手動調(diào)整的公式;

  • TeamDamaGementCarlo,它使用模擬來計算敵方團隊在給定目標(biāo)被攻擊前后能造成的集體傷害;

  • HighestStackHealth,它選擇綜合生命值最高的敵軍;

  • HighestStackAdjustedHealth,選擇綜合生命值乘以其防御值最高的敵軍。

  • 低復(fù)雜度的AIs包括Alphabetical和LongestName,它們根據(jù)敵人的名字來選擇敵人。

? 這些顯然不是很好的人工智能,但他們可以很好的測試,玩家是否可以找出一個人工智能的策略方法。它們還提供了一個關(guān)于人工智能性能的基準(zhǔn),使評估更嚴(yán)格的人工智能方法變得更容易。

  • HighestStackCost使用單位成本作為攻擊指標(biāo),攻擊單位成本最高的小隊。

  • PersistentHighestStackHealth 和 PersistentHighestStackCost 分別按生命值和消耗值選擇一個目標(biāo),然后在目標(biāo)上停留直到它們被摧毀。

  • IndividualRevenge?攻擊第一個攻擊他們的單位,直到這個單位被擊敗,不然一直將目標(biāo)放在該單位上。

  • TeamRevenge?每個人工智能攻擊第一個攻擊他們的敵人。

  • RandomBot 隨機攻擊敵人。

  • TK攻擊隨機隊友(不是很好的人工智能)。

  • TopDown?攻擊離屏幕頂端最近的軍隊。

我們創(chuàng)建了這些人工智能作為玩家推斷人工智能策略的基準(zhǔn)。

  • Wolf 的策略是挑出弱者和傷員,這是通過隨機攻擊來實現(xiàn)的,直到一個單位降到50%以下,這時每一個人工智能軍隊都會攻擊這個單位。

  • Gentleman 只根據(jù)大小挑選敵人(其中大小=級別;如果沒有,則挑選更大的敵人;還沒有的話,則挑選較小的敵人)。

  • AlternatingStrategies 在HighestStackCost 和 HighestUnitHealth之間切換。

  • PingPong?給每一個敵人分配一個分?jǐn)?shù),并選擇其中一個最好的;敵人的選擇是隨機的,但由他們的分?jǐn)?shù)加權(quán)得到。

  • 當(dāng)ShareBear擁有一支具有隨時間變化的傷害效果的軍隊時,它會尋找尚未受到影響的敵人單位(隨時間變化的傷害不會在游戲中疊加)。如果沒有,它會攻擊能造成最大傷害的敵人小隊。

  • HighestStackAdjustedHealthManaged, HighestStackCostManaged, PowerCalculationFancy, 和?TeamDamageMonteCarloManaged 是“推銷”人工智能。他們巧妙的控制著與玩家的優(yōu)勢關(guān)系,不會讓玩家感到太大壓力。

  • ?TeamDamageMonteCarloManaged 當(dāng)太超前的時候?qū)⒉呗哉{(diào)整為?HighestStackAdjustedHealth。

4.6 The Test

??這個實驗重復(fù)了四次,但是這里報告的結(jié)果來自于最后的實驗,這個實驗是由12個游戲設(shè)計專業(yè)的學(xué)生進(jìn)行的。這并不是一個巨大的樣本量,但考慮到一些數(shù)據(jù)的定性性質(zhì)、與早期結(jié)果的一致性以及我們現(xiàn)有的資源,這并不是一個糟糕的數(shù)據(jù)。

??受試者被要求與22個人工智能對手中的每一個進(jìn)行多場比賽,追蹤他們的勝負(fù)。所有比賽都在同一天進(jìn)行,對手的順序是隨機的。每局比賽結(jié)束后,他們對人工智能對手的樂趣、真實感和難度進(jìn)行了五分制的評分。他們也寫了一個簡短的解釋,他們認(rèn)為人工智能的策略是什么。

4.7 The Numbers

??我們將從AIs的表現(xiàn)開始。表4.1顯示了每個人工智能贏得多少場比賽。得分最高的人工智能是ShareBear,它的顯著特點是,如果它有一支能夠造成持續(xù)傷害(DoT)的軍隊,它的攻擊目標(biāo)將是沒有被持續(xù)傷害覆蓋到的敵軍。?否則,它會攻擊能造成最大范圍傷害的敵軍(但不考慮軍隊的攻擊分?jǐn)?shù),使度量標(biāo)準(zhǔn)具有誤導(dǎo)性)。下一個得分最高的人工智能使用了一個手動調(diào)整的公式,該公式考慮了許多變量。做得差不多是一個向前看的蒙特卡羅算法。表現(xiàn)最差的人工智能使用了一些無意義的策略,比如根據(jù)他們的名字、屏幕上的順序或只是隨機選擇軍隊。

? 目前還不清楚該如何評價這些算法的性能。PowerCalculationFancy 贏了71%的局,won 71%,PowerCalculationFancyManaged贏了57%。考慮到一個優(yōu)秀的人工智能目的是為了提供足夠的難度,來供玩家挑戰(zhàn),而不是不斷的獲勝,所以57%的勝率是接近我們所希望的。在每一個例子中,一個算法的“推銷”版本比非“推銷”版本贏得的游戲要少,但是在蒙特卡羅算法的例子中,它的表現(xiàn)明顯不佳,30%對70%。

? 感知困難得分(表4.2)的分布要小得多,除了一個在5分制上的AIs得分在3.0到3.6之間,超過三分之一的AIs得分在3.5到3.6之間。盡管實際分?jǐn)?shù)顯示的不是這樣,但玩家們認(rèn)為“推銷”AIs和非“推銷”AIs一樣困難,這意味著玩家們沒有注意到AIs是為了玩家的利益而作弊的。有趣的是,得分最高的人工智能被認(rèn)為是第二容易被打敗的人工智能,而第二難的人工智能則被認(rèn)為與根據(jù)名字長短來攻擊的人工智能一樣的難。?

??表4.3顯示了玩家對每個人工智能的真實感受,表4.4顯示了他們對每個人工智能的喜愛程度。有趣的是,LongestName,一個完全荒謬的策略,在真實性排名第四,在樂趣性排名第五。Alphabetical 分別排在第六和第七位。我們認(rèn)為我們可以在下一節(jié)解釋原因并這樣做。

??

? 前面的表格包含了一些驚喜,但沒有表4.5那么多。表4.5顯示了多少受試者能夠確定每個人工智能的策略。如果他們描述了與人工智能策略的要點大致相似的內(nèi)容,則給出滿分;如果他們描述了策略的相關(guān)(如果不是核心)方面,則給出部分分?jǐn)?shù)。我們在評分上相當(dāng)寬容,但即便如此,盡管玩家們有很多機會去研究人工智能對手,策略識別幾乎不存在。只有兩個AIs的策略被大多數(shù)玩家發(fā)現(xiàn),一個是TK,它攻擊自己的隊友,另一個是TopDown,它攻擊離屏幕頂端最近的軍隊。前者具有獨特的、令人難忘的、令人震驚的行為,而后者則利用了玩家的空間推理能力(這項實驗似乎表明,即使在不相關(guān)的領(lǐng)域,空間推理也起著重要作用)。大約83%的玩家無法識別一個只不過是隨機數(shù)發(fā)生器構(gòu)成的人工智能。

??我們認(rèn)為這是一個重要的發(fā)現(xiàn)----玩家不知道你的人工智能在做什么。我們沒指望玩家會認(rèn)出一個正在運行的蒙特卡羅算法。我們認(rèn)為玩家無法區(qū)分花式人工智能(PowerCalculationFancy)、簡單人工智能(HighestStackHealth)和間接測量人工智能(HighestStackCost),這一點很重要,但并不奇怪。我們希望玩家們不能區(qū)分那些盡力的AIs和那些故意讓玩家感覺自己更厲害的AIs。但令我們驚訝的是,玩家完全無法察覺甚至是明目張膽的、故意的類似人類的行為,比如讓整個團隊注意第一個攻擊他們的人(團隊復(fù)仇),也無法辨別人工智能何時在改變策略(交替策略)。

??(旁白:雖然普通玩家可能無法快速確定一個人工智能的策略,并且可能對進(jìn)行實驗來解決它不感興趣,但互聯(lián)網(wǎng)是一個很大的地方,如果你的游戲有足夠的玩家,最終會有人發(fā)現(xiàn)并在某個地方發(fā)布。我們讓你來決定這是件壞事,還是給你的積極性更高的玩家一個找彩蛋的機會。? )

? ??表4.6顯示了各種測量值之間的關(guān)系。相關(guān)分?jǐn)?shù)在1到-1的范圍內(nèi),1表示它們完美地移動在一起,-1表示它們朝相反的方向移動,0表示它們之間沒有聯(lián)系。注意,策略識別相關(guān)性被忽略了,因為玩家除了兩個策略之外,無法識別所有的策略,使得分析變得毫無意義。

??

? 感知到的困難與除樂趣之外的一切都有著密切的關(guān)系。實際困難與感知困難有很強的相關(guān)性,與真實性有適度的相關(guān)性。在這兩種情況下,難度都與真實性有關(guān)。這或許和其他人發(fā)現(xiàn)的一條有趣規(guī)則相一致----只要讓敵人變得更難殺死,就能讓人工智能顯得更聰明。? 不幸的是,樂趣與任何事情都沒有關(guān)系。一個人對人工智能對手的喜愛程度似乎與人工智能的難度或現(xiàn)實程度無關(guān)。

4.8 The Explanations

??玩家通過研究AI每個回合攻擊的是哪個玩家的軍隊來決定AI的策略。我們對兩件事感興趣。首先,他們是否有足夠的信息來確定人工智能的屬性,比如它的策略和策略的復(fù)雜性?第二,他們認(rèn)為策略是什么?

? 為了理解玩家的推理過程,舉個例子是有幫助的。假設(shè)玩家擁有表4.7所示的軍隊。他們與四個對手交手,在第一回合中,他們按照表4.8中規(guī)定的順序進(jìn)攻他們的軍隊。

? 最大傷害是一個單位造成的基礎(chǔ)傷害。調(diào)整后的傷害計算為單位傷害乘以單位數(shù)量乘以攻擊得分。在戰(zhàn)斗中造成的傷害是調(diào)整后的傷害除以目標(biāo)的防御。

??因為我們只看第一回合的戰(zhàn)斗,所以我們無法確定前一節(jié)中描述的一些人工智能屬性。我們忽略了復(fù)仇,堅持,隨機性和擁擠,但仍然有我們和玩家都可以收集的信息和關(guān)鍵點可以制作。(一個多軍隊、多回合的例子在書中表現(xiàn)得很差。)

??花幾秒鐘看看你能不能搞清楚對手a的策略是什么。在這樣做的時候,你把自己放在玩家的腦海中,按照他們的方式體驗游戲(就像你有表4.7,玩家有一個所有單位值的電子表格)。為什么人工智能選擇了他們的軍隊,有明顯的解釋嗎?答案很可能是“是的”。事實上,可能有幾個問題,我們將在一分鐘內(nèi)回到這一點。很多玩家都寫著“他們正在選擇最強的”,這是真的,這取決于你如何定義最強。在這種情況下,對手A選擇其單位最大傷害得分最高的軍隊。

??對手B不那么明顯。需要花點時間想想人工智能可能在想什么。你可能會注意到,人工智能不再首先選擇龍,而是選擇小鬼,這是游戲中最弱的單位。為什么?如果你仔細(xì)查看軍隊的細(xì)節(jié),你可能會注意到那里有多少小鬼。當(dāng)一個小鬼只造成2點傷害時,一堆小鬼累計造成3300點傷害,是黑龍的5倍(4*160=640)。

??對手C的攻擊順序與對手B的攻擊順序略有不同。如上所述,一支軍隊的實際傷害是單位傷害(對手A)乘以獲得疊加傷害的單位數(shù)量(對手B)乘以該單位的攻擊得分,得到調(diào)整后的傷害。對手C使用這個公式。僅僅因為這個策略是合理的,簡單的,直截了當(dāng)?shù)?,并不意味著玩家會想出辦法。我們也不應(yīng)該期望他們能。雖然比對手B的策略更復(fù)雜,但它產(chǎn)生的結(jié)果幾乎完全相同。它還顯示了跟AIs Stack Cost, Adjusted Stack Health, PowerCalculationFancy 以及其他潛在對象相同的結(jié)果(eg.,TeamDamageMonteCarlo)。而且,事實上,沒有一個玩家能夠確定這些AIs的策略。

? 我們能從中得到什么教訓(xùn)?一種可能是玩家根本沒有感知力、深度思考或創(chuàng)造力,甚至在他們被告知要研究人工智能的環(huán)境中也是如此(我們稍后會回到這個理論上來)。另一種可能是,合理或半合理的策略往往得出相同的結(jié)論。一個推論是,使用需要大量調(diào)整的多個變量的復(fù)雜策略可能不會產(chǎn)生玩家會注意或欣賞的結(jié)果。另一個教訓(xùn)可能是,在許多游戲中,特性是相互關(guān)聯(lián)的。強大的單位,如龍,往往有很高的血量,攻擊和傷害,而弱小的單位,如矮人,則往往相對較低。一個推論是,人工智能可能沒有太多的信息可利用,除非游戲設(shè)計師有意在單位里投入大量的關(guān)鍵信息。?

??我們做了這樣的實驗,讓單位攻擊力與血量、防御力高度相關(guān),反之亦然。唯一的目的就是給玩家和人工智能更多的策略選擇;一個智能人工智能被浪費在一個游戲上,這個游戲的設(shè)計不允許人工智能變得聰明。既然游戲設(shè)計了人工智能,那就得讓他能變得更加聰明,不然將是浪費資源。

??從表4.8上看,對手D使用的策略并不明顯。這里的攻擊順序是隨機的。這里沒有其他任何策略----AI就是一個隨機數(shù)引擎。經(jīng)過幾輪毫無理由的目標(biāo)轉(zhuǎn)換,很明顯這個人工智能沒有策略?;蛘呶覀兪沁@么想的。83%的玩家無法判斷人工智能是隨機行為。這尤其令人驚訝,因為其他具有一致策略的人工智能通常被指責(zé)為隨機的。RandomBot實際上被評為最不隨機的人工智能對手之一。

??在討論對手E之前,讓我們先討論一下我們從玩家那里得到的一些策略猜想。盡管并非詳盡無遺,但表4.9中列出了幾個有代表性的答案(注:表中不包括“我不知道”的答案,這在幾乎所有的AIs中都很常見)。

? 一些觀察到的現(xiàn)象:

  1. 很少有玩家正確地猜到了人工智能在做什么。

  2. 不同的玩家對AIs的印象往往非常不同(例如,一個玩家說HighestStackHealth“喜歡硬漢”,而另一個玩家說HighestStackHealth“用最多的人槍殺團體”,“人數(shù)最多的團體”往往單個單位偏弱,因為一個人負(fù)擔(dān)不起大量的強勢單位)。

  3. 超過一半的AIs被指控沒有策略,只是隨機行為。

  4. 其中一個沒有作弊的AIs被指控公然作弊。其中一個有利于玩家的AIs被指控公然欺騙玩家。

  5. 胡說八道的AI被認(rèn)為是聰明的。

  6. 據(jù)說許多人工智能會故意在整個團隊中傳播毒藥,以便從長遠(yuǎn)來看削弱它們。這通常被認(rèn)為是AIs唯一的策略。盡管如此,22個AIs中只有一個知道如何使用點攻擊,比如毒藥,如果沒有能夠執(zhí)行它們的單位(隨機選擇的單位,42個單位中只有兩個擁有它們),那么沒有一個AIs使用它們。

  7. 所描述的策略有時將個性和偏見歸因于人工智能。

??

? 這是我們發(fā)現(xiàn)最有趣的最后一點。也許我們是糟糕的游戲設(shè)計師,但我們并沒有想到要賦予AIs個性,回想起來,這似乎與我們的目標(biāo)相悖。玩家,作為人類,被設(shè)計成善于推斷動機、意圖、偏見和個性怪癖,而不是數(shù)學(xué)公式和優(yōu)化。我們的很多玩家在AIs中看到了不存在的個性。一位玩家認(rèn)為,HighestStackCostManaged正在模仿他們的動作。TeamRevenge 更喜歡攻擊僧侶等神職。TeamDamageMonteCarloManaged顯然討厭水母、強盜、獸人和九頭蛇。在《英雄無敵》中,每個單位都屬于一種類型(生命、秩序、自然等),而這些都是混亂的怪物?;靵y怪物顯然受到了IndividualRevenge的特殊對待,據(jù)說他們利用混亂軍隊攻擊玩家最強大的單位,而其他人則在軍隊中傳播毒藥。

??目前還不清楚為什么玩家會相信這些東西,這是不好的,因為這意味著它已經(jīng)超出了游戲設(shè)計師的控制。不過,在某些情況下,玩家感知的原因是有道理的。玩家猜測IndividualRevenge總是會試圖攻擊冰狼。事實上,由于冰狼在游戲中的是速度是最快的,所以總是第一個攻擊。因此IndividualRevenge攻擊第一個攻擊他的敵人,其原因是有道理的。這種行為不是個人的,只是一種策略和速度得分的人工制品,但玩家看不到復(fù)仇,他們看到的是一個對自己心愛的狗有著不合理仇恨的人工智能。

? 此時我們回過頭來看對手E??纯慈斯ぶ悄芄舻能婈犿樞?。人工智能從黑龍和冰龍開始,然后一直到僧侶和小鬼。當(dāng)被問到人工智能遵循什么策略時,玩家向我解釋說人工智能討厭龍。他們接著腦補了人工智能的一段非常生動的背景故事,這個故事描述了人工智能的家庭是如何被龍毀滅,以及他為了復(fù)仇而展開的一系列冒險。實際上,這個人工智能只是根據(jù)名字長短來選擇攻擊的敵人。剛好,游戲中龍往往有很長的名字?,奇幻傳說中的龍的名字有很多修飾詞黑龍、青龍、冰龍、骨龍、混沌龍等等。因此,所有龍的名字都比其他單位的名字長,因此LongestName確實對龍有偏見。如果我們在游戲中沒有龍的話,這種性格可能就不明顯了(牛頭怪、矮人和僧侶缺少黑龍、骨龍和冰龍的故事背景)。有時角色是其他看似不重要的游戲設(shè)計決策的偶然副產(chǎn)品。

4.9 Conclusion

? 通過這些實驗,我們了解了玩家和我們自己的一些事情。我們不會說這個實驗的結(jié)果對其他游戲都是正確的,我們也會聽取其他開發(fā)者的建議。我們相信還有很多有趣的準(zhǔn)則可以應(yīng)用于游戲,優(yōu)秀的設(shè)計師會酌情選擇最適合的那些。

?玩家不是特別擅長估計人工智能對手的難度。一般他們的到順序是較好的,(但不是最好的;贏得最多的人工智能被認(rèn)為是最容易擊敗的人工智能之一),但傾向于認(rèn)為除了最差的人工智能外,其他人工智能的難度大致相等,而勝負(fù)記錄則恰恰相反。作為一種基于回合的策略,人們會假設(shè)玩家有足夠的機會研究人工智能的能力。但是在快節(jié)奏的游戲中,這種情況不太可能發(fā)生;雖然在許多其他游戲類型中,敵人并不因為更聰明而更難對付,而是由于更多的血量、武器等。所以,也許我們應(yīng)該說,玩家并不擅長觀察對手的聰明程度。

? 在復(fù)雜的人工智能領(lǐng)域投入時間值得嗎?消息喜憂參半。最復(fù)雜的人工智能比簡單的人工智能表現(xiàn)得更好,而簡單的人工智能比真正荒謬的人工智能表現(xiàn)得更好。不過,玩家們似乎沒有注意到,一個隨機選擇動作的人工智能被玩家評為最難對付的人工智能對手之一,與蒙特卡羅算法平起平坐,并顯著領(lǐng)先于前兩名得分的人工智能。

? 如果玩家認(rèn)為人工智能很難(或者,正如我們之前所說的,更聰明),那么感知到的困難與真實性高度相關(guān),他們也認(rèn)為人工智能更真實。不幸的是,實際困難和真實性之間的關(guān)聯(lián)并沒有那么高。因此,很難理解這一點。玩家是因為錯誤地認(rèn)為某個人工智能更聰明而覺得它更真實,還是因為它看起來更真實而認(rèn)為它更困難、更聰明?

??我們給人工智能的對手增加了兩個類似人類的特征:復(fù)仇和堅持。我們還有一個AI(狼),當(dāng)一個單位受重傷時,它會改變戰(zhàn)術(shù),所有的單位都會攻擊虛弱的敵人來徹底地殺死他。這些行為都來自于人類對玩家個性的研究。這些具有類似人類特征的人工智能沒有一個在真實性方面得到高分。被認(rèn)為最真實的人工智能是基于蒙特卡羅算法的,這可以說是測試中最不像人類的人工智能。我們不確定這說明了玩家對真實性的看法是怎樣的。也許玩家無法理解人工智能在想什么,除了他們認(rèn)為要擊敗對手有多困難之外,沒有什么其他東西能讓他們建立在現(xiàn)實主義的基礎(chǔ)上。也許玩家無法理解人工智能在想些什么,只要對手看起來很難擊敗,那就是真實的。

? 也許對很多人來說并不奇怪,玩家并不擅長發(fā)現(xiàn)對手是否作弊了。沒有玩家評論過幾個經(jīng)常欺騙他們的人工智能對手,但是有幾個人非常直言不諱地說人工智能是如何通過欺騙來打敗他們的,盡管沒有這樣的人工智能存在。

? 玩家推斷人工智能的策略的能力怎么樣?結(jié)果很可怕。我們并不期望他們知道人工智能是基于成本還是血量來做出決定,但他們對人工智能推理的任何方面都沒有什么洞察,即使人工智能遵循簡單、一致的規(guī)則。

? 我們試圖在定性測量中尋找模式,比如“這個人工智能比其他人工智能更隨機”,“這個人工智能使用了更復(fù)雜的技術(shù)”,“這個人工智能考慮了幾個因素”,“這個人工智能像石頭一樣沉默寡言”,但毫無發(fā)現(xiàn)。玩家無法準(zhǔn)確判斷對手的難度/智力或理解人工智能的策略,我們沒有發(fā)現(xiàn)任何證據(jù)表明測試中的玩家表現(xiàn)出對人工智能設(shè)計師為制造人工智能對手所付出的努力的贊賞,至少不是為使人工智能智能智能化所付出的努力。

? 盡管我們沒有嘗試去衡量它,但我們相信(以及幾十年來許多其他人的信念),如果做出更好的人工智能是一種正確的努力,那么玩家會欣賞這份努力。很常見的一種說話是,玩家喜歡人工智能表現(xiàn)出智能,這意味著人工智能會大聲說出自己的想法。許多玩家可能不認(rèn)識或欣賞一個站在他們旁邊的人工智能(人工智能表現(xiàn)聰明),但當(dāng)一個人工智能明確地喊“讓我們站在他們旁邊”(人工智能聲稱它表現(xiàn)聰明)時,他們確實會欣賞。在游戲AI中,言語有時比行動更響亮。我們在其他帶有情感角色的游戲中的經(jīng)驗表明,NPC如果會哭、笑、顫抖,或者在其他方面表現(xiàn)出思考的跡象,玩家就會對NPC有強烈的反應(yīng)。我們認(rèn)為玩家能欣賞智能,這里的測試僅僅表明他們似乎不太擅長識別智能。也許要吸取的教訓(xùn)是,人工智能設(shè)計師的工作是確保他們不會錯過它。

? 是什么讓游戲變得有趣,至少當(dāng)它涉及到人工智能的對手時?我們不知道。在這個實驗中,玩家喜歡玩一個特定的人工智能對手的程度與實際或感知到的難度或智力無關(guān),也與對手被認(rèn)為的真實程度無關(guān)。它也與玩家識別、理解或欣賞人工智能策略的能力無關(guān),因為玩家做不到。努力讓玩家獲勝的“推銷”人工智能被玩家在有趣性方面評了高分,但也在其他幾個方面墊底。所以也不是這個原因。

? 一個隨機的人工智能并列為第二個最有趣的人工智能真的讓我們吃驚。我們最初的想法是,如果一個隨機的人工智能和有目的的人工智能得到了一樣的評價,那么我們的設(shè)計一定很糟糕。? 但我們提醒自己,我們的測試臺是基于歷史上最流行的游戲之一。

? 最后的觀察,玩家樂于為NPC們賦予各種背景故事。他們看到的是欺騙、偏見、動機和欲望,這些本不存在的東西。

? 雖然我們沒有在我們的電子表格中記錄下來,但有傳聞?wù)f,當(dāng)玩家感覺到對手有這樣的個性時,他們似乎更喜歡這個游戲。如果我們想讓玩家有更多的樂趣,也許我們應(yīng)該將注意力放在如何讓人工智能具有欲望、動機、偏見和背景故事,而不是讓他們?nèi)绾乌A得玩家。

??

??


所見非所得:玩家對AI的感覺 | Game AI Pro的評論 (共 條)

分享到微博請遵守國家法律
宁德市| 望谟县| 东乌珠穆沁旗| 清水河县| 永福县| 峡江县| 六安市| 利川市| 贡山| 天门市| 若尔盖县| 库车县| 喀喇| 阳江市| 象州县| 建德市| 友谊县| 龙南县| 福泉市| 滨海县| 神农架林区| 镇沅| 扎赉特旗| 克什克腾旗| 浏阳市| 容城县| 安龙县| 沙坪坝区| 平远县| 清徐县| 瑞安市| 高邑县| 寻甸| 蓝山县| 宝兴县| 奎屯市| 黄平县| 手游| 黄浦区| 深水埗区| 海宁市|