《未來網(wǎng)絡(luò)》第三部 背景Part1

今天(2018年4月6日)都市快報看到的。
于是理所應(yīng)當(dāng)(不要臉)的拿過來當(dāng)背景了。

韓國頂尖大學(xué)要研發(fā)“機器人殺手”? 全球50個專家聯(lián)名抵制

電影《終結(jié)者》機器人

美軍人形機器人“阿特拉斯”,以希臘神話中的大力神名字命名。

美軍“魔爪”機器人
科學(xué)家憂懼AI機器人的戰(zhàn)爭超乎人類想象
全球超過50個人工智能研究人員,4日聯(lián)名抵制韓國科學(xué)技術(shù)院設(shè)立人工智能武器實驗室,警告謹(jǐn)防“機器人殺手”。
韓國研發(fā)自動武器?
50專家要求停止
韓國科學(xué)技術(shù)院與韓國十大財團之一韓華集團旗下韓華系統(tǒng)公司合作,于今年2月開設(shè)人工智能研發(fā)中心,目的是研發(fā)適用于作戰(zhàn)指揮、目標(biāo)追蹤和無人水下交通等領(lǐng)域的人工智能技術(shù)。
本月4日,由澳大利亞新南威爾士大學(xué)人工智能教授托比·沃爾什發(fā)起,美國和日本等30個國家和地區(qū)的50個研究人員,簽署一封公開信,敦促韓國科學(xué)技術(shù)院停止人工智能武器研發(fā)。
聯(lián)名信寫道:“自動武器一旦成熟,戰(zhàn)爭發(fā)展速度和規(guī)模將前所未有。它們可能會被恐怖分子利用?!?/p>
參與抵制的研究人員說,這處研發(fā)中心實際打算加入全球競爭,研發(fā)自動軍事武器?!绊n國科學(xué)技術(shù)院這樣的著名院校著眼于加速軍備競賽、研發(fā)武器,令人遺憾?!?/p>
專家:不放棄,就斷交
韓方:無意研發(fā)“機器人殺手”
這些研究人員說,將拒絕訪問韓國科學(xué)技術(shù)院、接待對方訪客或與對方合作研究項目,直至這所韓國頂尖大學(xué)承諾放棄研發(fā)缺少“有效人工控制”的武器。
韓國科學(xué)技術(shù)院4日迅速回應(yīng)遭遇抵制一事,強調(diào)“無意參與研發(fā)致命自動武器系統(tǒng)和‘機器人殺手’”。
韓國科學(xué)技術(shù)院校長申成澈(音譯)說,這所大學(xué)“顯然意識到”關(guān)于人工智能有違人類道德的擔(dān)憂?!拔抑厣觏n國科學(xué)技術(shù)院不會開展任何有違人類尊嚴(yán)的研究活動,包括研發(fā)缺少人工控制的自動武器?!?/p>
按這一學(xué)府的說法,新設(shè)研發(fā)中心將集中研究如何運用人工智能命令和控制系統(tǒng)、導(dǎo)航大型無人潛水器、指導(dǎo)智能飛行訓(xùn)練以及追蹤識別目標(biāo)。
發(fā)起聯(lián)名抵制的人工智能教授沃爾什說,抵制行動已經(jīng)發(fā)揮作用,“韓國科學(xué)技術(shù)院作出兩大讓步:不會開發(fā)自動武器,以及保證有意義的人工控制”。至于是否取消抵制,需與其他簽署聯(lián)名信的科研人員共同決定。
數(shù)千專家的擔(dān)心
潘多拉魔盒打開了就關(guān)不上
沃爾什告訴路透社記者,機器人和人工智能技術(shù)實際可以在軍事領(lǐng)域發(fā)揮有利作用,比如完成掃雷等威脅人類安全的任務(wù)。“但我們不能將決定生死的權(quán)力交給機器,這越過道德底線。”
霍金在世的最后幾年,一直在批評人工智能的不節(jié)制發(fā)展。他的憂懼也是許多專家的憂懼。
2015年1月,美國加州伯克利智能系統(tǒng)中心主任、計算機科學(xué)教授斯圖亞特·羅素起草了一封公開信,對人工智能研究發(fā)出警告。物理學(xué)家霍金、特斯拉CEO馬斯克,以及來自谷歌、臉譜和微軟的人工智能研究人員,還有哲學(xué)家,總共有數(shù)千人在公開信上簽名。
羅素是資深人工智能專家。他說:“我們的人工智能系統(tǒng),必須要做人類要求它們做的東西?!惫_信還警告人們啟動“人工智能軍備競賽”的危險。
馬斯克是第37個簽名者,他后來贊助了一項300名研究人員開啟的研究,如何讓人工智能對人類更有益。
去年8月,機器人和人工智能公司的116位創(chuàng)始人和首席執(zhí)行官們,包括馬斯克,又寫了公開信,敦促聯(lián)合國采取行動,以阻止“機器人殺手”的發(fā)展。公開信提醒聯(lián)合國有關(guān)部門,警惕“戰(zhàn)爭領(lǐng)域的第三次革命”。
信中說,“致命自動化”科技就是一個“潘多拉魔盒”,而時間就是那把開啟魔盒的“鑰匙”,潘多拉魔盒一旦打開,就很難再關(guān)閉。信中呼吁禁止使用人工智能來管理武器,“一旦發(fā)展起來,武力沖突便會成為可能,到那時,戰(zhàn)爭規(guī)模將空前浩大、蔓延速度也將超乎人類的想象?!?/p>
公開信建議將這個他們稱之為“道德錯誤”的技術(shù),列入聯(lián)合國《針對特定常規(guī)武器公約》禁止名單。
去年11月一段視頻在網(wǎng)上熱傳,稱是羅素在瑞士日內(nèi)瓦召開的聯(lián)合國特定常規(guī)武器公約會議上公布的虛擬視頻:一群類似殺人蜂的小型無人機沖入課堂,以人臉識別瞬間定位所有學(xué)生,將他們?nèi)繗⑺?。他以此告誡,如果恐怖分子拿到這種武器,將有多么嚴(yán)重的后果。
聯(lián)合國一個人工智能專家組去年11月啟動討論,以應(yīng)對人工智能武器對全球安全造成的挑戰(zhàn)。
本月9日,聯(lián)合國123個成員國代表將在日內(nèi)瓦就這一議題召開會議。
美國警察曾派機器人
炸死達(dá)拉斯槍手
“殺手機器人”指的是致命自主武器,即人工智能(AI)機器人武器,它可以獨立設(shè)計和選擇具體的作戰(zhàn)方案,不依賴于人類操控者的判斷。
由人類操控的作戰(zhàn)機器人已經(jīng)投入使用,比如武裝無人機,以及地面戰(zhàn)場上的機器人?!吨袊嗄陥蟆啡ツ?月20日的文章說:“在阿富汗戰(zhàn)爭和伊拉克戰(zhàn)爭的長時間地面穩(wěn)定作戰(zhàn)階段,美軍開始批量使用陸地機器人。例如,‘魔爪’機器人用于遂行偵察任務(wù),‘劍’式戰(zhàn)斗機器人還具有開火功能。據(jù)統(tǒng)計,2004年年末美軍投入作戰(zhàn)使用的陸地機器人大約為150個,4年后這一數(shù)字即增加到約1.2萬個?!?/p>
美國多地警方從國防部采購作戰(zhàn)機器人,2016年警方曾使用機器人炸死一個槍手。
這年7月7日在得克薩斯州達(dá)拉斯,正舉行反警察暴力執(zhí)法和種族歧視抗議活動,曾在阿富汗服役的25歲退役士兵邁卡·約翰遜,從一幢樓上開槍,打死了5
個警察,另有7個警察和兩個平民受傷。在警方反擊中,他退到一個車庫,對峙數(shù)小時。警方勸降不果,派出一部攜帶爆炸物的機器人,接近約翰遜藏身處引爆,將他炸死。
新美國基金會專家彼得·辛格說,這是美國警方首次使用作戰(zhàn)機器人擊斃嫌疑人。紐約警察局長布拉頓則說:“我們也有這個能力?!?/p>
一些人呼吁當(dāng)局禁止國防部出售,但美國政府診斷這類裝備能加強警方執(zhí)法能力,沒有禁止。不少人擔(dān)心,達(dá)拉斯警方的做法創(chuàng)下“一個危險的先例”。美國戰(zhàn)略與國際問題研究中心研究員里克·納爾遜說:“在戰(zhàn)爭中,你的目標(biāo)是殺死敵人……警察的執(zhí)法目標(biāo),卻并不是這樣。”
納爾遜認(rèn)為,當(dāng)操作人員無需直接面對被殺死的對象時,摁下“行動”鍵的心理負(fù)擔(dān)大幅減輕。因此,一旦使用“炸彈機器人”的閘門被打開,美國警方“將會越來越容易選擇使用這一手段”。
綜合新華社、人民日報、中國青年報等