人工智能會意識到自己犯錯嗎
人工智能會意識到自己犯錯嗎 六十年過去了,人工智能飛速發(fā)展,已深入我們的日常生活。某些外賣平臺的智能算法不斷優(yōu)化,能從11萬條路線中找出最優(yōu)的配送方案,將過去1小時的配送時間壓縮成38分鐘;某些公司有了OA算法管理系統(tǒng)的加持,才能實時監(jiān)控員工的工作狀態(tài)。為什么技術(shù)越先進(jìn),我們的生活反而越不自由?
?
*不完善的算法會帶來可怕的結(jié)果
2016年,一輛半自動特斯拉汽車引發(fā)了一起致命的交通事故;2018年,一輛優(yōu)步機(jī)器人汽車在亞利桑那州的坦佩市撞死了一名行人。不久之后,一輛處于自動駕駛模式中的慧摩汽車受到了一輛人類駕駛的汽車的撞擊,該事件也給研究者們出了一個難題:如何改良人工智能駕駛員的程序,才能讓它們更好地同人類駕駛員平安無事地共享道路。在今天,無論是對還是錯,人工智能系統(tǒng)都無法解釋它們的決定,甚至它們的開發(fā)者也對促成系統(tǒng)決定的緣由一頭霧水。
*算法在單詞聯(lián)想中也會表現(xiàn)出偏見
例如,如果一款人工智能程序認(rèn)為“男性”與“程序員”兩個詞有固有的聯(lián)系,那么,當(dāng)它在為一個計算機(jī)編程職位檢索簡歷的時候,就很可能會將有著一個聽起來像男性的名字的簡歷排到面試表的頂部。另外,語音識別軟件在處理女性聲音和方言時效果要差得多,這就使得那些使用非標(biāo)準(zhǔn)發(fā)音方式的社會重要成員受到了排斥。
?
*人工智能可能永遠(yuǎn)不會完全成熟
2017年,由來自學(xué)界、民間組織和產(chǎn)業(yè)界的二十多位作者共同發(fā)表了一份報告,該報告列舉了一系列可怕的例子:一輛被盜用的自動駕駛汽車可能會被操縱,撞到人群之中,或者被劫持用來運(yùn)送爆炸物。感染了惡意軟件的大腦芯片或心臟起搏器可能被用于遠(yuǎn)程暗殺,犯罪分子也可以用面部或語音模擬技術(shù)進(jìn)行精準(zhǔn)定位網(wǎng)絡(luò)詐騙。作為當(dāng)前人工智能熱的主要推手,機(jī)器學(xué)習(xí)算法嚴(yán)重的局限性也已經(jīng)逐漸顯露了出來。如果這些問題沒有得到及時解決,那么人工智能的另一個冬天可能就離我們不遠(yuǎn)了。