人工智能將成為人類終結(jié)者? 會取代人類的全部嗎?
肯定有很多施瓦辛格的粉絲都看過《終結(jié)者》這部劇,在這部劇里面主要講述的一個內(nèi)容就是超級強大的人工智能機器人反噬人類的故事,就是終結(jié)者號機器人產(chǎn)生了自我意識,差點把整個人類都滅絕?!督K結(jié)者》系列不變的線索,永遠是“終結(jié)者”與人類之間“追殺”和“保護”的故事。
有人希望擁有一個強大而忠實的人工智能守護者,也有人擔心人工智能成為人類的“終結(jié)者”那天遲早會到來。

那么,人工智能究竟會不會成為人類的“終結(jié)者”?
生物的進化的速度要以百萬年的時間來計算,而人工智能卻在以肉眼看得見的速度進化,不斷給人類社會帶來沖擊。在前兩年的時候,人類制造的人工智能阿爾法狗已經(jīng)能夠在圍棋這個領(lǐng)域上戰(zhàn)勝世界第一的棋手柯潔。
1997年,“Deep Blue”(深藍)打敗了人類國際象棋大師;
2011年在益智游戲節(jié)目《危險邊緣》中,“Watson”(沃森)戰(zhàn)勝過人類冠軍。
現(xiàn)在我們?nèi)祟愐部梢郧宄恼J識到,人工智能的力量確實是要比單純?nèi)祟惖牧α扛鼜姶笠恍?,可能在未來,人工智能將會占?jù)社會的主導地位,并不只是單純的為人類服務(wù),等他們真的產(chǎn)生了靈智,有可能就會征服人類,給他們服務(wù)。
在AI發(fā)展一片欣欣向榮的景象中,傳奇物理學家斯蒂芬·霍金卻對未來AI和人類的關(guān)系充滿了擔憂。他認為AI可能是人類文明歷史中最糟糕的發(fā)明,擔心AI終將取代人類。他曾多次公開表示:“徹底開發(fā)人工智能可能導致人類滅亡”。

霍金在很久之前就曾經(jīng)告誡過人類。千萬不要過度的發(fā)展人工智能,發(fā)展的太快對于人類沒有好處,很顯然,現(xiàn)在的人類早已經(jīng)忘記了霍金所說過的話,也有可能是壓根不把霍金說過的話當回事,當前也已經(jīng)可以看到在不少的國家都研究出來和人類比較相似的機器人,甚至可以和人類正常的交流,說話的聲音和表情動作也都不再那么生硬。
不僅是霍金,處于風口浪尖的“鋼鐵俠”設(shè)計者埃隆·馬斯克以及微軟創(chuàng)始人比爾·蓋茨,也都警告過要注意AI的“危害”。MIT的教授以及幾名來自美國三大互聯(lián)網(wǎng)巨頭谷歌、IBM和微軟的企業(yè)員工等,也曾聯(lián)名寫過公開信,表達AI未來會影響人類安全問題和社會福利問題的憂慮。
或許在未來,人工智能真的可以毀滅人類世界,但也絕對不是這一兩百年能夠做到的事情,到時候我們早已經(jīng)沒入黃土當中,就算是機器人真的要統(tǒng)治人類,世界也是人類自己作的。