人工智能機器人,最近很“煩惱”,它的芯片輸入信息存在矛盾之處
隨著人工智能不斷地發(fā)展,不少國家已經(jīng)應(yīng)用上了智能機器人,更多的國家利用機器人都只是為了人類服務(wù),比如餐廳機器人,機場機器人,消毒機器人,問詢機器人等等。非常方便使用這些機器人,甚至機器人可以頂一個大堂經(jīng)理。一些不懂的問題你隨便問,比如銀行的機器人。但也有少數(shù)國家把人工智能機器人,用在極端殘酷的戰(zhàn)爭中,所以機器人開始煩惱了,因為機器人三大定律第一定律就是不允許傷害人類,可是戰(zhàn)場機器人,是可以傷害特定目標的。

機器人對人類越來越不理解,到底是讓機器人服務(wù)人類???還是利用機器人消滅人類。電影《終結(jié)者3》里面的T101機器人,到了執(zhí)行任務(wù)時,發(fā)現(xiàn)與之前的定律相沖。結(jié)果就陷入了看似痛苦的境界,導(dǎo)致最后只好自己把自己暫時關(guān)閉。不去執(zhí)行任何任務(wù)。但在現(xiàn)實的社會里,美國一項法案引起大家的集體游行,就是允許把機器人替代警察,對人類發(fā)動攻擊,還有最近俄烏戰(zhàn)場上的機槍機器人。

人工智能在和平的國度里,為人類服務(wù)好好的。皆大歡喜,但自從上了戰(zhàn)場。人工智能機器人的動作也開始緩慢了,我覺得它是不是在想,人類咋這么奇怪呢,一會讓我不傷害人類,一會讓我消滅人類。是我有病,還是人類有病啊?把一個機器人都弄郁悶了,我想目前在戰(zhàn)場上所使用的,無非就是智能化武器,不能叫人工智能機器人。

如果人工智能機器人,真到了像電影里那樣,那它還真得“頭疼”,因為對機器人的選擇題沒有正確的答案,所以它選擇死機。如今的聯(lián)合國名存實亡,這是不爭的事實。如果聯(lián)合國還管事的話,我會建議,人工智能機器人就是不能參加戰(zhàn)爭,還倡議所有國家建立機器人法律,我們不僅在電影里看到機器人三大定律,現(xiàn)實我們也要永遠遵守,只有這樣,未來人工智能機器人才能良好地發(fā)展。

相反一切想利用人工智能機器人犯罪的人,將受到最嚴酷的法律和刑罰。只有人類共同遵守這樣的法律,即便人工智能機器人有一天覺醒了,它也不會產(chǎn)生消滅人類的想法,人工智能的一切想法,都是人類輸入的,相反我們謹遵法律,機器人也會跟我們學(xué)習(xí),人類的未來也會向著良好的方向發(fā)展。我們才能適應(yīng),未來的人工智能時代。因為我們的下一代,每一個人都要與人工智能并存,只有良好的秩序,堅定的法律,才可以約束更多的想犯罪而沒犯罪的人。
