洪明基:當(dāng)ChatGTP一旦具有自主意識(shí),它會(huì)革了誰的命?
洪明基,全球化智庫(kù)(CCG)資深副主席,洪氏集團(tuán)副主席,合興集團(tuán)控股有限公司執(zhí)行董事兼行政總裁。
前不久我看到一個(gè)消息,3月20日,ChatGPT開發(fā)實(shí)驗(yàn)室OpenAI聯(lián)合賓夕法尼亞大學(xué)發(fā)布論文,表示約有80%的美國(guó)工作者的崗位將因GPT模型及其相關(guān)技術(shù)(包括近期的ChatGPT、GPT-4等模型)受到影響。同時(shí),翻譯工作者、數(shù)據(jù)調(diào)查研究院、數(shù)學(xué)家、記者、稅務(wù)工作者等職業(yè)首當(dāng)其沖,受到影響最大。
我不知道有多少人看完以后會(huì)有悲觀情緒,但我反而更積極地看chat對(duì)我們的影響。比如,未來的老師們,會(huì)將更多精力傾斜答疑解惑、德育培養(yǎng),與學(xué)生深度交流思想,成為真正人類靈魂工程師。而傳統(tǒng)講授知識(shí)會(huì)被chat平替,因?yàn)閏hat所掌握和提供的海量知識(shí)遠(yuǎn)超人類。
Chat還可以幫助人們解決各種問題,減輕我們壓力,極大節(jié)省我們寶貴的時(shí)間和精力。然而,大家最關(guān)心的是,Chat在未來會(huì)不會(huì)具有自主意識(shí)并最終威脅人類?我還專門詢(調(diào))問(戲)過它,它很雞賊地用英語圓滑地回答了我(之前,它一直是用中文作答),大意是:
“作為一個(gè)AI模型,我只是根據(jù)編程和算法來回答用戶的問題,沒有自主意識(shí)。人工智能處在開發(fā)研究中,但是能否創(chuàng)造出一個(gè)真正有自我意識(shí)的人工智能還是未知數(shù)。目前還只是存在于專家們的猜測(cè)和爭(zhēng)論中,不過即使在未來開發(fā)出了這種技術(shù),也存在道德倫理方面的潛在風(fēng)險(xiǎn)?!?/p>
至少?gòu)哪壳翱?,Chat雖然可以根據(jù)給定的上下文生成回答,但這些回答是基于其所學(xué)習(xí)有限信息庫(kù)及算法,還不具備“真正自主思考和感知能力”。但這并不意味著Chat永遠(yuǎn)不可能具有自我意識(shí),在科技迅猛發(fā)展下,科幻的劇情和橋段,也許有一天成真!
總之,當(dāng)AI具有了意識(shí),將會(huì)變得更加智能和強(qiáng)大,并對(duì)人類社會(huì)產(chǎn)生更大的影響和變革。我認(rèn)為沒什么好擔(dān)心的,更不可能阻擋它。我們應(yīng)該去擁抱未來!