ChatGPT 真的是人工智能嗎?
上世紀(jì)60年代,短短不到20行Lisp 代碼實(shí)現(xiàn)的Eliza 就可以實(shí)現(xiàn)下圖對(duì)話。
有600億個(gè)參數(shù)的chatGPT 實(shí)現(xiàn)“疑似人工智能”也沒(méi)什么奇怪的。 讓chatGPT做了一個(gè)小小的推理,結(jié)果基本上是“一本正經(jīng)的胡說(shuō)八道”。
正如王培教授所說(shuō): ChatGPT在 “推理” 中表現(xiàn)出的話題相關(guān)性就暴露了它并不真能進(jìn)行邏輯推理……我們甚至可以說(shuō)
ChatGPT “不解決問(wèn)題,但總結(jié)人們對(duì)問(wèn)題的解決”。
它只是個(gè)語(yǔ)言模型,語(yǔ)言模型是把語(yǔ)言本身當(dāng)作模擬對(duì)象,而智能模型則是把語(yǔ)言當(dāng)作通信工具和知識(shí)來(lái)源。 只研究語(yǔ)言,不研究語(yǔ)言背后的邏輯,只不過(guò)是互聯(lián)網(wǎng)上大量真假難辨的假新聞,和陰陽(yáng)怪氣的文案背后的真實(shí)來(lái)源。 人工智能最容易引起的誤解,就是“Eliza效應(yīng)”
標(biāo)簽: