ChatGPT癌癥治療“困難重重”,真假混講難辨真假,準確有待提高
近年來,人工智能在醫(yī)療領域的應用逐漸增多,其中自然語言處理模型如ChatGPT在提供醫(yī)療建議和信息方面引起了廣泛關注。然而,最新的研究表明,盡管ChatGPT在許多領域取得了成功,但它在癌癥治療方案上的準確性仍有待提高。
這項由布里格姆婦女醫(yī)院的研究人員進行的研究發(fā)現(xiàn),在一個由ChatGPT提供的癌癥治療方案的回答中,有三分之一的信息是錯誤的。更令人擔憂的是,ChatGPT傾向于混合正確和錯誤的信息,這使得很難區(qū)分哪些信息是可靠的。
研究人員對這種錯誤和不穩(wěn)定性的程度感到震驚,他們指出這是臨床領域亟需解決的重要安全問題。然而,這并不意味著人工智能在醫(yī)療領域沒有潛力。相反,人工智能的發(fā)展在某些領域已經(jīng)顯示出巨大的潛力。
早些時候的一項重大研究發(fā)現(xiàn),使用人工智能篩查乳腺癌是安全的,并且可能將放射科醫(yī)生的工作量減少近一半。此外,一位哈佛大學的計算機科學家最近發(fā)現(xiàn),最新版本的模型GPT-4在美國醫(yī)學執(zhí)照考試中表現(xiàn)出色,暗示其在臨床判斷力方面可能優(yōu)于一些醫(yī)生。
然而,盡管存在這些進展,當前的研究結果表明,像ChatGPT這樣的生成型人工智能模型在提供醫(yī)療信息時仍存在準確性問題,并且在回答有關晚期疾病的局部治療或免疫療法的問題時最容易出錯。因此,OpenAI 已經(jīng)承認ChatGPT的不可靠性,并在使用條款中明確警告說,他們的模型并非旨在提供醫(yī)療信息,也不應該用于“為嚴重的醫(yī)療狀況提供診斷或治療服務”。
目前,盡管人工智能在醫(yī)療領域發(fā)展勢頭強勁,但由于生成型模型的準確性問題,它們不太可能在近期取代醫(yī)生的角色。然而,這并不意味著我們應該放棄對人工智能在醫(yī)療中的應用。
相反,這個研究的結果提醒我們需要更加慎重地使用和開發(fā)這些模型,并將其作為輔助工具,而不是替代品。進一步的研究和實踐將有助于增加這些模型的準確性和可靠性,為醫(yī)療專家提供更好的支持和決策依據(jù),從而提高醫(yī)療服務的效果和質(zhì)量。